Текст
                    MODERN CONTROL
SYSTEMS THEORY
MASANAO AOK1, GEORGE A. BEKEY,
DALE D. DONALSON, H. C. HSIEN,
FRANCIS H. KISHI, JAMES S. MEDITCH,
RICHARD A. NESBIT. PETER R. SCHULTZ,
EDWIN B. STEAR, ALLEN R. STUBBERUD
Edited by
CORNELIUS T. LEONDES
Professor of Engineering
University of California, Los Angeles
McGRAW-HILL BOOK COMPANY, INC.
NEW YORK ST. LOUIS TORONTO LONDON SANFRANCISCO SYDNEY


СОВРЕМЕННАЯ ТЕОРИЯ СИСТЕМ УПРАВЛЕНИЯ Под редакцией К. Т. ЛЕОНДЕСА Перевод с английского Я. А. КОГАНА, Ю. Э. САГАЛОВА, И. В. ТИМЕ Под редакцией Я. 3. ЦЫГ1КИНА ИЗДАТЕЛЬСТВО «НАУКА* ГЛАВНАЯ РЕДАКЦИЯ ФИЗИКО-МАТЕМАТИЧЕСКОЙ ЛИТЕРАТУРЫ МОСКВА 1970
6П2. 15 С 56 УДК 519.95 Современная теория систем управления, под редакцией К. Т. Л е о н- дес а, Главная редакция физико-математической литературы изд-ва «Наука», М., 1970, 512 стр. В книге нашли отражение основные методы теории систем управления, появившиеся к началу 60-х годов. Основное содержание книги включает в себя вопросы, ранее не изла¬ гавшиеся в советской литературе (исключение представляют главы 7 и 11, посвященные принципу максимума и анализу и синтезу дискретных систем, и отчасти главы 1 и 4, в которых рассматриваются методы синтеза линейных систем с переменными параметрами и методы построения формирующихся фильтров для случайных процессов). Главы 3 и 8 вводят читателя в круг идей функционального анализа. Приводятся примеры применения методов функционального анализа к реше¬ нию прикладных задач управления. В главе 2 излагается, в частности, вывод уравнений фильтрации Калмэна — Быоси для случая непрерывного времени. В главе 5 изложены методы анализа нелинейных систем управления с по¬ мощью прямого метода Ляпунова. В главе 6 рассматриваются различные методы синтеза аддитивных систем. В главе 9 сравниваются различные анали¬ тические методы синтеза оптических линейных систем управления, в частно¬ сти метод динамического программирования и принцип максимума Л. С. Пон- трягина. Глава 10 является по существу введением в применение методов стохастической аппроксимации к задачам автоматического управления. В главе 12 дается описание человека-оператора в системе управления. В главе 13 современные методы анализа и синтеза применяются к системам управ¬ ления летательными аппаратами. Илл. 93. Библ. 423 назв. 3-3-13 140-69
ОГЛАВЛЕНИЕ От редактора русского перевода Предисловие Глава 1. Методы синтеза линейных систем автоматического управления с переменными параметрами 17 1. 1. Некоторые характеристики линейных систем 17 1. 2. Некоторые свойства уравнения (1.1) 18 1. 3. Определение дифференциального уравнения по весовой функции 21 1. 4. Алгебра линейных дифференциальных уравнений 23 1. 5. Необходимые операции 23 1. 6. Умножение двух дифференциальных уравнений 25 1. 7. Единичный элемент 27 1. 8. Обратный элемент операции умножения 28 1. 9. Сложение двух дифференциальных уравнений 29 1.10. Нулевой элемент 31 1.11. Обратный элемент операции сложения 31 1.12. Умножение дифференциального уравнения на скаляр ... 31 1.13. Синтез методом сокращения оператора объекта 32 1.14. Синтез системы регулирования с обратной связью при из¬ меняемом объекте 34 1.15. Синтез системы регулирования при неизменном объекте 34 1.16. Пример 35 1.17. Замечания 36 1.18. Ограничения, накладываемые на выбор дифференциального уравнения всей системы 36 1.19. Алгебраический метод синтеза 37 1.20. Пример 40 1.21. Замечания 41 1.22. Задача аппроксимации 42 1.23. Метод аппроксимации в случае полиномиальных входных сигналов " 42 1.24. Метод аппроксимации в случае входных сигналов неполи¬ номиального вида 45 1.25. Пример 47 1.26. Аппроксимация разложимых функций 49 1.27. Синтез дифференциальных уравнений с переменными коэф¬ фициентами при помощи аналоговых моделирующих устройств 53 1 ос ^пР0111сние линейных систем 56 1.29. Эквивалентные системы 56
6 ОГЛАВЛЕНИЕ 1.30. Упрощасмость 60 1.31. Примеры 65 1.32. Аппроксимация линейных дифференциальных уравнений 69 1.33. Наилучшая в смысле метода наименьших квадратов аппроксимация решений алгебраических уравнений .... 69 1.34. Аппроксимация дифференциального уравнения уравнением более низкого порядка 70 1.35. Пример 74 1.36. Увеличение порядка интегрального и дифференциального операторов 76 1.37. Оценка ошибки аппроксимации • 80 1.38. Пример 83 1.39. Заключение 85 Литература 85 Глава 2. Синтез систем со случайными воздействиями 87 Раздел I. Оптимальный синтез многомерных систем со стационарными случайными воздействиями 87 2. 1. Введение 87 2. 2. Постановка задачи многомерной непрерывной фильтрации в смысле Винера 88 2. 3. Минимизация ошибки системы 90 2. 4. Оптимальное уравнение в области изображений 92 2. 5. Нахождение оптимальной матрицы передаточных функций методом неопределенных коэффициентов 95 2. 6. Пример синтеза многомерного фильтра 99 . 2. 7. Нахождение матрицы оптимальных передаточных функций методом факторизации матрицы спектральных плотностей 101 2. 8. Факторизация рациональной матрицы спектральных плот¬ ностей 103 2. 9. Обсуждение методов решения задачи синтеза оптимальных многомерных фильтров 111 2.10. Оптимальный синтез многомерных систем управления с полужесткой структурой 111 Раздел II. Дополнительные аспекты синтеза систем со случайными входами 114 2.11. Методы описания случайных процессов 114 2.12. Синтез систем с нестационарными входами 119 2.13. Метод моделирования сопряженной системы 125 2.14. Заключительные замечания 132 Литература 132 Глава 3. Функциональный анализ и его применение к задачам минимума среднеквадратичной ошибки ... 137 Раздел I. Некоторые основные понятия функционального анализа . . . 137 3.1. Введение 137 3.2. Типы пространств . . . . . 138 3.3. Основные неравенства 141 3.4. Ряды Фурье 141 3.5. Проекционный оператор 142 3.6. Применение теории проекционных операторов для мини¬ мизации среднеквадратичной ошибки 143
ОГЛАВЛЕНИЕ 7 Раздел II. Проблемы среднеквадратичной ошибки 146 3 7 Неотрицательные операторы в гильбертовом пространстве и минимизация квадратичных функционалов 146 3 8. Метод наискорейшего спуска в гильбертовом пространстве 150 3 9 Нелинейная фильтрация случайных процессов 152 3.10.' Иллюстративный пример 154 Литература 157 Глава 4. Формирующие фильтры для случайных процессов ... 159 4.1. Причины, побуждающие заниматься задачей определения формирующего фильтра 160 4.2. Исторический очерк 161 4.3*. Предварительные сведения из теории случайных процес¬ сов. Постановка задачи 162 4.4. Классические результаты для скалярных стационарных про¬ цессов 164 4.5.. Обобщение метода «факторизации рационального спектра» на нестационарные процессы 168 4.6. Дальнейшее обобщение результатов 173 4.7. Некоторые фундаментальные результаты для нестационар¬ ных процессов 174 4.8. Результаты, основанные на разложениях в ряды 181 4.9. Представление векторных процессов 184 Литература 193 Глава 5. Анализ нелинейных систем управления с помощью прямого метода Ляпунова 195 5.1. Введение . . . 195 5.2. Теоремы, определения и обозначения 204 5.3. Применение прямого метода Ляпунова и нахождение функ¬ ций Ляпунова 223 5.4. Заключение 260 Литература 262 Глава 6. Обзор теории и методов адаптивных систем управ¬ ления 264 6.1. Введение 264 6.2. Методы построения адаптивных систем с эталонной моделью 269 6.3. Оптимальные адаптивные методы 294 6.4. Оценка параметров и состояния 307 Литература 316 Глава 7. Введение в принцип максимума Л. С. Понтрягина . . . 320 7.1. Постановка задачи 320 7.2. Принцип максимума 325 7.3. Вывод принципа "максимума 328 04. Обобщения принципа максимума 340 7«* ?екот°Рые приложения принципа максимума 344 '.о. Заключение " 348 Литература 349
8 ОГЛАВЛЕНИЕ Глава 8. Проблема минимума нормы и некоторые другие методы оптимизации систем управления 351 Раздел 1. /.-проблема и задача аппроксимации в линейном нормиро¬ ванном пространстве 352 8.1. Введение 352 8.2. Математическая формулировка 353 8.3. Приложение к задачам чебышевской аппроксимации . . . 363 8.4. 1-проблема и задача аппроксимации в линейном нормиро¬ ванном пространстве 366 8.5. Аппроксимация в гильбертовом пространстве и определи¬ тель Грама 367 8.6. Единственность экстремального элемента и наилучшая аппроксимация 369 Раздел II. Приближенное решение функциональных уравнений . . . 371 8. 7. Введение 371 8. 8. Обратный оператор 372 8. 9. Сходимость приближенных решений 374 8.10. Квазилинеаризация 376 Литература 382 Глава 9. Методы аналитического конструирования в задаче оптимального управления 384 9.1. Введение 384 9.2. Формулировка задачи 385 9.3. Метод динамического программирования 386 9.4. Решение, получаемое методом динамического программи¬ рования 389 9.5. Решение задачи с помощью принципа максимума 393 9.6. Сравнение методов принципа максимума и динамического программирования 396 9.7. Смежные вопросы 398 Литература 398 Глава 10. Некоторые элементы теории стохастической аппрокси¬ мации и ее применение к данной задаче управления .... 400 10.1. Введение 400 10.2. Пример стохастической аппроксимации 400 10.3. Пример. Процесс Роббинса — Монро 402 10.4. Пример. Процесс Кифера—Вольфовица 404 10.5. Одна задача управления 405 10.6. Применение методов стохастической аппроксимации .... 407 10.7. Заключение 410 Литература 411 Глава 11. Анализ и синтез дискретных систем 413 11.1. Введение 413 11.2. Процесс квантования по времени 414 11.3. Поведение во времени идеализированной импульсной системы 416 11.4. Частотный анализ идеализированных линейных импульсных систем 418
ОГЛАВЛЕНИЕ 9 115 Формулировка дискретных задач с помощью понятия про¬ странства состояний 421 116 Устойчивость дискретных систем 430 11*7.' Импульсные системы с частотно-импульсной модуляцией 434 11*8. Широтно-импульсная модуляция. ШИМ 438 1L9.' Синтез дискретных систем 443 Литература 451 Глава 12. Человек-оператор в системах управления 454 12. 1. Введение 454 12! 2. Характеристики человек-оператора в системе управления 455 12. 3. Квазилинейные непрерывные модели 456 12. 4. Синтез квазилинейных непрерывных моделей : 459 12. 5. Зависимость параметров модели от вынуждающей функ¬ ции 462 12. 6. Недостатки квазилинейной непрерывной модели . . . . > 462 12. 7. Дискретные или импульсные модели человека-оператора 463 12. 8. Анализ непрерывных моделей с квантованием по времени при случайных входных сигналах 466 12. 9. Нелинейные модели человека-оператора 473 12.10. Изменяемые во времени модели человека-оператора . . . 474 12.11. Методы автоматического согласования (отслеживания па¬ раметров) модели для описания характеристики человека- оператора [34] 476 12.12. Непрерывные методы отслеживания параметров 478 12.13. Согласование модели в случае ортогональных фильтров 482 12.14. Заключение 483 Литература 483 Глава 13. Применение современных методов анализа и синтеза к системам управления летательными аппаратами 486 13.1. Введение 486 13.2. Общие свойства уравнений динамики 487 13.3. Общие задачи управления 492 13.4. Методы анализа и решения задач управления 495 13.5. Характерные примеры 500 Литература 507 Предметный указатель 509
ОТ РЕДАКТОРА РУССКОГО ПЕРЕВОДА В настоящее время нет недостатка в книгах по теории и технике автоматического управления как учебного, так и монографического характера. В силу быстрого развития теории управления многие из этих книг устаревают порой до выхода в свет. Поэтому особую важность приобретают книги, в которых изложены наиболее важные направления современной теории, созданные в последние годы. Не перегруженные деталями, эти книги позволяют познакомиться широ¬ кому кругу специалистов с состоянием и перспективами развития этих новых направлений. Именно этим требованиям и удовлетворяет предлагаемый совет¬ скому читателю перевод книги «Современная теория систем управле¬ ния», написанной коллективом известных американских специалистов под редакцией проф. Леондеса. В книге изложено много новых вопросов, которые до самого по¬ следнего времени обсуждались только на страницах технических жур¬ налов. Это относится к новым методам анализа и синтеза систем управления (методов функционального анализа, стохастической аппрок¬ симации), теории адаптивных систем и систем с человеком-оператором. Ряд вопросов, относящихся к сравнительно известным разделам, таким, как системы с переменными параметрами, поведение систем при слу¬ чайных воздействиях, нелинейные, дискретные и оптимальные системы, изложены в четкой и ясной форме и представят большой интерес не только для новичков, но и для специалистов. Составленная в виде сборника отдельных работ, книга позволит специалистам с минимальной затратой времени познакомиться с суще¬ ством интересующих его направлений, а также с библиографией ра¬ бот по этому направлению.
ОТ РЕДАКТОРА РУССКОГО ПЕРЕВОДА 1! Ссылки на литературу, добавленную редактором в библиографию соответствующих глав, отмечены звездочкой. По сравнению с ориги¬ налом глава 1 дополнена новыми параграфами 1.28—1.38, которые представляют собой разделы книги [17] автора этой главы. Книга, безусловно, будет полезна научным работникам, инженерам, аспирантам, студентам и всем тем, кто пожелает познакомиться с но¬ выми направлениями современной теории автоматического управления. В переводе книги принимали участие Я. А. Коган, (гл. 2,4,9,10), Ю. Э. Сагалов (гл. 1, 6, 12, 13) и И. В. Тиме (гл. 3, 5, 7, 8, 11) Параграфы 1.28—1.38 главы 1 переведены С. К. Арутюновым. Я. Цыпкин
ПРЕДИСЛОВИЕ По сравнению с сегодняшним уровнем знаний в начале 40-х го¬ дов этого столетия методов анализа и синтеза систем управления фактически не было. В то время только начинали развиваться методы расчета простых опережающих или запаздывающих корректирующих звеньев с желаемыми временными характеристиками для относительно простых линейных систем. Метод корневого годографа и связанные с ним понятия появились всего лишь немногим более десяти лет назад. Метод гармонического коэффициента усиления, столь полезный при расчете и исследовании многих нелинейных систем управления, также появился в 50-х годах. Во многих случаях задачи, возникающие в приложениях, опережали появление методов, пригодных для их решения. Последнее десятилетие характеризуется весьма значительным рос¬ том числа приложений теории систем управления. Благодаря появле¬ нию все более усложняющихся разнообразных прикладных задач сильно развилась и сама теория. Развитию теории систем управления способствовало и то, что за это время было поставлено много хоро¬ ших задач, которые привлекли внимание математиков, физиков и инже- неров-теоретиков. Ярким примером такого интереса к задачам теории систем управления могут служить работы математиков Р. Велл¬ мана по динамическому программированию и Л. С. Понтрягина по принципу максимума. Стоит, вероятно, отметить, что если в начале 40-х годов имевшиеся теоретические методы во многих случаях были неадекватны много¬ численным прикладным задачам, то в последние годы наблюдается ситуация, когда многие развитые или развиваемые методы появляются задолго до возможного их применения, если вообще это когда-либо можно будет сделать. Однако даже в этих случаях есть примеры, в которых теоретические результаты приводили в конечном счете к плодотворным идеям с точки зрения приложений. Развитие теории в любом случае неизбежно ведет к более глубокому пониманию изуча¬ емых явлений. Эта книга является хорошим подтверждением некоторых из вы¬ сказанных выше суждений. Большинство из описанных в ней методов
ПРЕДИСЛОВИЕ 13 нпосъ менее пяти лет назад. Возможности применения этих ме- Подов вполне ясны. Возьмем, например, главу 1 «Методы синтеза ли¬ нейных систем автоматического управления с переменными'парамет¬ рами», написанную Стабберудом. Еще несколько лет назад общие методы синтеза линейных систем с переменными параметрами нахо¬ дились в относительно неудовлетворительном состоянии. Результаты исследований Стабберуда за последние годы в значительной степени способствовали изменению такой ситуации. Эти результаты имеют многочисленные полезные практические применения, например в не¬ которых задачах управления посадкой самолета, задаче управления снарядами класса «воздух — воздух» и многих других. К этому мож¬ но добавить, что в ряде случаев при анализе и синтезе нелинейных систем их можно с достаточной степенью точности аппроксимировать линейными системами с переменными параметрами. Аналогичные за¬ мечания можно сделать и почти по всему остальному материалу книги. При выборе содержания этой книги мы исходили из следующих соображений. Прежде всего отдавалось предпочтение тем методам, которые, по-видимому, выдержат проверку временем. Кроме того, там, где это было возможно и уместно, была опущена большая часть из тех важных методов, которые уже хорошо изложены где-нибудь в другом месте. Например, эффективный метод динамического программирования рассматривается Шульцем в одном из параграфов главы 9 скорее с целью сравнения, чем с целью вывода, так как уже имеются широко известные книги и работы, в которых он хорошо изложен. С дру¬ гой стороны, методы, представленные в книге Понтрягина и др. «Математическая теория оптимальных процессов», довольно под¬ робно рассмотрены в главе 7. Теперь уместно в нескольких словах обсудить каждую из глав книги и роль, которую описанные в них методы играют при совре¬ менном состоянии теории управления. Область синтеза линейных авто¬ матических систем с переменными параметрами, рассматриваемая в главе 1, является предельно важной в прикладной теории систем управления, и некоторые замечания о характере этой главы были сделаны выше. Работы, посвященные синтезу многомерных систем или многопо¬ люсников со случайными воздействиями, появились сравнительно недавно. Отметим также, что подходящие методы математического описания случайных процессов, которые могут поступать на вход систем управления, получили слабое освещение в литературе. Осо¬ бенно это касается более сложных процессов, встречающихся при проектировании технических систем. Глава 2 поднимает эти важные вопросы. Можно с уверенностью сказать, что в следующем десятилетии Довольно большое число инженеров-практиков будет хорошо знать
14 ПРЕДИСЛОВИЕ методы функционального анализа и понимать их ценность для реше¬ ния инженерных задач теории управления. Глава 3 вводит читателя в круг идей функционального анализа. В ней приводятся примеры применения методов функционального анализа к решению приклад¬ ных задач управления. В последнее время появилось много прекрас¬ ных книг по функциональному анализу, которые предназначены для инженеров. Особенно здесь стоит отметить очень хорошие учебники, изданные в СССР. При использовании методов моделирования, например метода моделирования сопряженной системы, предложенного более десяти лет назад Лэнингом и Бэттином для определения среднеквадратичной ошибки линейной системы с переменными параметрами, на вход ко¬ торой поступает нестационарный случайный процесс, необходимо уметь получать нестационарный случайный сигнал из стационарного «белого шума». Кроме того, различные развитые недавно методы синтеза оптимальных линейных фильтров с переменными параметрами, на вход которых поступают нестационарные случайные сигналы, существенно опираются на математическое описание формирующего фильтра, посредством которого данный нестационарный случайный сигнал получается из «белого шума». Уже из сказанного можно усмотреть важность решений задачи определения формирующего фильтра при рассмотрении довольно широкого класса задач автома¬ тического управления. Поэтому глава 4 посвящена формирующим фильтрам для случайных процессов. В последнее время появились достаточно хорошие учебники по применению прямого метода Ляпунова для анализа нелинейных систем управления. Среди них книга В. Хана, которая недавно пере¬ ведена на английский язык, и хорошо известная книга Ласаля и Леф- шеца. Однако в обеих книгах отсутствуют некоторые очень полезные для практики методы образования функции Ляпунова, например метод градиента, предложенный недавно Д. Г. Шульцем. Это, конечно, произошло из-за того, что метод Шульца был опубликован после выхода упомянутых книг. С момента выхода этих книг появились и другие новые результаты. Ввиду большой важности прямого метода Ляпунова для прикладных задач, а также для того, чтобы сделать ряд полученных недавно интересных результатов более доступными и возможно более пригодными для инженеров, в книгу включена глава 5. Среди методов, рассматриваемых в этой главе, отметим весьма существенный для практики метод Ляпунова для неавтономных систем. Учитывая тенденцию все большего усложнения задач управления, для их решения разрабатываются новые методы. Наиболее интересные из них с точки зрения приложений дает теория адаптивных систем управления. Глава б посвящена рассмотрению одного подхода к раз¬ работке различных методов синтеза адаптивных систем управления.
ПРЕДИСЛОВИЕ 15 Не затрагивая здесь вопрос определения адаптивных систем управле¬ ния, оставим дальнейшие замечания до главы 6. О главе 7 уже говорилось выше. Глава 8 посвящена развитию подхода к задаче оптимизации систем, связанного с так называемой L-проблемой моментов № Г Крейна. Методы, применяемые здесь, основаны на функциональном анализе и были рассмотрены ранее в главе 3. В данной главе изла¬ гается Г-проблема Крейна и показывается, как с ее помощью можно избежать решения двухточечной краевой задачи, возникающей во мно¬ гих оптимальных задачах. Часть из них обсуждается в главе 9; хотя при этом часто возникают другие вычислительные проблемы подобной трудности. Указываются и другие важные приложения рассматривае¬ мого подхода. Глава 9 посвящена рассмотрению и сравнению различных анали¬ тических методов синтеза оптимальных линейных систем управления. Изучаемые и сравниваемые здесь методы включают динамическое программирование и принцип максимума Понтрягина. Такое сравнение должно оказаться весьма полезным для более ясного понимания отно¬ сительной ценности этих методов при решении рассмотренного класса задач. Теория стохастической аппроксимации дает один из подходов к исследованию стохастической устойчивости систем управления. Несмотря на то, что методы стохастической аппроксимации в настоя¬ щее время мало используются, обзор и исследование задач, которые можно решать с помощью этих важных методов, вполне уместны, и эти вопросы рассматриваются в главе 10. Вычислительные машины дискретного действия играют все боль¬ шую роль в современных устройствах управления. Основой развития этих устройств являются методы анализа и синтеза дискретных сис¬ тем. Огромная важность этой области ясна из материалов, представ¬ ленных в главе 11. Человек-оператор присутствует во многих системах управления либо как неотъемлемая часть, либо как элемент, включающийся в ра¬ боту в случае крайней необходимости, например при выходе из строя основных узлов системы. В последней ситуации конструкция системы управления обязательно должна учитывать рабочие характеристики человека-оператора или его передаточную функцию. Такой аналитиче¬ ский подход можно использовать, например, для установления огра¬ ничений на величины параметров системы управления, чтобы гаранти¬ ровать, что человек-оператор действительно сможет управлять столь сложной системой, как, например, космический корабль, если вне¬ запно возникнет аварийная ситуация из-за неисправности элементов системы управления. » Глава 12 посвящена общим вопросам математического описания чел°века-оператора в системах управления.
16- ПРЕДИСЛОВИЕ Книга заканчивается главой, в которой содержатся некоторые замечания о применении теории и методов, изложенных в предыду¬ щих главах, к системам управления летательными аппаратами. Теперь приятно выразить ряд благодарностей. Прежде всего редак¬ тор хотел бы поблагодарить AFORS (Научно-исследовательское управ¬ ление ВВС США) и особенно тех из этой организации, кто помог осуществить научные исследования по теории систем управления в UCLA (Калифорнийский университет, Лос-Анжелос) и других инсти¬ тутах, работающих в этой области. Многие результаты, изложенные здесь, получены в UCLA и других исследовательских группах, финан¬ сируемых военными организациями. Без такого финансирования эти результаты, целый ряд из которых имеет большое прикладное значе¬ ние, вряд ли можно было бы получить. Эта книга создана на основе государственного двухнедельного летнего курса, читавшегося в UCLA в течение нескольких прошлых лет. Приятно поблагодарить слушателей, многие из которых были опытными инженерами-практиками, за их замечания, способствовав¬ шие улучшению курса и книги. И наконец, очень приятно выразить благодарность коллективу авторов, которые, несмотря на большую занятость, взяли на себя ответственность в написании этой книги. Общение с ними в этом рискованном предприятии доставило мне огромное удовольствие. А*. 7. Леондес
ГЛАВА Г МЕТОДЫ СИНТЕЗА ЛИНЕЙНЫХ СИСТЕМ АВТОМАТИЧЕСКОГО УПРАВЛЕНИЯ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ Стабберуд (A. R. Stubberud) В теории управления хорошо разработаны общие методы анализа и синтеза линейных систем с постоянными параметрами, но гораздо меньше уделено внимания анализу и синтезу линейных систем с пере¬ менными параметрами и нелинейных систем. Это объясняется, во-пер¬ вых, тем, что общее решение линейных дифференциальных уравнений с постоянными коэффициентами находится значительно легче, чем общее решение линейных уравнений с переменными коэффициентами и тем более нелинейных дифференциальных уравнений, и, во-вторых, тем, что во многих случаях эти уравнения достаточно хорошо аппрокси¬ мируются линейными системами с постоянными коэффициентами. В данной главе рассмотрены методы синтеза линейных систем автоматического управления с переменными параметрами. Эти методы являются вполне общими и аналогичны классическим методам синтеза линейных систем с постоянными параметрами. 1.1. Некоторые характеристики линейных систем На рис. 1.1 изображена линейная система общего вида. Входная величина системы является некоторой функцией времени, обозначае¬ мой x(t), а соответствующая ей выходная величина —у (t). Вообще говоря, x(t) и y(t) могут быть векторами, однако в данной главе считается, что они скаляры. Линейная система определяется следующим образом. Определение*). Пусть входной величине системы хх соответствует выходная вели¬ чина уь а х2— выходная величина у2. Система называется линейной, *) Системы, удовлетворяющие этому определению, иногда называются линейными системами с нулевыми начальными условиями, но в данной главе мы будем называть их просто линейными.
18 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. 1 если выходной величине ххсх~\- соответствует выходная величина \УС\ -{“УчС* для любых постоянных сх и с2. При этом предполагается, что в момент поступления в y(t) систему сигнала x(t) сигнал • y(t) и его производные равны нулю. Рис. 1.1. Линейная система общего вида W. Такому определению удов¬ летворяют самые- разнообраз¬ ные системы управления, например системы, которые описываются ли¬ нейными алгебраическими уравнениями, линейными обыкновенными дифференциальными уравнениями и линейными уравнениями в частных производных. Ниже рассматриваются лишь системы, которые описы¬ ваются линейными обыкновенными дифференциальными уравнениями, в частности дифференциальными уравнениями вида %a^W = %b^W’ *«<*< + «>. (1.1) 1=0 i=0 или в операторной форме L (у) = М (х)у (1.1)' где х — входная, а у — выходная величина системы. В дальнейшем изложении предполагается 1) a,i(t) и bi(t) непрерывны и имеют необходимое число непре¬ рывных производных; 2) без ограничения общности an(t)= 1; 3) начальное значение \y(t^\ равно нулю, т. е. изучается только передаточная характеристика уравнения (1.1). Такие системы будут также называться линейными нестационарными системами. x(t) W 1.2. Некоторые свойства уравнения (1.1) Запишем уравнение (1.1) в следующем виде: L(y)=r{t\ (1.2) где r(t) = M(x). Для простоты будем считать, что t изменяется в пре¬ делах “Не¬ однородным уравнением, соответствующим уравнению (1.2), является L{u) = 0. (1.3) Задавая для уравнения (1.3) п совокупностей (j = 1, 2, ..., п) началь¬ ных условий вида dt*-1 ( 1 при / = /, = п ' . (/=1, .... «)> (1.4) ‘ =‘о ( 0 при / ф I
1.2] НЕКОТОРЫЕ СВОЙСТВА УРАВНЕНИЯ (1.1) 19 получим п линейно независимых решений Так как уравнение (1 3) линейное, решение n{t) для произвольных начальных условий £Н = Н1'> (/ = 0, 1, п— 1) (1.5) dt»' можно записать следующим образом: П Н(0= 2 иу-"М/(0. (1.6) Функции Uj{t) образуют фундаментальную систему решений уравне¬ ния (1.3). Эта система не является единственной, так как любой дру¬ гой набор п линейно независимых решений v^it) ... vn(t) представляет также фундаментальную систему, которая может быть выражена через первую с помощью соотношения (1.7) Vi (t) an ., Чп И|(0 МО аЯ1 • • • *пп ««(0 или в матричной форме V = || а I] иу (1.8) где [а] — невырожденная матрица констант. С другой стороны, если п произвольно взятых решений уравне¬ ния (1.3) линейно зависимы, то они не являются фундаментальной системой. Достаточным условием линейной независимости системы решений Ui(t) ... un(t) является неравенство нулю определителя Вронского, или вронскиана Д = щ Щ un dat du2 dun ~dt ~dt dt dn-lux dn~la2 dn~lu, dtn~l dtn~l * • • dtn-l (1.9) Остановимся на одном важном решении уравнения (1.3), назы¬ ваемом весовой функцией, которая определяется как решение (1.3) при начальных условиях dlu It1 = о, / = х dn~lu dtn~1 t = X (/ = 0, 1, 2, ..., /z-2), (1.10) где f-oo. С помощью произвольной фундаментальной си¬ стемы U\{t) ... un(t) это решение можно переписать как и (9= 2 h щ (0. i = 1 (1.11)
20 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. 1 где (3* находятся подстановкой уравнения (1.11) в (1.10) так, что получаются п уравнений, которые записаны в матричной форме (1.12) MO PiW 0 diii ~dt , t = X dun dt t = x MO 0 dn~1ul dt”'1 t = X dn~lun " dt”~l t = k MO 1 Так как определитель этой системы есть вронскиан, то данная си¬ стема уравнений всегда имеет решение, которое и является весовой функцией U(f)=Q(t, z)= 2 МО МО- i = 1 (1.13) Общее решение уравнения (1.2) теперь можно выразить через •весовую функцию при помощи интеграла свертки y(t)= ^ Q(t, z)r(z)dx. to (1.14) Непосредственной подстановкой легко показать, что y(t) удовлетво¬ ряет уравнению (1.2), если вспомнить, что для а {х) z(x)= \ F (х, t) dt Ь(Х) справедливо а {х) d±— [ dx~ ) ь (Л-) dF(xy t) д{х) db dt + F(x, a)^-F(x, b)~. dx' (1.15) (1.16) Определение весовой функции можно обобщить, записывая r(t) в следующем виде: 40= У bt(f) i=0 dlx dt19 (1.17) Если подставить (1.13) и (1.17) в выражение (1.14), которое затем проинтегрировать по частям, то найдем y(t)= $ 2 щЦ){% (- iy d’[bj^ —}*<?)d' + к(0-у(0- (1.18) /о *=1 0=0
1.3] ОПРЕДЕЛЕНИЕ УРАВНЕНИЯ ПО ВЕСОВОЙ ФУНКЦИИ 2! Определим теперь весовую функцию W(t, т) для уравнения (1.1) так, чтобы при свертке ее с x(t) получалось y(t), т. е. Из сравнения выражений (1.18) и (1.19) следует, что W(t, х) равна Выше было показано, что каждому дифференциальному уравнению вида (1.1) соответствует весовая функция, определяемая формулами (1.20а) и (1.206). Изложенный метод нахождения W(t, т) для урав¬ нения (1.1) обычно очень труден. В частности, трудно найти фунда¬ ментальную систему решений произвольного линейного дифференци¬ ального уравнения с переменными коэффициентами, и не всегда эти функции могут быть выражены в замкнутой форме. С другой сто¬ роны, как будет сейчас показано, гораздо легче восстановить диффе¬ ренциальное уравнение, зная его весовую функцию. Пусть задана весовая функция вида (1.20) и требуется найти соот¬ ветствующее ей дифференциальное уравнение. Значения (т), кото¬ рые определяются выражением (1.21), неизвестны. Порядок дифферен¬ циального уравнения должен быть равен п, так как в W(t, т) входят п линейно независимых решений Ui(t). Для представления искомого уравнения в форме (1.1) надо найти аг*(£) и bi(t). Так как Ui (t) являются решениями однородного уравнения (1.3), то у (t) = ^ W (ty z) л; (т) dz. (1.19) п W{t, х) = 2 И, (*) а, (х) ~ bn (t) 5 (t — х), (1.20a) i = 1 = Writ, T) + MW —т), (1.206) где (1.21) a — T) — S-функция Дирака. 1.3. Определение дифференциального уравнения по весовой функции п 1 */<о = 0 (г = 1, 2, ..., п). (1.22) Уравнения (1.22) образуют систему п уравнений с п^\-\ неизвест- ными. Если an(t) положить равной единице, то из этих уравнений можно найти остальные
22 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. 1 Найдя cij(t\ можно определить Пусть весовая функция Q(t, т), соответствующая однородному уравнению (1.3), известна. Тогда ре¬ шение уравнения (1.1) выражается в виде (1.19) и в виде )>(()= \ 0(1,11) У ьлщИ. Lk 1 w d№ Ly= О dQ. (1.23) Приравнивая их, найдем dlx (0) d(by dB=^ W(t,B)x(b)dB. (1.24) to t\ 4= о Теперь, применяя к обеим частям равенства (1.24) дифференциаль- п dP 2,^ dP ар(ч^£р, получим выражение р = 0 п п V t 2 b<{t)ifj= 2 мо£» S w& 7=0 р = 0 L/0 Подставим (1.206) в (1.25) и для простоты записи обозначим Fo(t) = bn(t), (1.25) д‘-‘ W1 (t, х) dtl~l д‘-1 W(t, т) дЖ (1.26) Тогда производные в правой части равенства (1.25) определятся следующим образом: dP dtp t I J W(t, B)x(B)dB = J J Wi(t, B)x(B)dB-\- t0 J h P + 2 ^[Fp-a(*)*(9] (P = 0, 1, .... П). (1.27) k= 0 Соответственно можно записать всю правую часть равенства (1.25) п t п р 2 мо $ 2 мо 2 ^[Fp'i<{t) (U8) р = 0 t о Так как р = о А> = 0 ть t 2 5 M9-£p[^iM)]*(e)de=o- р = 0 to (1.29)
1.5] НЕОБХОДИМЫЕ ОПЕРАЦИИ 23 £[/>,(0*(01 = 2 (1.30) являются биномиальными коэффициентами, то dk~J (1.31) где 2 ь>тё= 2 2 2 (•) “-‘о Si'v.wif. у=0 p=0A=0/=0u/ Изменяя порядок суммирования в правой части равенства (1.31) сле¬ дующим образом: п р k п р р п п р 222 = 222 = 2112. о-32» р = 0 k = 0 у = 0 р = 0 у = 0 /г = / / = 0 p=jk = j получим, что мо= 2 2 '=°- '•2 * <133> P=Jk=j Выражение (1.33) позволяет определить bj(t) по известным ap(t) и FM 1.4. Алгебра линейных дифференциальных уравнений В § 1.5—1.12 вводится применение операторной алгебры линей¬ ных дифференциальных уравнений. Эта алгебра используется в после¬ дующих параграфах для разработки некоторых методов синтеза линей¬ ных автоматических систем с переменными параметрами. 1.5. Необходимые операции Ввиду того что линейное дифференциальное уравнение вида (1.1) является линейным преобразованием аг в у, рассматриваемая алгебра является алгеброй линейных преобразований. В дальнейшем изложе¬ нии заглавными буквами (А, В, С,...) обозначаются дифференциаль¬ ные уравнения вида (1.1). Алгебра линейных дифференциальных уравнений включает три операции: (1) Сложение двух дифференциальных уравнений, т. е. А-{-В = С. (1.34) (2) Умножение дифференциального уравнения на скаляр Ap(t) = B (1.35)
24 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. 1 или р (t) А = С. (1.36) (Если p(t) — const, то В = С.) (3) Умножение двух дифференциальных уравнений В А = С. (1.37) Введенные операции условно показаны с помощью блок-диаграмм на рис. 1.2. Очевидно, для того чтобы пользоваться этой алгеброй, а) Сложение двух дифференциальных уравнений X т А у О —о х В б) Умножение дифференциальных уравнений на сксдляр справа х А P(t) У o — cpL С 6) Умножение дифференциального уравнения на скаляр слева, г) Умножение двух дифференциальных уравнений Рис. 1.2. Операции алгебры преобразований. следует определить каждую из операций. Кроме того, ниже будут определены следующие важные элементы этой алгебры: 1. Единичный элемент. 2. Нулевой элемент. 3. Обратный элемент операции сложения. 4. Обратный элемент операции умножения.
1.6] УМНОЖЕНИЕ ДВУХ ДИФФЕРЕНЦИАЛЬНЫХ УРАВНЕНИЙ 25 1.6 Умножение двух дифференциальных уравнений Умножение удобно определить сначала, поскольку оно исполь¬ зуется для определения операции сложения. Из рис. 1.2, г ясно, что умножение является сверткой, если А и В представлены весо¬ выми функциями. х Дифф Инт У Рис. 1.3. Блок-схема дифференциального уравнения в терминах обозначений уравнения 1.1. Любое дифференциальное уравнение вида (1.1) можно представить с помощью дифференциального и интегрального операторов, как это показано на рис. 1.3. Если использовать те же обозначения, что и в Дифф, Х7 Ингл1 У Диффо У; Интр а) Схема, умножения двух дифференциальных уравнений х Дифф1 х, ДифФз Интпэ У? Инт2 6) Схема, знвивалентная рис. I 4У а х Дифф Инт в) Схема, эквивалентная рис. 14%б Рис. 1.4. Умножение двух дифференциальных уравнений. уравнении (1.1), зависимость между переменными х, у и z будет иметь следующий вид: = У мо— dtJ ' J = o (1.38) (1.39) i = 0 Теперь операцию умножения двух дифференциальных уравнений можно представить рис. 1.4, а. Запишем уравнения, которые определяют
26 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. t зависимости между переменными в этой системе: 2ь,т^ = х,= 2 «,(/>-& (1.Ю) у = 0 i = 0 т т 2 2 (1-41) 5 = 0 /г = 0 На рис. 1.4, б два внутренних оператора «переставлены». Вообще говоря, эти операторы не коммутативны, поэтому Дифф2 ф Диффз, Hhtj ф Инт3. Далее необходимо выразить зависимость между хь (о и уг через пара¬ метры уравнений (1.40) и (1.41). Предположим, что эти зависимости можно записать в виде т 0-42) а = 0 И 2А0(*>Ф=®’ (1.43) (3 = 0 где ga(t) и hp(t) пока неизвестные коэффициенты. Подставляя хх и уь выраженные через у, в уравнения (1.42) и (1.43), находим следую¬ щее соотношение: т п а 2 У У I ° U (п rf(tt~c’g«(<) _ Li Li \cy®a'’ dt'*~C) dt!+c a = 0 i = 0 С = 0 n m (3 = 2 2 2{1)кт^Р-^- (..44, 3 = 0 5 = 0 d = 0 Если приравнять коэффициенты при производных одного порядка от у, то получится система из т-\-пА- 1 совместных уравнений с т-\-п-\-2 неизвестными. Без потери общности положим hn(t)= 1, тогда эти уравнения можно решить и найти остальные 1 неизвестные. При таком способе определения ga(t) и h^(t) рис. 1.4, а и \А,б эквивалентны. Кроме того, объединяя дифференциальные и инте¬ гральные операторы, схему на рис. 1.4, б можно свести к схеме на
1.7] ЕДИНИЧНЫЙ ЭЛЕМЕНТ 27 рис. 1.4, в. В результате получается следующее уравнение: V V \ l*\h if\ d*+f'z £ 2d Li \f) 9 dtm-fi dttk+f' <3 = 0 k = 0 /=0 r m n a = 2 2 a = 0 j = 0 r = 0 где x—входная, a z—выходная величина. Таким образом, умножение двух дифференциальных уравнений, заданных в виде (1.40) и (1.41), может быть выполнено с помощью последовательности действий, указанных равенствами (1.42), (1.43), (1.44) и (1.45). Символически операция умножения обозначается как АВ = С, (1.46) где буква А соответствует уравнению (1.41), буква В—(1.40), а буква С — (1.45). 1.7. Единичный элемент • Единичным элементом алгебры называется такой элемент, который, будучи примененным к функции, оставляет ее неизменной. В ал¬ гебре линейных дифференциальных уравнений единичным элементом является любое дифференциальное уравнение вида 2 2 <М7) i = 0 i = 0 Это можно показать, если выходную величину у записать следующим образом: у = х + у1. (1.48) Подстановка (1.48) в (1.47) дает 2 M*)j2r=a (1-49) <■-=0 Таким образом, ух представляет свободное движение системы (реше¬ ние однородного уравнения, соответствующего (1.47)), а х — вынуж¬ денное движение системы. Если положить начальное условие по у равным нулю, У\ = 0 и у = х, то уравнение вида (1.47) будет удовле¬ творять определению единичного элемента.
28 СИНТЕЗ СИ СТЕЛА С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. I 1.8. Обратный элемент операции умножения Обратный элемент умножения, обозначаемый А-1, определяется как дифференциальное уравнение, которое, будучи умножено на диф¬ ференциальное уравнение А, дает единичный элемент. Символически это записывается как А А-1 = 7. (1.50) Элемент А-1 можно найти следующим образом. Рассмотрим после¬ довательность преобразований, которая изображена на рис. 1.5, а, где Дифф1 Инт-f Диффг ИнгЛ‘ ги-о а.) X ч Дифф, Z Инт2 X е ) V б) Рис. 1.5. Пбследовательность преобразований и последова¬ тельность обратная ей. преобразование, изображенное на рис. 1.2, г, разделено на интеграль¬ ный и дифференциальный операторы. Оператор Дифф! имеет вид a Hhtj имеет вид 2;U &Х ’~йГз=г' j = о X d’y z= / at —— dt‘ ' (1.51) (1.52) i = 0 Если весовую функцию, соответствующую оператору Инть обозна¬ чить через Wx(ty т), тогда (1.53) где по определению весовой функции 2at i = о diWl (t, т) dtl = 0. (1.54)
1.9] СЛОЖЕНИЕ ДВУХ ДИФФЕРЕНЦИАЛЬНЫХ УРАВНЕНИИ 29 Применяя к y(t) дифференциальный оператор вида п (1.55) получим z(i). Таким образом, дифференциальный оператор (1.55) является обратным оператору Интп Если оператор Дифф2 выбрать в этой дифференциальной форме, то рис. 1.5, & можно свести к рис. 1.5, б. Если теперь оператор Инт2 имеет вид то рис. 1.5, б будет изображать единичный элемент, который опреде¬ ляется выражением (1.47) и применение которого необходимо, если как входная, так и выходная величины должны быть равны аг. Таким образом, если буква А обозначает дифференциальное уравнение в котором х — входная, а у — выходная величина, А 1 соответствует дифференциальное уравнение где а: — выходная, a у —входная величина. 1.9. Сложение двух дифференциальных уравнений Сложение двух дифференциальных уравнений символически изо¬ бражено на рис. 1.6, а. Так же как и в случае умножения, диффе¬ ренциальные уравнения разделены на дифференциальный и интеграль¬ ный операторы. Сложение выполняется шаг за шагом, как указано с помощью блок-диаграммы рис. 1.6. При первом шаге исходная система умножается на последовательную комбинацию из двух диф¬ ференциальных операторов, обозначенных (Интх)-1 и [(Инт^)']-1, и из соответствующих им обратных элементов операции умножения Двух интегральных операторов, Инт, и (Инт2)'. Следовательно, эта комбинация представляет единичный элемент. Ввиду того что система линейна, (Hhtj)-1 можно перенести влево через точку суммирования и таким образом избавиться от Инт! в верхней п (1.56) п # п (1.57) П п j (1.58)
30 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. 1 цепочке, как это показано на рис. 1.6, в. Далее перемножаются интег¬ ральный оператор Инт2 и дифференциальный оператор (Инт2)-1, а результат разделяется на новые дифференциальный и интегральный операторы, как показано на шаге 3. Здесь новый дифференциальный Дифф2 —I Ингл? а) Сложение дифференциальных уравнений '— Дафф2 — Инт2 — Ингп1 НО б) Пврвый. шаг Дифф2 — Инт2 — (Интг)1 (ИнтУ —I Инт1 fio Дифф1 G) Второй шаг Дифф2 -[(Инт,)'1]' - (Инт2) >[(Ннт//!\- (Инт/ - Инн?! io /- Дцфф,Щинтг)']-1 СЬ</ г- ,, m Т&-(#»тгг - ИнгП] '^Диффг-[(бЩ)]'~* Z) Третий шаг ЙЬ /-\ЛмФФз\-^ C><VJ 3) Четвертый шаг Инт Йо е) Пятый шаг X Дифф — Инт I-—О ж) Шестой шаг Рис. 1.6. Упрощение цепи параллельной передачи сигналов. оператор обозначен [(HuTi)"1]', а новый интегральный оператор [Инт2]'. Теперь перенесем влево через точку суммирования оператор (Инт2)-1, избавляясь таким образом от (Инт2)'. Слева от точки суммирования теперь остались лишь дифференциальные, а справа лишь интеграль¬ ные операторы. Их можно объединить, как показано на шаге 5 и 6. Таким образом, сложение дифференциальных уравнений выполнено.
1 12] УМНОЖЕНИЕ ДИФФЕРЕНЦИАЛЬНОГО УРАВНЕНИЯ НА СКАЛЯР 31 1.10. Нулевой элемент Нулевой элемент определяется в алгебре линейных дифференци¬ альных уравнений как дифференциальное уравнение, выходная вели¬ чина которого тождественно равна нулю. Нулевой элемент обозна¬ чается через 0. 1.11. Обратный элемент операции сложения Обратный элемент операции сложения для дифференциального уравнения А определяется как такое дифференциальное уравнение В, которое при сложении с А дает нулевой элемент, т. е. А + В = 0. (1.59) Совершенно очевидно, что если А является дифференциальным урав¬ нением с-60» i =• О / = 0 где х — входная, а у— выходная величина, то В имеет вид dtl J dtJ i = О 7=0 1.12. Умножение дифференциального уравнения на скаляр Умножение дифференциального уравнения на скаляр можно рас¬ сматривать как частный случай умножения двух дифференциальных уравнений, одно из которых является вырожденным уравнением у = =p(f)x, где л; — вход, а у — выход. Поэтому методы, разработанные для умножения двух дифференциальных уравнений, можно использо¬ вать и при умножении дифференциального уравнения на скаляр. В добавление к упомянутым выше свойствам алгебры линейных дифференциальных уравнений справедливо следующее: 1. Сложение коммутативно, т. е. АфВ = В-\-А. 2. Сложение ассоциативно, т. е. А ~\~(В -f- С) = (А 4- £)-|-С. 3. Умножение не коммутативно, г. е. АВ ф ВА. (В стационарном случае умножение коммутативно.) 4. Умножение ассоциативно, т. е. А(ВС) = (АВ)С. 5. Выполняется дистрибутивность, т. е. А(В -\-С) —АВ -\- АС.
'62 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. 1 1.13. Синтез методом сокращения оператора объекта В этом и последующих параграфах изложены два метода синтеза линейных систем с обратной связью с переменными параметрами. Эти методы основаны на изложенной выше алгебре линейных диффе¬ ренциальных уравнений. Первый метод синтеза является методом сокращения оператора объекта. При этом последовательность действий такова: а) По техническим условиям на характеристики замкнутой системы определяется либо ее весовая функция, либо описывающее ее дифференци¬ альное уравнение. Желательно, чтобы система задавалась весовой функ¬ цией, так как при этом для любого входа выход определяется интегралом свертки. Рис. 1.7. Общая структурная схема системы с обратной связью. б) Если задана весовая функция замкнутой системы, то по ней определяется дифференциальное уравнение, описывающее замкнутую систему. в) По дифференциальному уравнению замкнутой системы опреде¬ ляется дифференциальное уравнение разомкнутой системы. г) Определяется дифференциальное уравнение соответствующих корректирующих цепочек, и эти цепочки синтезируются с помощью средств аналоговой вычислительной техники. Для выполнения таких действий надо уметь (1) определять весовую функцию или дифференциальное уравнение по заданным техническим условиям на систему, (2) приводить эту весовую функцию к такому виду, чтобы можно было спроектировать соответствующие корректи¬ рующие цепочки. Применение алгебры дифференциальных уравнений к задаче син¬ теза с идейной стороны аналогично применению алгебры преобразо¬ вания Лапласа для синтеза линейных стационарных систем. Преиму¬ ществом такой алгебры является то, что все необходимые операции можно выполнить символически, и лишь в конце произвести числен¬ ные выкладки. Для изложения метода воспользуемся схемой системы с обратной связью, изображенной на рис. 1.7. Здесь г является входной, с — вы-
СИНТЕЗ МЕТОДОМ СОКРАЩЕНИЯ ОПЕРАТОРА ОБЪЕКТА 33 1.13J ходной величиной, К, G и/У обозначают дифференциальные уравнения, т и е промежуточные переменные в системе. В дальнейшем точка (•) обозначает операцию, которую дифференциальное уравне¬ ние выполняет над переменной и в результате чего получается новая переменная. Пусть зависимость между входной г (t) и выходной вели¬ чиной c(t) такова, что с = W- г, (1.62) где од?—желаемое дифференциальное уравнение всей системы. Из рисунка видно, что у = Н-с (1.63) и е — г—у = г — Н • с. (1.64) Так как т — К • s и c = G-m, (1.65) го r = I-s + HGK-e = V + HQK)-& (1.66) в силу того, что /•£ = 8. (1.67) Применяя к обеим сторонам выражения (1.66) обратный оператор операции умножения для (I-\-HGK\ имеем е = (/ + ШКГ1-г. (1.68) Затем, так как с = GK • s. (1.69) подстановка (1.68) в (1.69) приводит к выражению с = GK(l + HGK)~l - г. (1.70) Сравнение выражений (1.68) и (1.69) показывает, что U7 = GK (/ + HGKy\ (1.71а) Выражение (1.71а) можно рассматривать как основное соотношение для рис. 1.7. Довольно легко показать, что W можно представить также в виде W = {I+GHKy' GK. (1.716) Таким образом, возможны два способа представления результатов в следующих параграфах. Все основные соотношения, полученные далее, выводятся как из выражения (1.71а), так и из (1.716). Будем называть (а)-результатом и (б)-результатом соотношения, полученные из выражений (1.71а) и (1.716) соответственно. Теперь рассмотрим два частных случая блок-схемы 1.7. 2 п/р Леомдеса
34 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. 1 1.14. Синтез системы регулирования с обратной связью при изменяемом объекте Пусть надо построить систему регулирования с единичной обрат¬ ной связью, т. е. систему, которая имеет блок-схему 1.8 при условии, О 4 ->■ -О Рис. 1.8. Система с единичной обратной связью. что задано дифференциальное уравнение W всей системы. Следова¬ тельно, задача состоит в том, чтобы выразить G через W. Ввиду того что в данном случае К = Н = и (1.72) уравнение (1.71) сводится к W=G(\ +G)-\ (1.73а) W = (1 +G)"1 G. (1.736) Решая (1.73) относительно G, получим следующие зависимости: G = (l — W)~l W, (1.74а) G= W( 1 — Wf\ (1.746) Следовательно, систему регулирования с единичной обратной связью, описываемую дифференциальным уравнением U7, можно синтезировать с помощью звена G в прямой цепи, которое описывается уравнением (1.74). Дифференциальное уравнение G получается после символиче¬ ского выполнения указанных операций. 1.15. Синтез системы регулирования при неизменном объекте В этом случае пусть W—дифференциальное уравнение всей си¬ стемы с блок-схемой, изображенной на рис. 1.9. Дифференциальное к т G 9 Рис. 1.9. Система регулирования с обратной связью с неизменным объектом. уравнение неизменной части объекта есть G. Необходимо найти диф¬ ференциальное уравнение соответствующей корректирующей цепочки К,
ПРИМЕР 35 1.161 чем такое, чтобы данная система имела желаемую характеристику, педеляемую W. Подставляя Н = / в выражения (1.71) и решая их относительно КУ придем к следующим зависимостям: К = G-1 (7 — U7)-1 W, (1.75а) К = G~' 117(7— Щ~\ (1.756) Дифференциальное уравнение для К получается после выполнения действий, символически указанных в выражениях (1.75). 1.16. Пример Для иллюстрации изложенного метода рассмотрим следующий пример. Предположим, что объект G на рис. 1.9 задан дифферен¬ циальным уравнением Пусть желаемое дифференциальное уравнение всей системы W есть %Л-2^Л-о = г. (1.77) 7— U7 получается сложением и определяется d2z | о dz d~c | 2 dc I /1 70 где r — входная, а с — выходная величина. Тогда дифференциальное уравнение (/— Wfl W будет иметь вид *£ + 2-*=.(<> (1.79) Дифференциальное уравнение К получается из K = G-1(1 — W)~x Wy (1.80) и можно найти, что уравнение для этой корректирующей цепочки равно . 2 + Зе-' dt , , _,\ ^ + -ТТ^г^^11+е )е = d2m , 3 + Ae~l dm , 2 4- ,л = + (Ш) Таким образом, корректирующая цепочка полностью определяется Уравнением (1.81). Эту цепочку можно синтезировать с помощью средств аналоговой вычислительной техники, используя метод, изло¬ женный в параграфе 1.27. 2*
36 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. 1 1.17. Замечания Недостатками описанного метода синтеза являются: 1. Коррекция, использующая сокращение оператора объекта, дает в результате очень сложные корректирующие цепочки. 2. Полное сокращение оператора объекта невозможно, исходя из практических соображений (это является трудной задачей, если объект неустойчив). 3. С помощью простого сокращения оператора объекта и приве¬ дения передаточной функции разомкнутой системы к желаемой нельзя радикально изменить передаточную характеристику системы. Степень возможных изменений будет определяться физическими соображе¬ ниями. Даже при этих недостатках данный метод является ценным, так как дает простое и практически реализуемое решение задачи синтеза. При выборе дифференциального уравнения W всей системы накла¬ дываются ограничения на соотношения порядков дифференциальных и интегральных операторов цепи коррекции и всей системы, исходя из существующих ограничений на структуру объекта, цепь коррек¬ ции и всю систему в целом. Вообще говоря, реальные системы обла¬ дают свойством сглаживания входного сигнала, т. е. система будет содержать по меиылей мере одно полное интегрирование (порядок интегрального оператора на единицу выше порядка дифференциаль¬ ного оператора). В крайнем случае их порядки будут равны, но порядок дифференциального оператора никогда не будет выше, чем порядок интегрального оператора. Рассмотрим уравнение (1.71) при Н = 1, т. е. уравнение вида Исходя из предыдущих рассуждений, на О и К будут наложены следующие ограничения. Если G имеет вид 1.18. Ограничения, накладываемые на выбор дифференциального уравнения всей системы W= GK (1 -|- ОКУ1. (1.82) (1.83) где с — выходная, а т—входная величина, то Если К имеет вид
1.19] АЛГЕБРАИЧЕСКИЙ МЕТОД СИНТЕЗА 37 где //г — выходная, а в — входная величина, тогда R^P. Следова¬ тельно, произведение GK будет иметь вид т N-\-R М + Р 2 *<?-= 2 "85) i = 0 i = О где с — выходная, в — входная величина и соответственно А/Т-4- R> В действительности, порядки операторов в уравнении (1.85) будут определяться как N -\- R — п и М -|- Р — п, где п — поря¬ док некоторых членов, обших для обоих операторов, однако так как разница порядков не изменяется при уменьшении их на п, то в дальнейшем им можно пренебречь. Из выражения (1.85) запишем уравнение для (1 ~j- GK)~l N+R N+R У [gt V)+a, (oi -g- = У gt w ~, (1.86) JmU dt1 dt1 ’ i = 0 i = 0 где у — выходная, a x — входная величина. И, наконец, найдем U?, подставляя выражения (1.85) и (1.86) в (1.82). Таким образом, W будет иметь вид 2 {N+R) CV-f R + M + P) 2 2 к> 1=0 1=0 из ограничений на N, М, R и Р следует, что 2 (Д/+ R) — Я) — (М + P)^N — М. (1.88) Соотношение (1.88) показывает, что при выборе дифференциального уравнения W всей системы необходимо, чтобы разница порядков интегрального и дифференциального операторов была равна или выше разницы порядков интегрального и дифференциального опера¬ торов неизменной части объекта. 1.19. Алгебраический метод синтеза Метод, изложенный в данном параграфе, очень напоминает метод, разработанный в [10], стр. 238. Он позволяет приближенно синтези¬ ровать всю систему, типа изображенной на рис. 1.9, и имеет то пре¬ имущество, что оператор корректирующей цепочки не сокращает оператор неизменной части объекта. Основным уравнением этого метода является уравнение (1.75а). Для удобства изложения данного метода каждое дифференциаль¬ ное уравнение «разложено» на дифференциальный оператор, умно¬ женный слева на интегральный оператор, т. е. К = litDk, G = IgDg, W= JWDW. (1.89)
38 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. 1 Теперь, если определить единичный элемент I как / = /„/;■, (1.90) тогда / — W выразится следующим образом: (/- W)=lw(Iw'-Dw) (1.91) и (/ _ Wf1 = (/~ 1 _ Dwyl rw\ (1.92) Подставляя выражения (1.89) и (1.92) в уравнение (1.75а), найдем К: К = hDk = D~g4gl (Iw — Dwy4w4wDw (1.93) или lkDk = Dg4g 1 (УУ - Dw)'1 Dw. (1.94) Теперь наложим ограничения на К, требуя, чтобы К не сокра¬ щало интегральный оператор объекта. Это предотвращает «сокраще¬ ние» линейно независимых решений дифференциального уравнения объекта и их замену новой системой динамических уравнений. Огра¬ ничение требует, чтобы (lwl — Dwy1 удовлетворяло соотношению (Iwl-Dwyl = IgIcy (1.95) где /с — все еще неизвестный интегральный оператор. Если в урав¬ нение (1.94) подставить выражение (1.95), оно примет вид lkDk = DglicDw (1.96) После приравнивания интегрального и дифференциального операторов получатся следующие соотношения: h = Dg4Ci (1.97) Dk = Dw. (1.98) Для вывода уравнения коррекции используется уравнение (1.95), переписанное в виде Iw1 = Dw + rc4g\ (1.99) а также равенства (1.97) и (1.98). При рассмотрении этих выраже¬ ний надо помнить, что Ig и Dg известны и фиксированы. Кроме того, при определении приемлемого дифференциального уравнения всей системы, при котором система удовлетворяет техническим усло¬ виям, желательно иметь возможность фиксировать как Iw, так и Dw. Однако при использовании данного метода это невозможно. По тех¬ ническим условиям можно фиксировать лишь Iw, что эквивалентно возможности фиксировать линейно независимые решения уравнения всей системы, но невозможности фиксировать постоянные множители весовой функции. Таким образом, в уравнении (1.99) известны /^ и
i ig] АЛГЕБРАИЧЕСКИЙ МЕТОД СИНТЕЗА 39 /-I в то время как Dw и 1ё1 представляют собой неизвестные, кото пые следует определить, приравнивая коэффициенты при одинаковых производных в обеих частях уравнения (1.99). Однако прежде необ¬ ходимо наложить некоторые ограничения на порядки различных дифференциальных и интегральных операторов. Чтобы легче найти эти ограничения, определим следующие преобразования. Пусть W обозначает дифференциальное уравнение ?\v . 2 h (0 У а, (0 , bPw (0=1. (1 • 100) i = 0 i = 0 Пусть К — дифференциальное уравнение 2*.< о£=2*«о-&. с..».» i = 0 i = 0 Пусть G — дифференциальное уравнение Зр„Д0 = 1. (1.102) И, наконец, пусть /с — дифференциальное уравнение 1/г(0~^=*- (1Л03) г = 0 Как и ранее, теперь подставим в уравнение (1.99) Z^1, известное из (1.100), /-1, известное из уравнения (1.102), и неизвестные Dw и /с из (1.100) и (1.103). Приравнивая коэффициенты при производных одинакового порядка, получим в результате систему совместных алгебраических уравнений относительно неизвестных at{t) и Решение этой системы дает Dw и /с. Для существования решения порядки различных операторов должны ограничиваться следующим образом. На основании физических рассмотрений требуется, чтобы Pw^Zwy Pg^Zs, Pk^Zu. (1Л04) Из уравнения (1.99) вытекает, что Р с “Т~ Р g === Р w или pc = pw-pg. (1.105) После приравнивания коэффициентов при производных одинакового порядка в уравнении (1.99) получим всего Pw + 1 уравнений с Z‘WJrPc-\-2 неизвестными. Для существования решения необходимо, чтобы
40 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. 1 ИЛИ Pw<zw + Pc+1. (1.106) В результате подстановки (1.105) в (1.106) имее!М Zw^Pg- 1. (1.107) Из условий (1.104) и уравнения (1.96) вытекает, что Zg -)- Р с= Ри ^ Zk = Zw или Pc^Zw — Zp (1.108) сравнивая выражения (1.105) и (1.108), получим р Р > 7 7 1 w V ^ g ИЛИ Pw S* Pg + — Zg. (1.109) Объединяя неравенства 1.107 и 1.109, найдем pw^2Pg—Zg—\. (1.110) Таким образом, условия (1.105), (1.107), (1.110) ограничивают порядки операторов PWi Zw и Рс. Ограничение для Pw необходимо принимать во внимание, когда Pw выбирается согласно техническим условиям па систему. Условия для Zw и Рс определяют приемлемый вид Dw и 1С в уравнении (1.99). Если в выражениях (1.107) и (1.110) выбран знак неравенства, то число неизвестных будет больше, чем число уравнений. Поэтому часть неизвестных можно задать произвольным образом, например так, чтобы оптимизировать некоторый критерий качества. 1.20. Пример Пусть объект описывается уравнением d2c | dc dt*'Tt d2c | dc /1 1 - ч — 0-Hi) аким образом, / . Z’ — , dt2 ^ dt Пусть желаемый интегральный оператор всей системы имеет вид » d с | _/ d с | dс § о/ / i 1 ■( г, \ JF + Tt + e с’ (1.113) что удовлетворяет условиям (1.110). Выбирая Dw = ах (t) — а<х (t\ (1.114)
(1.117) ЗАМЕЧАНИЯ 41 ! .211 удовлетворяющее условию (1.107), найдем, что 1С должно иметь вид /с = м*)^ + м*> (1-115) Подставляя (1.112), (1.113), (1.114) и (1.115) в уравнения (1.99), при¬ дем к соотношению <14 , _(_ Д _1_ е-* . с — = 5. (<) § + 1^1 (0 + ь« (0] £ + [в, (0 + (01 g + «о (0 с. (1.116) Приравнивая соответствующие коэффициенты, образуем систему сов¬ местных уравнений М0=1, bi (t)-r’o9{t) = e-‘, «i(0+ 5* (0=1, а0(0 = *-*. Решение системы (1.117) будет равно М0=1, bQ(t) = e-‘-l, a1(f) = 2—e~t, ай (f) — e Корректирующая цепочка в этом случае определится следующим образом: dJL + {e-t _ 1) т = (2 _ е-') | + (*-*) 8. (1.118) 1.21. Замечания Вышеизложенный метод синтеза имеет такие преимущества: 1. Простота решения. 2. Образование корректирующей цепочки, оператор которой не сокращается с оператором объекта. Недостатками данного метода являются: К Характеристика всей системы не может быть определена пол¬ ностью. 2. Конструктор не может повлиять на вид и устойчивость кор¬ ректирующей цепочки.
42 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. ) 1.22. Задача аппроксимации Прежде чем синтезировать систему, следует задать ее весовую функцию, так чтобы система удовлетворяла техническим условиям. Задание такой весовой функции будет называться задачей аппрокси¬ мации. Фактически независимо от метода синтеза задание весовой функции соответствует определению дифференциального уравнения системы, однако более желательно знать именно весовую функцию, ибо в этом случае для произвольного входного сигнала можно опре¬ делить выходной сигнал, используя интеграл свертки. Весовая функция или дифференциальное уравнение системы могут быть получены по-разному, например, непосредственно из технических условий на систему. В любом случае, если уж то или иное установ¬ лено, то для синтеза системы регулирования можно применить ме¬ тоды, изложенные в предыдущих параграфах. В настоящем параграфе дается метод определения весовых функ¬ ций для частного класса задач синтеза. Этот класс задач ограничи¬ вается системами, входные сигналы которых выражаются полиномами времени, а выходные сигналы могут быть аппроксимированы разло¬ жимыми функциями (см. ниже.) Метод аппроксимации можно сформулировать следующим обра¬ зом. Пусть x(t) (см. рис. 1.1) является полиномом времени и опре¬ деляется выражением где сп— константа, t — время, а е— время, в течение которого x(t) действует на линейную систему W. Функция y(t) является выходной величиной линейной системы на воздействие x(t). Предполагается, что аналитическое выражение для y{t) можно определить по техни¬ ческим условиям на систему. W является неизвестной линейной си¬ стемой, весовую функцию которой следует определить в таком виде, чтобы систему можно было синтезировать как систему с обратной связью. Выход j>(f) запишем в виде (1.19). Подставляя выражение (1.119) в (1.19), получим 1.23. Метод аппроксимации в случае полиномиальных входных сигналов N х (t) = X (t — т) = ■ °,
АППРОКСИМАЦИЯ ПРИ ПОЛИНОМИАЛЬНЫХ СИГНАЛАХ 4,4 1.23 J Теперь задача сводится к решению интегрального уравнения (1.120) гносительно U7(t, т). К счастью, эго уравнение легко свести к ли¬ нейному стационарному дифференциальному уравнению, которое ре¬ шается достаточно просто. Класс допустимых W(t, т) определяется выражениями (1.20) и (1.21). В результате подстановки выражения (1 20) в (1.120) получим соотношение N t N yx(t, ,) = 2 Д Writ, 0)[0-Tl“dfl + bm(t) 2 cn{t-zf. (1.121) п=0 " п — 0 Процесс решения этого уравнения разбивается на два этапа: (1) опре¬ деление bm(t), (2) определение Wx(t, т). Сначала дадим метод определения bm(t). Предположим, что ck(Q ^k^N) является частным значением сп, отличным от нуля, которое имеет самое меньшее значение индекса, т. е. N ( N Ух#, *)= 2 им*,0)(0—тул+мо 2 cnit-'T- (i.i22) п = k "С п= k Далее найдем частную производную /z-го порядка yx(ty ъ) по т N t Wi(t' e)(—lVW(n—i)..-(n — k+l)X n = k - N X (0 _ xy~* M + bm (0 2 cni— 1 f (n)(n - 1)... (Я - k + l)(f - zfk. n = k (1.123) Если теперь в выражении для производной —Ух перейти к пре- dzh делу при г—±t, то получим уравнение д1!Ух {t, -) dz* (1.124) Решая это уравнение относительно bm(t), найдем искомые соотно¬ шения , &ух (t, z) (-1) я : и (+\ bт()~ (Щ^Г Зная bm(t)y можно записать (1.125) bm{t) Ц (1.126) п = 0
44 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. 3 и найти новую функцию yf(7, т) из уравнения (1.122) N у* у, т)=ух (t, х) - ьт (о 2 cn(t- xf= п = О N t = 2 W71(<>9)(6-xf rfO. (1.127) п= О Второй вопрос состоит в определении Wi(t,z) из уравнения (1.127). Сначала возьмем производные от y'x(t, т) по т. Первая производная равна лг / ^(^^(-ОпСЙ-хГЧб-^^^х). (1.128) /г = 0 т Производная /г-порядка ^ А/’ —1~ 1 равна t дкух (*, т) = 2 Wl{t’ e)(-!)*(»)(«-в-••(«-* + 1)Х 71 = 0 fc—1 X (0 - xrfe db + v (/!) >=о х и N-J- 1 порядка (А= 1. 2 /V) (1.129) (7, х) **+•' У<)' . (—1У+1 (у!) сj - ‘V-^i(7,x) dx'v-7 (1.130) 7 = 0 Видно, что уравнение (1.130) является линейным стационарным диф¬ ференциальным уравнением, решение которого есть Wi(t, i). Для решения записанного уравнения необходимо задать N начальных условий. Эти начальные условия получаются из выражений (1.129) при т, стремящемся к t, т. е. к — 1 дкух (t, х) дхк = У (—1)/+1 (j\)Cj j — o dk~l~JW, (t, x) д-к-'-i (1.131) или 0k 1W, (t, x) dxk 1 jX) t'o [ dxk x X)! ►. (— 1У: 1 (/!)О J —1 0хк '-) (k = i, 2, ..., /V). (1.132) LJ
1241 АППРОКСИМАЦИЯ ПРИ НЕПОЛИНОМИАЛЬНЫХ СИГНАЛАХ 45 И тажение (1.132) определяет систему рекуррентных соотношений, которые задают N необходимых «начальных условий». В действи¬ тельности, так как производные от (t, т) берутся по т, выражение (1 132) определяет конечные условия. Этого неудобства легко избе¬ жать, делая подстановку ~. = t — z (1.133) в выражениях (1.130) и (1.132). Получающиеся в результате уравне¬ ния легко решаются, после чего, делая обратную замену переменных z — t — т, (1.134) найдем W\(t, т). Рассмотрим выражения (1.125) и (1.130) в частном случае, когда полином x(t) вырождается и имеет вид x(t — z) = cN(t — x)N. (1.135) Тогда выражение (1.125) можно записать как ^А'^Ух OVL) дх (-'г - Ьт (*) = Nfc~ а выражение (1.130) — следующим образом д^+1у'х (t, х) dxN+l (1.136) (_1)ЛГ+1(М)СЛГ Wiit,*) (1.137) ,л . (Ы38) N\ cA, Равенствами (1.137) и (1.138) можно пользоваться в случаях, когда входной сигнал представляется полиномом лишь с одним ненулевым коэффициентом. Ясно, что рассмотренный случай справедлив и для входных сигналов, описываемых ступенчатыми функциями. 1.24. Метод аппроксимации в случае входных сигналов неполиномиального вида Вернемся опять к рис. 1.1. Предположим теперь, что x(t) не полином, а некоторая разложимая функция t и т, т. е. f Л' *«>= ,з”' 1«; «, <1139’
46 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. ! Кроме того, пусть y(t) — также некоторая разложимая функция (в соответствии с заданными техническими условиями на систему) м 2 «mC0-Vm(0. (1.140) т= 0 о, *<т. Предполагая дифференцируемость сп(т), xn(t), zm(z) и ym(t) доста¬ точное число раз, можно считать, что выражения (1.139) и (1.140) являются весовыми функциями линейной системы. Следовательно, дифференциальные уравнения, соответствующие каждой из них, можно определить, пользуясь методом, изложенным в параграфе 1.3. Рис. 1.1 заменим рис. 1.10. В последнем X является дифференциаль¬ ным уравнением, которое соответствует (1.139), a W — дифферен¬ циальным уравнением, соответствующим неизвестной системе. Если J(t-z) Y W y(t) , Л \ Рис. 1.10. Система, эквивалентная изображен¬ ной на рис. 1.1. дифференциальное уравнение Y соответствует весовой функции (1,140), тогда согласно обозначениям алгебры дифференциальных уравнений имеем Y=WX (1.141) или W=YX'K (1.142) Равенство (1.142) показывает, что если входная и выходная величины неизвестной линейной системы являются известными разложимыми функциями t ит, дифференциальное уравнение всей системы можно определить, находя произведение Y и Х~л. Хотя этот метод проще метода аппроксимации для входных сиг¬ налов полиномиального вида, он дает ответ в менее удобной форме, а именно в форме дифференциального уравнения, а не весовой функции. Так как полином (1.119) является разложимой функцией t и 'г, то очевидно, что данный метод можно использовать также и в слу¬ чаях входных сигналов полиномиального вида. Кроме того, ясно, что yx(t, т), определяемое выражением (1.120), должно обладать свойствами весовой функции линейной системы, описываемой обыкно¬ венным дифференциальным уравнением вида 1.1. Однако вследствие физических ограничений yx(t, т) не будет содержать дельта-функций.
1.25] ПРИМЕР 41 1.25. Пример В качестве примера, иллюстрирующего метод, изложенный в § 1.23, рассмотрим следующую задачу. Входной сигнал линейной системы имеет вид X(t — •z) = 2u{t — т) + 0 — т) — 2{t — т)2. (1.143) Из технических условий на систему требуется, чтобы выходной сигнал имел вид у ли *)=--<4 + 4-4 о 10 6 1 3 ' о - --- ТВ 1 3 1 1 [-Д.-3,2 0_12 | 1 3 ' 1 ^4 1 6 * 1 6 V (1.144) При условии, что заданы входной сигнал x(t — т) и желаемый выход системы, следует определить ее весовую функцию, которую должна иметь желаемая линейная система. Выходной сигнал yx(t, т) можно записать, пользуясь выражением (1.122), в котором N = 2, с0 = 2, С\ = 1, а са = — 2- Первое, что надо сделать для определения W(ty ?), это найти bm(t). Переходя к пределу в yx(t, т) при t-+ т+, получим \imyx(t9 т)=2z=bm(z)cQ. (1.145) Следовательно, (1.146) 2t Тогда второй член в выражении (1.122) для yx(tf т) будет равен ьт (0 2 fЛ-(t - *Г = 4- f- - fc - 21* 4- 4Л - 214. (1.147) п — 0 Подставляя (1.147) в (1.122) и решая последнее относительно yrx (t, т), получим у'х (1, т) = 31* — 1:Ч — ил — 2f-z 4- 4IV о 1 О Далее найдем производные y'x(t, i) по т А № _1_ _ 3 1 6 гЛ-ъ?- (Ы48) ~у~=—4 i*—б!;ч. ch 2 L°« 21* Л -f 2lV -f ^ I4 — 21- 4- 4. 14 4 = — 61* 4- 4- 414 — 214-44- 214, r):y 4 = 4£2 4- * 4У + (1.149) (1.150) (1.151)
48 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ Пользуясь выражениями (1.130) и (1.132), запишем д»у'х (*, х) ах3 : 4- t -f 4£т = —2с2 И?! (t, т) -j- Cj (t, X) dx [ГЛ. 1 d2U7i (*, x) w'«’ $X“ ’ (1.152) (1.153) dWt (f, x) dx г>н- <u54) Желаемая весовая функция определяется из системы уравнений (1.152), (1.153) и (1.154). Для упрощения алгебраических операций и облег¬ чения решения сделаем следующие подстановки: /С ■ i v, ki = 2 t, *> = 4** + 4. /(*) = 117,(7, 7 — 0). j (1.155) Затем, так как с0 = 2, с\— \ и с2 = —2, выражения (1.152), (1.153) и (1.154) можно переписать как dj dzz (1.152') /(0) = 2f2, (1.153') r(0) = — t (1.154') Решение однородного уравнения, соответствующего (1.152'), ищется в виде fc (г) = А е- и* -}- т^, (1.156) где A v\ В зависят от начальных условий, а ^ и ~[2— корни полинома Т* + 4т —2 = 0. (1.157) Частное решение уравнения (1.152') равно /Р=4-4-|*. (1.158) Таким образом, общее решение имеет следующий вид: f{z) = Ае-ъ* + Be-w + \ — А- — А 0. (1.159) Постоянные А и В можно найти, используя начальные условия
t ^ АППРОКСИМАЦИЯ РАЗЛОЖИМЫХ ФУНКЦИЙ 49 (1.153') и (1Л54'): [/ (0) + f - -|] [- 7*] -/' (0) - Ц А—- — (1.160) Ъ 1 v /' (0) + \ л- Ь [/ (0) + у — ^-] В = 1 =!. (1.161) 7i —Та V После подстановки в эти выражения знамений, определяемых равенст¬ вами (1.153'), (1.154') и (1.155), получим, что А = 0, В = 0 (1.162) и, следовательно, /(г) равно частному решению дифференциального уравнения, т. е. = (1.163) Подставляя (1.155) в (1.163), можно показать, что Wt(t, z) = t2-\-tx. (1.164) Таким образом, искомая весовая функция всей системы равна W(t, = — (1.165) Можно проверить, что свертка (1.165) и (1.143) даст yx(t> т), равное заданному выражению (1.144). 1.26. Аппроксимация разложимых функций Из рассуждений, приведенных в предыдущих параграфах, следует, что для большого класса задач синтеза реакция системы на входной сигнал должна иметь вид разложимой функции. Поэтому для при¬ менения данного метода синтеза необходимо уметь аппроксимировать функции двух переменных разложимой функцией этих переменных. По этому вопросу имеются некоторые работы. Например, Круз |8| предложил аппроксимацию весовых функций последовательностью импульсов, а Круз и Ван Валькенберг [4| предложили метод аппрок¬ симации весовых функций разложимыми функциями. В данном пара¬ графе описан простой метод аппроксимации функции двух перемен¬ ных разложимой функцией. Для пояснения этого метода будет рассмотрен пример системы управления конечным состоянием. Пусть требуется спроектировать систему, удовлетворяющую следующим техническим условиям. На вход системы поступает возмущение в виде скачка в некоторый неизвестный момент времени между t = 0 и t=T. За время 7'S^>T система должна достичь области, ограниченной отклонением не более п
50 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. 1 процентов от нового положения равновесия (от единицы). С другой стороны, если система проектируется как нестационарная линейная система, то сначала следует определить, исходя из техни¬ ческих условий, реакцию си¬ стемы y(t, х) на ступенчатое возмущение. По этому y(t, х) можно найти соответствующую весовую функцию и довести до конца проектирование си¬ стемы. На рис. 1.11 дано изобра¬ жение y(t, х) в двух измере¬ ниях; при этом ось х направле¬ на перпендикулярно плоскости чертежа. Поверхности у (t, 0) и У& О ограничивают об¬ ласть допустимого отклика y(t, х), т. е. такого, который удовлетворяет техническим условиям на систему. Пусть y(t, 0) и y(t, Т) выбраны в следующем виде: y(ty 0)= 1 — y(t, Т)= l—e**"-7), где а, и а2 выбраны так, что Рис. 1.11. Представление у (t, г) в двух измерениях. (1.166) У(Т„ T)=y(Ts, Т)= 1 100 • (1.167) Видно, что при этом y(t, х) удовлетворяет техническим условиям при двух значениях х, а именно х = 0 и z—T. Кроме того, величину при 0 ^ х ^ 7 можно было бы задать еще при нескольких значе¬ ниях х, однако в данном изложении ограничимся лишь двумя значе¬ ниями. Ясно, что если бы y(ty х) могло быть представлено соотно¬ шением, подобным (1.166) при всех 0^х^ 7, то технические условия были бы удовлетворены полностью. Число значений х, при которых задается значение y(t, х), например, с помощью выражения (1.166), будет равно максимальному числу членов получающейся в итоге раз¬ ложимой функции. Таким образом, чем лучше желаемая аппроксима¬ ция, тем выше получается порядок системы. Заменим рис. 1.11 рис. 1.12 с осью t, нормальной к плоскости чертежа. Вне области 0<х< 7 y(t, х) произвольно. На границах области y(t, х) удовлетворяет уравнению (1.166). Если ограничения на y(t, х) наложены лишь в точках х = 0 и х=Т, то y(ty х) можно аппроксимировать несколькими способами. Например, пусть у (t, -) =у (t, 0) -’г [у (t, Т) -^ (*, 0)] и (i - Т), (1.168)
1.26] АППРОКСИМАЦИЯ РАЗЛОЖИМЫХ ФУНКЦИИ 5] где Т) — ступенчатая функция, имеющая скачок при т=7. Тогда y(t, z) соответствует функция, изображенная на рис. 1.12 сплош¬ ной линией. Преобразуя по Лапласу выражение (1.168) относительно т, получим изображение У (t, s), определяемое равенством Y(t, S): s 7 _y{t> 0) , T) — y(t, 0) г (1.169) Теперь, если — Пэйда [1], т. е. аппроксимировать при помощи аппроксимации 2 (s —3,/Г) n-sl (1.170) s Т s (s2 -f- 4s/Г + 6/7'') ’ тогда Y(t, s)^ Y*{t, s) = + T) y(t, о)]}-»(,.,7., Обратное преобразование у* (t, s) обозначается у* (t, т). В уравнении (1.169) могла быть использована и другая аппроксимация Пэйда. Очевидно, аппроксимация получилась бы лучше, если бы использовался полином более высокого порядка. Ча¬ стный вид аппроксимации выбран ввиду ее относитель¬ ной простоты и ввиду того, что степень числителя ниже степени знаменателя. Это последнее условие обеспе¬ чивает равенство нулю вто¬ рого члена в у* (t, z) при : = 0 и, следовательно, у* {t, 0)=^(£, 0). Находя обратное преобразование от У* (tt s), найдем аппроксимацию У*(!, z) y*(t, *)=y(t, 0) e— 2т/т Sjn + -kv (f, T) [l — 3e_2'/rsin + t: (1.172) где = sin 1 (1/3), a y(t, 0) и y(t, T) определяются выражени¬ ем (1Л66). Из очень грубой оценки точности аппроксимации у* (t, х) видно, что у*«, о)=y{t, 0), y*(t, T)=0,398y(t, 0)-f 0,602y(f, 7), } (1.173) У* (t, со) =y (t, T).
52 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. 1 Точность аппроксимации данного вида можно повысить двумя спо¬ собами. Во-первых, аппроксимируя y(t} т) несколькими ступеньками в направлении т (см. рис. 1.11), т. е. записывая где N—целое, и, во-вторых, используя более высокий порядок аппроксимации Пэйда для Другой метод аппроксимации, который мог бы быть использован заключается в аппроксимации производных более высокого порядка от y(t, т) последовательностью ступенчатых функций в направлениит и затем в интегрировании этих функций соответствующее число раз до получения y (t, т). В качестве примера запишем производную у (/, т), представленную пунктирной линией на рис. 1.11: Если это уравнение преобразовать по Лапласу и использовать аппро¬ ксимацию Пэйда в уравнении (1.170) и, наконец, выполнить обратное преобразование, то найдем аппроксимацию у{0> 0 (t, т), обозначаемую v*(«. 1) (tt т): Из сравнения ее с аппроксимацией, которую дает выражение (1.172), видно, что Аг п = 1 (1.174) У0' ’>(*, т) = -£:И*, У] v(t, T)—y(t, 0) т [«("О — и(у — Т)\. (1.175) ■ Ъе~2r/rsin j (1.176) где ф = sin 1 (1/3). Затем, так как y*(t, z)=y(t, 0)-h *> 6)dd, (1.177) О окончательно имеем y*(t, T) = 0, <<T. (1.178) y*(t, 0)=y(t, 0), y*(t, T) = 0,U6y(t, 0)-[-0,884_y (<, T), y*(t, x)=y(i, Г). (1.179)
I 27] СИНТЕЗ УРАВНЕНИЙ ПРИ ПОМОЩИ АНАЛОГОВЫХ УСТРОЙСТВ 53 Следовательно, этот метод обеспечивает более точную аппроксимацию для y(t> чем первый метод. И опять-таки аппроксимация будет лучше, если т)] аппроксимируется большим числом членов, чем использовалось для y(t, т) (см. формулу 1.174). 1.27. Синтез дифференциальных уравнений с переменными коэффициентами при помощи аналоговых моделирующих устройств Одним из преимуществ представления корректирующих цепей линейных систем управления в виде дифференциальных уравнений является то, что такие цепи легко реализуются. В частности, если характеристики цепи изменяются во времени, ее можно реализовать при помощи элементов аналоговых вычислительных машин [6]. Дифференциальные уравнения, которые надо синтезировать, имеют вид уравнения (1.1). Единственную трудность при синтезе таких урав¬ нений представляет моделирование правой части, которая содержит производные от входного сигнала jc. Эту трудность можно обойти, если переписать уравнение (1.1) в эквивалентной векторно-матричной форме: у = Ay-\-fx, (1.180) где у есть я-мерный вектор. Решение уравнения (1.1) тогда равно y(t) = CTy + ГХу (1.181) где с есть я-мерный вектор, а г — скаляр, определяемый соотношением между (1.1) и (1.180). Таким образом, задача заключается в отыскании векторного урав¬ нения вида (1.180), эквивалентного уравнению (1.1). Это векторное уравнение может быть записано в нескольких видах [15], [18], однако автор считает наиболее удобным единственный вид, который и ис¬ пользован в следующем параграфе. Этот метод выводится так же, как у Матыаша [6], лишь с небольшими изменениями для удобства изложения. Используя обозначения выражения (1.2), запишем п п L=2a‘mi’ л,= 2ь‘т-$- <1Л821 /-=0 / = 0 Определим два вспомогательных оператора ц=У ««(о4 _ dt1 i = 0 (1.183)
54 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. 1 (1Л84) 1 = 0 где &i{t) и рг-(£) следует найти. Теперь предположим, что справедлива следующая система урав¬ нений: Уъ = — «■пУ — Кх’ (1.185) — h-л =Ук^г*к.кУ + $п-кх (6=1, 2, в—1), (1.186) — $п-\=ЧУЛ-§«х- (1.187) Если у0 из уравнения (1.185) подставить в (1.186) при k= \ и найти из получившегося равенства уъ а затем повторить эту процедуру при к = 2 и т.д., то все yt исключатся и выражение (1.187) примет вид дифференциального уравнения /ыюрядка относительно у у (— 1)' —ia/^J — — У (— I)1' d‘ ^ . (1.188) dt' ^ dt{ i = 0 i = 0 Обозначим через L* и уИ* операторы, сопряженные соответственно с Lj и if(y)=S(- (1-189) г = 0 Mf(jf)=S(-iy(M(,). (1.19°) г=0 тогда уравнение (1.188) можно записать как L?(y) = -Mnx)> (1.191) и если теперь отождествить уравнения (1.1) и (1.188), то Lf(y)=L(y), (1.192) — М?(х) = М(х). 1 Так как для произвольного линейного оператора К справедливо (К*)* = Ку то уравнения (1.192) можно записать как L>(y)=L4y), 1 М,(х) = — Л).(4 Другими словами, коэффициенты а и (3 «-линейных дифференциаль¬ ных уравнений первого порядка (1.185), (1.186) и (1.187) опреде¬ ляются из сопряженных операторов L* и уИ*.
СИНТЕЗ УРАВНЕНИЙ ПРИ ПОМОЩИ АНАЛОГОВЫХ УСТРОЙСТВ Дальнейшее упрощение, которое можно сделать, заключается п следующем. Зададим без потери общности an(t)= 1. Тогда ал = (-1)я, а равенство (1.185) примет вид y = (-irl[J'o + Ml- (1-194) Подставляя это соотношение для у в выражение (1.186), найдем *7 о е3 -&-0 о-ег о So б) блок сложения в) Интегратор о—^—(V3—^—о г) блок умножения Рис. 1.13. Структурная схема набора уравнений П.194) и (1.195) на аналоговой модели. окончательный вид системы из п дифференциальных уравнений пер¬ вого порядка Уо = (—1)Лал-1Уо — У\ — \\Jn 1~Ь(— 1)л,1?лал \\х> Pi = (— 1Т *л ‘АУо — Уг — I?Л •> -Г (— 1 Г1'1 ?л*л- si -V. Рпл-—(— 1Т°-\У<\ Ун I — (-Г(— 1 )/1+| ГаI х> Рн 1 = (- 1 У* ЧУ, - I ?о -1- (- 1 Г' %ч\ х. (1.195;
56 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. 1 Уравнение (1.194) соответствует уравнению (1.181), а система (1.195) — векторному уравнению (1.180). Выражения (1.194) и (1.195) можно реализовать с помощью эле¬ ментов аналоговых вычислительных машин, как это показано на рис. 1.13, а. Обозначения решающих элементов, которые здесь исполь¬ зуются, даны на рис. 1.13, б, 1.13, в и 1.13, г. Выход eQ сумматора, изображенного на рис. 1.13, бу равен = — (<?1 -Г е.2 -f <?■,)• (1.196) Выход интегратора е0 на рис. 1.13, в определяется как t <?„ = — $(е,+ et-\-et)dt. (1.197) И, наконец, выход множительного устройства на рис. 1.13, г равен е0 =a(t)eh (1.198) Преимуществом реализации уравнений (1.194) и (1.195) вместо уравнения (1.1) является отсутствие дифференцирования. 1.28. Упрощение линейных систем При синтезе линейных систем одной из важнейших задач является • задача получения простейшей формы системы (в смысле количества используемых элементов). Вообще говоря, невозможно определить, является ли данная система простейшей, поэтому любая методика сведения системы к более простой весьма важна. Хорошо известно, что сложность линейной системы возрастает с повышением порядка дифференциального уравнения, описывающего систему, поэтому один из методов упрощения системы есть метод понижения порядка дифференциального уравнения. Упрощение должно быть выполнено таким образом, что новое дифференциальное урав¬ нение более низкого порядка либо эквивалентно (определение экви¬ валентности следует ниже) исходному, либо является достаточно хоро¬ шей аппроксимацией исходного. В § 1.29—1.34 рассматриваются случаи эквивалентной замены дифференциального уравнения высокого порядка уравнением более низкого порядка. Системы, для которых такое преобразование воз¬ можно, называются упрощаемыми, а данное свойство называется упрощаемостью. 1.29. Эквивалентные системы Дадим определение эквивалентности двух систем. Определение. Две линейные системы будем называть экви¬ валентными, если при пооизвольном входном сигнале x(t), пода-
1.29] ЭКВИВАЛЕНТНЫЕ СИСТЕМЫ 57 ваемом на обе системы одновременно, выходные величины обеих систем будут также идентичны. Данное определение не зависит от начальных условий. Эквивалентные дисрференщтлъные уравнения. Рассмотрим диф¬ ференциальное уравнение *) а'т$=2ь<тт^’ (1.199) где х — входная, а у — выходная величина. Любое дифференциальное уравнение, получающееся из данного при применении к обеим частям уравнения (1.199) дифференциального оператора пг dk dt*’ Cm®— (1.200) li — 0 эквивалентно уравнению (1.199), так как у есть решение нового урав¬ нения, если х является входной величиной. Такое уравнение может быть записано следующим образом: Y /А dk / ck(t) г dtk k = 0 1 = 1 1г = 0 Ум 0— dd ‘w dt1 i = 0 (1.201) и если выполнить указанные операции, уравнение (1.201) можно запи¬ сать в виде т-\-п т-\- п у gdt)**r= У мо—, Ld 61 dt1 dt1 1=0 i — () (1.202) где gi (t) и hi (t) определены надлежащим способом. Уравнения (1.199), (1.201), (1.202) эквивалентны. Другой эквивалентной формой уравнения (1.201), а следовательно, и уравнений (1.199), (1.202) является пара уравнений: 2а.«)ё=2».(0^ + -. t = 0 т 1 / = 0 (1.203) (1.204) k=о Эквивалентность этой пары уравнений уравнению (1.201) может быть показана исключением переменной г. *) Все коэффициенты дифференциального уравнения суть аналитические функции.
58 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. } Возможны эквивалентные векторные формы. Уравнения. (1.199) можно записать в векторно-матричной форме: _у = (-1ГЧуо + М]> (1.205) |А> а.пЛ —1 0...0 Уо j Р/г-1 г 1 = а„_4 0 — 1 ... 0 У\ -Г Р/г-2 Аг-1 а0 0 0 0 Угпап 1 Ро j или (1.206) У = АУ “Г 0*- Подобно этому, уравнения (1.203) и (1.204) могут быть записаны ^(-lr'Lvo-bM, Ml : I kv. (1.207) 0 о 0 !! Уравнение (1.205) может быть записано следующим образом: х. (1.208) 'Гак как уравнения (1.199), (1.202) и пара уравнений (1.203) и (1.204) эквивалентны, уравнения (1.205), (1.207) и (1.208) также эквивалентны. Исследуем еще одну векторную форму, эквивалентную уравнениям (1.206) и (1.208). Покажем, что векторное уравнение типа (1.208) может быть линейными преобразованиями приведено к виду З'о ая-1 — 1 о.. ..0 0 0., • • о у0 У1 0 —1.. ..0 0 0.. ..0 у, Уп-1 *о 0 о., ..0 (—l)m+1 0.. ••о JV I А) 0 0 о., ..0 'Чт-г — 1 . . . 0 2"o 1 0 0 о., ..0 т-2 0., ..0 г, *т-1 0 0 0 0 Т10 0. • • 0 гт., У А М У + Р Z 0 И Z о СО : со, А' ЛГ COi р' (02 0 Н' щ 0 (1.209) где 0 Я'п-1 — 1 0., ,.0 Р' = 0 , А' = 0 — 1 ..0 1 Ч 0 0. ..0
1.29] ЭКВИВАЛЕНТНЫЕ СИСТЕМЫ 59 При эквивалентности (1.208) и (1.209) Мг и Н' могут иметь любой вид. Преобразование, переводящее (1.208) в (1.209), имеет вид | Q 0 \щ\\ ' " (1.210) У ■ *1Г о Р 0)11 Юо I’ где 0 является нулевой матрицей соответствующего размера. Подста¬ вляя в уравнение (1.208) уравнение (1.210), получаем уравнение ||©1 <*).2 ! Q 1 0 0 Р 1 А М 0 Н Q 0 0 Р Q~' 0 Q ! о р ! о Q ' 0 Р 0 р-х j 0 0)1 0>2 X. И м| Q 01 Q 01 | Q 0 А № !! о и | о р| 0 р\ _||о Р 0 Н’ Р Q 0 II Р'| 0 1 0 р\ о (1.211) Сравнивая уравнения (1.211) и (1.209), можно получить следующие (1.212) (1.213) (1.214) (1.215) Используя определение (1.214) матрицы Q и А в (1.209), можно получить уравнения относительно неизвестных а[,..., ч!п_л матрицы А': Aqx — Я\= *п л Я\ + Я* -]-••• + ао Ят (1.216) АЯг — Яъ=— Я\ или Я\ = Яг — Мъ АЯл — Я,\ = — Яг или я г = Яъ~ Aqb Aqn — Яп= — Япл или япЛ = qn— Aqn. Разбив матрицу Q на столбцы QH!?i Qi---qn\\ и используя определение |У, получим Яп = Р. (1.217) Таким образом, из уравнений (1.215) и (1.217) может быть получена вся матрица Q, и тогда уравнение (1.216) запишется так: Q = Aq{ — «ft. (1.218)
60 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ (ГЛ. I Если матрица Q не вырождена, то из уравнений (1.216) и (1.217) могут быть получены неизвестные oto, ai, и т. д., и преобразование, определяемое уравнениями (1.212), окажется возможным. Если матрица Q вырождена, будет показано, что система (1.208) может быть преобразована к структуре, подобной (1.108), по в кото¬ рой матрица А будет иметь порядок меньший, чем п X я* 1.30. Упрощаемость Дадим определение упрощаемого уравнения. Определение. Упрощаемое уравнение У — Gy fx которое может быть (1.219) преобразовано (1.220) (1.221) — это такое уравнение, к виду _\Х Y IIщ | #2 | 0 ^ || #2 где у — Ви и В невырождена. В уравнении (1.220) только вектор U\ зависит от х. При определении эквивалентности учитывается выходная величина, определяемая входным сигналом х, а следовательно, при анализе экви¬ валентности (1.219) и (1.220) вектор щ может не учитываться. Поэтому, полагая в уравнении I «1 0 (1.222) можно говорить об эквивалентности щ=Хщ-\-^х (1.223) уравнению (1.219). Здесь необходимо найти следующее: а) условия на G и /, которые показывают, возможно ли упроще¬ ние уравнения (1.219); б) методику получения матрицы В, которая позволит привести уравнение (1.219) к эквивалентной форме (1.223). Так как пункты а) и б) связаны друг с другом, то обе эти задачи будут далее решаться одновременно. Пусть в уравнении (1.209)
1.30] УПРОЩАЕМОСТЬ 61 Если уравнение (1.219) является упрощаемым, то уравнения (1.219) и (1.209) будут эквивалентны в силу соотношения у = С • о, (1.225) где С невырождепа. Подставляя (1.225) в (1.219) и сравнивая результат подстановки с (1.209), получим соотношение А = С 'GC — С 1 С g=c-lf. Построим матрицу Р порядка (т -|- п) X {т~\~ п) P = [g; Ag; A'q;...; A^-'g]. (1.226) (1.227) (1.228) Учитывая выражения для А и g в уравнении (1/209), матрица Р будет иметь следующий вид: Р = 0 0 0 .. 0 (-1Г1 (_!)»-! ь'п-А 0 0 0 .. .. (-1)" 2 0 (-1)-1 *п-2 0 - -1 0 0 0 (-1Г1 а| 1 0 0 ., 0 0 (-If-1 ч 0 0 0 0 0 0 0 0 0 0 . 0 0 0 0 п строк. . (1.229) п столоцов т столонов Матрица Р, очевидно, имеет ранг щ ее первые п столбцов линейно независимы, а (п -|- 1)-столбец есть линейная комбинация первых п столбцов. Используя выражения (1.226) и (1.227), матрицу Р можно пред¬ ставить в форме Р = С 1 {/, 'G — СС •' ] /, \G — СС 1 j’/,..., [G-Се l}n+re-1 /}, так как (1.230) Alg= Г С 1 GC — С"1 Cj1' С 1 /= С 1 Го — СС л]* f. (1.231) Матрица С—невырожденная матрица порядка (п -\- пг) X (« -Г матрица Р имеет ранг п} ее первые п столбцов линейно независимы,
62 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. 1 и, следовательно, матрица p = cp\f,[0 — ССГо — сс -1 \т-уп-\ /} (1-232) должна иметь ранг //; ее первые п столбцов должны быть линейно независимы. Представим матрицу С в виде произведения двух матриц: (т -j- п) X я-матрицы Г и (т -|- п) X /я-матрицы В, С = [ТВ]. (1.233) Используя данное представление, уравнения (1.226) и (1.227) могут быть переписаны следующим образом: oil гв||—!!гв||=||гв!1 А' ЛГ| о Н'\ (1.234) /=||ГВВвг = Гр' (1.235 по определению g. Уравнение (1.234) может быть записано двумя уравнениями: ОГ — Г = ТА\ СВ — В = ТМ' + ВН'. Записывая матрицу Г в виде п столбцов r = liYi> Y*•••> Yn|] (1.236а) (1.2366) (1.237) и учитывая определения А и В’, можно получить уравнения (1.236 а) и (1.2366) в развернутой форме f=\n, G\i — y = *»-i Yx-ra»-2Y«+ ••• +ao'Yn> <?Y2 — \i = — Yi или Yi =\i—G\v G\z — Y:t = — Yi или Y-2 =\з — G\3> G\n—Yn = — Yn-i или Vn-i = Yn — G\n. (1.238) (1.239) (1.240) Уравнения (1.238) и (1.240) дают возможность сформировать мат¬ рицу Г. Теперь можно, используя выражения (1.238) — (1.240), вер¬ нуться к матрице Р' и вывести условия упрошаемости системы. Пер¬ вый столбец матрицы Р’ определен: эго f. Исследуем второй столбец этой матрицы: [G — СС l\f = Gf— СС lf. (1.241)
1.30] УПРОЩАЕМОСТЬ 65 Из соотношений (1.227) и (1.225) и определения получим 0 о-7 = и. (1.242) CC'f=yn=f, поэтому G/— СС lf— Gf — /= Gy„ - Y„ = — Y/.-1. Третий столбец матрицы Р' будет иметь вид (G - СС 11 [- Yn-i] = - IG - СС 11 Yn-, = = — [Gy„ 1 — СС 1 Yn-iJ- Теперь исследуем член CC"]yn_i. По определению уп_{ очевидно, что О С Yn-i = */i — l элементов и, следовательно, СС 'Yn.^Yn I (1.243) (1.244) (1.245) (1.246) (1.247) (1.248) Теперь третий столбец матрицы Р' можно представить следую¬ щим образом: — I Gy л-i — Y«-i]=Y«-2- (1.249) Подобным же образом можно показать, что четвертый столбец есть — Y/i-2 и т- д- поэтому п первых столбцов матрицы Р’ есть Y'" — Yn-i> \п--> ••• (— If ‘Yi; (1.250)
64 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ (ГЛ. (/г —j— 1)-й столбец является линейной комбинацией первых п столбцов: (_!)«\g - СС1] Yi — (—В" [Gy, - YiJ = = <** - iYi-T ••• +aoY/z- (1.251) Заметим, что уравнение (1.251) можно решить относительно вели¬ чин а. Очевидно, что (1.234) и (1.235), определяющие матрицу Л = и вектор I А М! О нг о о (1.252) е= (1.253) О не зависят от подматрицы В матрицы С. Следовательно, подмат¬ рицу В можно выбирать любой, обеспечивающей невырожденность матрицы С. Исходя из вышеизложенного, можно сформулировать методику проверки дифференциального уравнения на упрощаемость. Пусть имеется дифференциальное уравнение V = Gy + fx, (1.254) где у — вектор N-го порядка. Тогда для упрощения этого уравне¬ ния необходимо выполнить следующее: 1. Сформировать N X N-матрицу Р' где Р — IYa'. — Ya’-ь Yjv-2> • • • (— l^Yil. \N — f< Yi = Yi+1 — Gy.+i- (1.255) 2. Проверить ранг матрицы Pf\ если он равен N, то система неупрошаема. 3. Если ранг матрицы Р' есть n<^N, то система может быть за¬ менена эквивалентной порядка п где о) — Л'(о -\- |53v, у = Г(о, (1.256) (1.257)
1.311 ПРИМЕРЫ 65 А' определяется из уравнения | А Мг где О Н О о о о =11 C XGC—C 'CL вектор я-го порядка, (1.258) G |! Чм-т> YАг-/П-'ГЬ • • • > YN> Р/г+Ь Рл-’Г2> • • • > Рх]> (1.259) Ух =/, Yam = Ух— GyN, Ya 2 = Yam — Оулм, УХ-т YN-m+l ayN_m+l, P — произвольные векторы, выбранные так, чтобы матрица Сбыла невырожденной. Таким образом, представлен метод эквивалентного понижения порядка линейного дифференциального уравнения. Данная методика является полезной, так как система более низкого порядка может быть синтезирована меньшим количеством элементов. На практике это приводит к меньшей стоимости системы. 1.31. Примеры Пример 1. Исследуем упрощаемость линейного дифференциаль¬ ного уравнения с постоянными коэффициентами: у -j- Зф 4-- 2у = х 2х —j— х, (1.260) и, если возможно, найдем эквивалентное упрошенное уравнение. Данное уравнение может быть записано в векторной форме: То —3 —1 То _]_ | 1; Ti 2 0 Ti —1 х, (1.261) где 3 п/р Леондеса у — у0 х.
66 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. 1 Следуя изложенной методике, получим матрицу Рг 1 4-2 = l! V-2 — Yi II = (1.262) Очевидно, что Yi — —2у2, следовательно, Р' имеет ранг, равный 1; поэтому уравнение (1.260) является упрощаемым. Сформируем мат¬ рицу С, используя в качестве первого столбца произвольный вектор в качестве второго (учитывая, что этот вектор должен обес¬ печить невырожденность матрицы С: Тогда С = С1 = 1 11 — 1 0| 0 —1 1 1 (1.263) (1.264) Уравнение, эквивалентное уравнению (1.261), будет иметь вид 0 —1 1 1 1 1 — 1 0 + 10 -1 И 1 1 —1 или uv0 1 to 1 to 1 Ко 1 \щ 0 —11 Kl + 0 дг. х (1.265) (1.266) Из уравнения (1.266) получим эквивалентное уравнение более низ¬ кого порядка: и0 = —2w0 + jc0. (1.267) Пр и н и мая uY = 0, полу ч и м Уо = Щ (1.268) и у = —и0 -J- х или щ — —у -\-х. (1.269) Подставляя уравнения (1.269) и (1.267), найдем уравнение, эквива¬ лентное (1.260): у-^2у = х + х. (1.270) В этом простом примере гот же самый результат может быть получен при анализе корней полиноминальных операторов уравне¬ ния (1.260): (P2-{-3P-f 2)y==(P2 + 2P-l- 1)х (1.271) или (Р + 2) (Р + 1)у = (Р -h 1) (Р + 1) X,
1.311 ПРИМЕРЫ 61 где Р = dt * Сокращая общий корень (Р4- 1), мы сразу найдем уравнение (1.270). Для уравнений более высокого порядка эта процедура не явля¬ ется очевидной. В заключении этого примера заметим, что уравнение (1.266) для их содержит общий корень (Я 4" О в уравнении (1.260), т. е. (Л+ 1)н, = 0, где Р = А. Пример 2. Исследуем на упрощаемость и упростим, если это воз¬ можно, уравнение у -f(1 + е~‘)У + (1 + + е~*у = х + е*х. (1.272) Используя методику, изложенную в § 1.27, запишем уравнение (1.272) в векторной форме: х. (1.273) Для того чтобы проверить упрощаемо ли уравнение (1.273), соста¬ вим матрицу Р' из векторов у: У _(1+^)_1 о и 0 V — (1+3<г') 0—1 г1 + —1 h о о со 1 е~‘ уз - ! о — 1 — 1 — 1 , Ъ = <г' . Y) — 1+е-' — е-1 — 2е~‘ ^' = (Уз — YsYil- (1.274) (1.275) Очевидно, Yi = Y*2 — У:ь поэтому ранг Р' равен 2 и, следовательно, Уравнение (1.273) упрощаемо. Матрица С будет иметь вид 0 0 и> следовательно, С = С-1 = 1 — е — 1 0 1 — 1 -<Г' ■ (*-* _ e-t) 0 0 -1 0 <г' 1 (1.276) (1.277) 3*
(-58 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАЛШ [ГЛ. 1 С = ношения где 0 0 0 — е-* 0 0 (1.278) е~{ - ■е-' 0 (1.273), может быть получено из со O r- = Аи-\- gx> О.279) (-(1+0 — 1 0 у = Си, А = С 1 ! (i+з^) 0 - - 1 1 — Зе~1 0 0 С — С^С g=c- 0 — 1 (1.280) (1.281) Подставляя (1.276), (1.277) и (1.278) в (1.280) и (1.281), получим I — 1 — 1 0 А= 1 0 1 (1.282) (1.283) Тогда упрощенное уравнение, эквивалентное уравнению (1.273), будет иметь вид ! — 1 — 1 0 ; 1 0 1 0 0 — е1 0 8 = 1 ■ 0 "и || — i—ii щ \ , !° 1 1 0 -р IX, «1 \ «11 i4 где Но- (1.284) (1.285) Выделяя и щ из уравнений (1.284) и (1.285), получим дифферен¬ циальное уравнение У ~тУ У — (1.286)
1.33] НАИЛУЧШАЯ АППРОКСИМАЦИЯ РЕШЕНИИ УРАВНЕНИИ 69 которое эквивалентно уравнению (1.272). Эквивалентность становится очевидной, если к обеим частям уравнения (1.286) применить оператор 1.32. Аппроксимация линейных дифференциальных уравнений Выше обсуждалось понятие эквивалентности систем. Было пока¬ зано, что при определенных условиях дифференциальное уравнение может быть заменено эквивалентным уравнением более низкого порядка. Понятие эквивалентности двух систем имеет определенную огра¬ ниченность, так как дифференциальное уравнение может и не иметь эквивалентного уравнения более низкого порядка. В этом случае воз¬ никает задача аппроксимации уравнения высокого порядка уравне¬ нием более низкого порядка. Необходимость аппроксимации одним дифференциальным уравне¬ нием другого возникает также из-за ограничений, накладываемых на разность порядков интегрального и дифференциального оператора физи¬ ческой системы. Эти ограничения требуют, чтобы порядок интеграль¬ ного оператора был больше или равен порядку дифференциального оператора физической системы; разность между порядками интеграль¬ ного и дифференциального операторов замкнутой системы должна быть больше или равна разности в порядках интегрального и диф¬ ференциального операторов разомкнутого контура. В том случае, когда эти требования не удовлетворяются, необходимо каким-то образом уве¬ личить разность между порядками интегрального и дифференциального операторов без значительного изменения выходных характеристик. 1.33. Каилучшая в смысле метода наименьших квадратов аппроксимация решений алгебраических уравнений Рассмотрим задачу нахождения решения следующего уравнения: где сi — неизвестные скалярные величины, уь у\2, ..., ут — линейно независимые /г-мерпые векторы-столбцы. Предположим, что п '^> т\ тогда, если у0(у0-.^:0) ,,е принадлежит подпространству G, натяну¬ тому на векторы уь Y* •••> Yто найти точное решение уравнения (1.288) невозможно. В этом случае надо искать наилучшее (в опреде¬ ленном смысле) приближенное решение уравнения (1.288). Очевидно, что наилучшим приближенным решением уравнения (1.288) относи¬ тельно ci будет такое, которое минимизирует квадрат разности векторов (1.287) OYl "Г OY-2 "Г ••• -Г СтЧт = Y«> (1.288)
70 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. 1 Наилучшим приближением вектора у0 и подпространстве G будет проекция вектора уо на эт° подпространство. Вектор ошибки дается выражением т e=SciYi —Yo (1.289) i= 1 или в матричной форме 8 = Г с — уо, (1.289а) где с= . и THIy, ••• YmI! Вектор 8 ортогонален к каждому вектору уг, поэтому скалярное произведение 8 и каждого уг- должно быть равно нулю, т. е. yJe — 0 (i— 1, 2, ..., т\ (1.290) где у7 —транспонированный вектор уг*. Уравнение (1.290) может быть записано в матричной форме: Г78 = 0, (1.291) где Гг — транспонированная матрица Г. Если (1.289а) подставить в (1.291), получим матричное уравнение: ГТГс— Г7у0 = 0. (1.292) Наилучшее приближенное значение с может быть получено из выра¬ жения с = (ГГ -Т)~1 • Ггу0. 1.34. Аппроксимация дифференциального уравнения уравнением более низкого порядка В § 1.28—1.30 были выведены условия, при удовлетворении ко¬ торых векторное уравнение порядка (яг п) у = Gy fx (1.293) может быть заменено эквивалентным уравнением более низкого по¬ рядка, например порядка п. Эти условия сводятся к тому, что реше¬ ние уравнения GC — C = CA (1.294) должно удовлетворять следующим требованиям:
1.34) АППРОКСИМАЦИЯ УРАВНЕНИЕМ БОЛЕЕ НИЗКОГО ПОРЯДКА 71 1. Матрица А должна представляться в следующей форме: Q М А = О Н (1.295) где Q — п X «-матрица, 0 — т X л-матрица нулей, М и И—матрицы, определенные подобным образом. 2. п-м столбцом матрицы С должен являться вектор /. 3. Матрица С должна быть невырожденной. Естественно, возникает задача: как найти приближенное решение уравнения (1.294) в том случае, кагда матрица С не удовлетворяет изложенным выше условиям. Такое решение позволило бы заменить уравнение (1.295) порядка (т-\-п) векторным уравнением п-rо по¬ рядка. Этому вопросу будет посвящено дальнейшее изложение. Разделим матрицу С на две подматрицы: (т -j~ п) X л-матрицу Г и (т -f- л) X яг-матрицу В, т. е. С = |ГД||. (1.296) Если подставим уравнения (1.295) и (1.296) в уравнение (1.294), то получим два уравнения: GT — t = TQy (1.297) GB — В = ТМ + ВН. (1.298) Если найдено наилучшее (в некотором смысле) приближенное ре¬ шение уравнений (1.297) и (1.298), удовлетворяющее условию: л-й столбец матрицы Г равен. /, то полученное дифференциальное урав¬ нение будет называться аппроксимацией уравнения (1.293). Для того чтобы получить наилучшие приближенные решения урав¬ нений (1.297) и (1.298), определим матрицы Q и Г следующим образом: Q- а, —1 О О ii ; О (1.299) о ... о ! Г = |! Yi> V‘2> • • •. Ynll- (1.300) Используя эти определения, а также то, что ун=/. уравнение (1.297) может быть записано как система уравнений: GYi — Yi = ®iYi -Г+ ... -rcwV (1.301) Yi = У 2 — Gy,, Ya = Ya — Gy». 1 (1.302) \ni=yn — Gyn, У «=/•
72 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. t Уравнение (1.301) может быть переписано и виде Га == Gyi — Yi- (1.303) где а = В § 1.33 показано, что наилучшим аппроксимирующим решением в смысле метода наименьших квадратов является решение уравнения Г7Та = Г7'(/у1 — Ггуь (1.304) где Г7” — транспонированная матрица. Заметим, что если исходное диф¬ ференциальное уравнение является упрощаемым, то вектор а есть точ¬ ное решение уравнения (1.304). Следующим шагом после получения приближенного решения уравнения (1.297) будет нахождение решения уравнения (1.298). Точное (хотя и не единственное) решение уравнения (1.298) может быть найдено следующим образом. Пусть Ж и Я имеют форму М = Рч 0 0 . .. 0 Р-2 . о . о ■ о • P1 ti о .. • • о • • о (1.305) Н- Т]! — 1 0 .. .. 0 ъ 0 — 1 .. 0 Чп 0 0 . .. 0 (1.306) Матрица В представляется т столбцами: в = IIPi, fa Pm И- (1.307) Тогда вследствие (1.305), (1.306) и (1.307) уравнение (1.298) можно записать в следующем виде: = [J-iYi -[- p^Ya ••• "7“ Р'лУл “Т“ ^lPl ~Т~ ••• “Г (1.308) Pi = k-GP* J Р*=Рз— Gp;t, (1.309)
1.34] аппроксимация уравнением более низкого порядка 73 может быть выбран произвольным, однако обеспечивающим не¬ вырожденность матрицы С = ||ГВ||. (1.310) Зная рт и G, можно полностью определить матрицу В из урав¬ нений (1.309). Тогда уравнение (1.308) может быть записано: 1ГВ1 = ОР1 — К. (1.311) где ъ 11 = и г\ = 'Цт Уравнения (1.311) могут иметь точные решения \х и rj, так как мат¬ рица || ТВ |! невырождена. Исходное уравнение (1.293) было аппроксимировано в смысле минимума среднеквадратичного отклонения уравнением, поддающимся упрощению. Аппроксимирующее уравнение имеет вид и[ Q М и[ _L А и.г 0 Н «2 1 0 х, (1.312) где />= Уравнение (1.313) может быть записано: u' = Arur-\-frxг. (1.313) Далее аппроксимация уравнения (1.293) может быть записана в сле¬ дующем виде: У = ОУ+ /JC. (1.314) Используя (1.294), можно получить выражение для G':
74 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ Учитывая, что и у' = Си' \ТВ i I иЛ [ГЛ. 1 (1.316) (1.317) упрощаемое уравнение, которое аппроксимирует (1.294), будет иметь вид Ui =■ Qui —j— f\X (1.318) и y' = Tui (1.319) Для того чтобы оценить точность аппроксимации, необходимо полу¬ чить величину вектора ошибки г=у—у. (1.320) В том случае, когда удается получить точное численное решение уравнений, вопрос оценки не является сложной задачей. Однако, часто получение точного решения затруднительно, поэтому предла¬ гается методика оценки ошибки аппроксимации. Эта методика изло¬ жена в § 1.40. 1.35. Пример В качестве примера получим уравнение первого порядка, кото¬ рое аппроксимирует следующее векторное уравнение: 3 1 -(2 + 0 О Это уравнение можно записать таким образом: $ = Gy+fx. В качестве первого шага положим II 1 Y=/=|| 2 Затем преобразуем уравнение G\ — у = aY в соответствии с (1.301) в уравнение S> 0 S>\ Уо + 1 |.хг. (1 У1 2 (1.321) — 1 -(2 + 0 = a (1.322) (1.323) (1.324) (1.325) Очевидно, это уравнение не имеет решения.
1.351 ПРИМЕР 75 Используя методику, данную в § 1.33, можно найти уравнение, которое решается относительно а, и полученное решение будет наилучшим в смысле среднеквадратичного отклонения. Такое аппроксимирующее уравнение имеет вид 1>2|| а = II 1, 2 | I— 1 или откуда — (24- е)~‘ [ 5а = — 5 — а = — 1 — 4 е~*. (1.326) (1.327) (1.328) Затем в соответствии с уравнением (1.309) выберем (3 произвольным образом с единственным требованием, чтобы он обеспечил невырож¬ денность матрицы С: 10 р= Затем из уравнений (1.323) и (1.329) получим матрицу 111 о С = \\ С1— J 2 1 1 о —2 1 Теперь уравнение (1.311) будет иметь вид 1 0 = 1 2 1 II л 0 Из уравнения (1.332) получим li= 1, т| = — 2. (1.329) (1.330) (1.331) (1.332) (1.333) Из уравнений (1.328) и (1.333) можно получить уравнение, поддаю¬ щееся упрощению: 2 _,\ -5е j 0 —2 111 и', ~ - 1 Hi , 1 IU i 0 или и = Afuf -р gx. (1.334) (1.335)
76 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. 5 Из уравнения (1.319) У'о\ Ill У\! = |2 Hi. (1.336) Теперь могут быть получены приближенные уравнения первого порядка относительно у'{) и у\ fi = — (\ -rj-е ‘)У1 ~2х- (1.337) (1.338) Для того чтобы оценить степень аппроксимации, необходимо из уравнений (1.315), (1.330) и (1.331) получить матрицу G = — (з 4-д-1 \ ' о j -(2+i-e-1) 0 (1.339) Наконец, уравнение, аппроксимирующее уравнение (1.322), будет иметь вид Г° К / 9 ,\ -\3+~е- ) 1 -(2+4-е~‘) 0 У» \y'i ' !|2 X. (1.340) Ошибка аппроксимации дается следующим выражением: |£o _l Vo — vd Vi — yl (1.341) Величина ошибки может быть оценена при использовании методики, изложенной в § 1.37. 1.36. Увеличение порядка интегрального и дифференциального операторов Задача аппроксимации, которая обсуждается в этом параграфе, заключается в следующем. Пусть Wдифференциальное уравнение вида V a'v V и t4\ d х > a.(f)_r__ > bi (/)—г _ at* dti • i = 0 i — U (1.342)
1.36] УВЕЛИЧЕНИЕ ПОРЯДКА ОПЕРАТОРОВ 77 Отпустим, что VI' обеспечивает желаемые характеристики системы при действии данного входного сигнала x(t), но с точки зрения реализации данное дифференциальное уравнение неприемлемо, так как разность порядков интегрального и дифференциального операторов слишком мала, г. е. п — т A', (1.343J где N—требуемая величина разности порядков. Например, п — т = N — Ь, (1.344) где Ь — целое положительное число. Необходимо найти уравнение п Ь -f- q _ т - \- а 1 (L345) i = i i — 0 решение которого У (t) будет достаточно точно аппроксимировать y(t), определяемое уравнением (1.342). Предлагаемый метод решения этой задачи иллюст- о—:— рируется рис. 1.14. Дифферен¬ циальное уравнение, у которо¬ го разность порядков иптег- Рис- ^ за^ачс аппроксимации, рального и дифференциального операторов равна /;, «включается» последовательно с W, формируя, таким образом, систему с дифференциальным уравнением W: IT = WX. (1.346) Эта система имеет требуемую разность порядков N. Свойства оператора А' должны быть таковы, чтобы х' было близко к х в каждый момент времени. Иначе говоря, требуется, чтобы ошибка s между х и х' стреми¬ лась асимптотически к нулю г — х — х\ (1.347) Очевидно, что скорость стремления ошибки к нулю определяется надлежащим выбором характеристического уравнения, соответствую¬ щего дифференциальному уравнению, которое описывает ошибку. Пусть дифференциальное уравнение X будет иметь вид 1=0 i=0 (1.348)
78 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. ! Предварительно выберем ai(t) постоянным. Выбор их обсуждается ниже. После того как они выбраны, применим оператор / -=0 к обеим частям уравнения (1.347), формируя, таким образом, урав¬ нение b + q b + q b + ч — о-ад Ld ‘ dt‘ ^ dt' Ld 1 dt1 ' i = 0 i=() i = 0 Подставляя (1.348) в (1.350), получим уравнение для е Ъ+q b+q q dli V d'x Y1 / ox 1F= 1 “1F+ — i = 0 / = q + 1 i = 0 Вследствие требования асимптотического стремления ошибки к нулю необходимо, чтобы уравнение (1.351) было не только устойчивым, но и его правая часть равнялась бы нулю, т. е. необходимо выби¬ рать р таким образом, чтобы выполнялось равенство 2 ‘U52> г = 7+1 i = U Метод выбора |3z-(f) зависит в общем случае от вида входного сигнала x(t). Чтобы проиллюстрировать этот метод, рассмотрим три вида входных сигналов. Полиноминальные входные сигналы. Допустим q x(t)— ^ Cit\ (1.353) 7 = 0 где С( — действительные постоянные. Очевидно, что —— = 0 (I = q -{- 1, q + 2, ... , q -|- b), (1.354) at1 поэтому уравнение (1.352) сводится к У(«/ — РМ^=0> (1.355) ас1 / = о и, очевидно, решение для удовлетворяющее этому уравнению, есть Р,- = а/. (1.356)
1 36j УВЕЛИЧЕНИЕ ПОРЯДКА ОПЕРАТОРОВ 79 Из анализа уравнения (1.351) ясно, что q выбирается равным наивысшей степени полииоминального входа, р*— постоянные вели¬ чины, так как постоянны а,-. Результирующее уравнение X является уравнением с постоянными коэффициентами. Экспоненциальные входные сигналы. Допустим я X(t)= 2 cie"f’ о.357) У = о где cj — вещественные постоянные, в общем случае являются комплексными величинами. Для того чтобы x(t) было действительной величиной, необходимо чтобы комплексные величины ^ образовали бы сопряженные пары. Если (1.357) подставить в (1.352), получается следующее урав¬ нение: 2 * 1 с^=° с-358» i = q 1 j = 0 i = 0 i = 0 или 2 2 *iCf{jetjl + 2 2 (“«• — Р/)сЛ>7/'( =°- (1-359) i = q -f- 1 у = 0 i = 0 У = 0 Уравнение (1.359) может быть переписано в виде 2 с/Т/<{ 2 ®«-ТУ+ 2 (*«• — Рг)Т/} = °- (1.360) у = 0 1 г = 7 -г 1 i = 0 ' Величины 3; выбираются так, чтобы удовлетворялось уравнение if 2 — pi)Тт = 0 С/ = 0. (1.361) г = q -f 1 i = 0 Заметим, что, выбирая наивысшее ненулевое значение рг* равным р получим ровно q -j— 1 уравнение с <7-1-1 неизвестным. Отметим, что так как at- и — постоянные величины, то р,- также постоянны; поэтому X представляет собой уравнение с посто¬ янными коэффициентами. Входной сигнал общего вида. Допустим, что входной сигнал является функцией общего вида: cx(t), где с — константа, x(t) — функ¬ ция, имеющая по крайней мере b непрерывных производных. Если в уравнении (1.352) положить q равным нулю, то это уравнение может быть переписано следующим образом: ь У. а< + (®° “Г Ро) с* = 0 (1.362) dt1 i = 1
80 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. I ИЛИ откуда i = \ y.Qx — $Qx}= 0, (1.363) b ?•=«.+71 <1'3,i4, В общем случае [30 является функцией времени, и поэтому урав¬ нение X может быть уравнением с переменными коэффициентами. Использовать соотношение (1.364) не всегда удобно из-за деле¬ ния на Ху поэтому иногда желательно аппроксимировать входной сигнал либо полиномиальным, либо экспоненциальным рядом и исполь¬ зовать соответственно уравнения (1.356) или (1.361). Когда значения выбраны такими, чтобы удовлетворялось урав¬ нение (1.352), уравнение относительно ошибки (1.351) приобретает вид 2«,|f = 0. (1.365) i = 0 Уравнение (1.365) является однородным уравнением с постоянными коэффициентами. Выше было сказано о выборе аг. Теперь выбор этих коэффициентов становится более очевидным. Они выбираются так, чтобы ошибка s = a;— х' стремилась к нулю настолько быстро, что разность между выходными величинами у и у' была мала. В этом случае очевидно, что выбор аг требует знания решения уравнения W. 1.37. Оценка ошибки аппроксимации При аппроксимации данного дифференциального уравнения необ¬ ходимо проанализировать разность между решениями этого диффе¬ ренциального уравнения и аппроксимирующим его уравнением при определенном входном сигнале. Эта разность, или ошибка, является некоторой оценкой полученной аппроксимации. Пусть данное дифференциальное уравнение будет иметь вид y = Gy-\-fx, (1.366) а аппроксимирующее уравнение yi = GiViJrfiX. (1.367) Предположим, что эти уравнения имеют одинаковый порядок и в общем случае являются уравнениями с переменными коэффициентами.
137] ОЦЕНКА ОШИБКИ АППРОКСИМАЦИИ 8! Разность между уравнениями (1.366) и (1.367) может быть записана в виде Су —й) — Gy— Gtyi -j- (f—/,) x -f- (Giy — G,y) (1.368) или, полагая г=у—уь k = Glz + (G-Gl)y-\-(f—f1)x. (1.369) Теперь положим В = G — G\ (1.370) и b=f—f\. Тогда уравнение (1.369) запишется г = G{e -\-By-\- Ъх. (1.371) Если можно получить точное решение (1.371), то задача решена. В общем случае, однако, получить точное решение уравнения бывает часто затруднительно, поэтому исследуем следующие три возмож¬ ности: 1. Получение точного решения на вычислительной машине. 2. Получение приближенного решения. 3. Получение оценки вектора ошибки. В этом параграфе рассматривается третий случай. В результате рассмотрения получается определенная оценка ошибки аппроксимации. Эта опенка может быть использована для обоснования ценности аппроксимации. Для оценки ошибки вводится определение нормы матрицы. Если дана матрица А, то ее норма определяется следующей формулой: А =! А II = (след ААГ)Ш, (1.372) т где А —транспонированная матрица Л. Норма вектора ошибки г в силу (1.372) есть квадратный корень из суммы квадратов ее ком¬ понент. Пусть Wi (ty т) — весовая матрица однородного дифференциального уравнения u = GiU. (1.373) Тогда решение уравнения (1.371) будет иметь вид t t 8(0 = 5 9)в(0).У(0)<*9-{-$ W,(0 0)b(6)Jt-(6)dn. (1.374)
82 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. 1 Используя данное выражение, получим 401=3 \ Wi(t, в)В(в)у(в)М + j W, (t, Ь)Ьф)х(Ъ)№ < j.|! W, (t, 6) В (9)у (9) I<79 + j || W, (t, 9) b (9) x (9) || dO ^ •z T == (I! W, (7, 9) j| IВ (9) II13» (9) || <79 + {1 W, (7, 9) 11 b (9) || || x (9) || d9. (1.375) x T Обозначим I } (1-376) yW,, = max||.y(9)|, Mx = max I x (6) I = max | x (0) |, тогда |: e (01 < My \ I! W, (t, 9) IIIВ (9) I df) + Mx $ II W, (t, 9) || || b (9) || <79. (1.377) T T Положим (1.378) где A — постоянная невырожденная матрица и C{t) — матрица с пере¬ менными параметрами. Собственные числа матрицы А имеют отрица¬ тельную действительную часть. Wi(t, 0) есть весовая функция урав¬ нения (1.373), и поэтому она должна удовлетворять уравнению dt [ Wx (t, 0)] — AWi (t, 0) + C(O Wt(t, 0), (1.379) где Wj(0, b) = I (единичная матрица). Следовательно, Wi{t, 9)= — 9)4- j W(t — a) С (a) W, (a, 9) da, (1.380) причем W(t — 0) удовлетворяет уравнению А[щ;-9)] = ли^-9), (1.381) где Щ0 — 0) = 7. Если собственные числа матрицы А имеют отрицательные ве¬ щественные части, тогда | W(t — 0)|| может быть ограничена экспо¬ нентой, т. е.
1.381 ПРИМЕР 83 где с\ и а — положительные вещественные числа. Тогда из уравне¬ ний (1.380) и (1.381) II W. (/. в)1<с1в-в‘‘-в> + 5с1е-“‘/-)1С(а)|||| W,(a. 0)|do. (1.383) е Преобразовывая выражение (1.383), получим с* IIе w II-II w> (*> e)llg0< ^cj||C(0||. (1.384) Ciea0 + ( с, || С (a) |i ||IV, (а, Ще^Ла О Интегрируя неравенство (1.384), найдем i -| t log С,еа0 -J- $ Cl IIС (а) || || W, (а, 0) | еаа da — log ctea0 ^ § с, IJ С (а) | da t +Sc,lC(e)l|W1(e, 0) j| еал da t exp 5 с,! С (а) I da. (1.385) cle В И, наконец, из уравнений (1.383) и (1.385) получим !№,(*, е)||<с,ехр|—а(^ —0) + jc1||C(a)||flfaj. (1.386) Тогда из (1.386) и (1.377) !! * (01| Si j ci exp j_ a (< - 0) + j || С (a) || daj \MV\B (0) fl + Mx |fr(0)|} d0. (1.387) Для частного случая, когда (1.371) стационарно, |C(a)|| = 0 и ||£(б)!| и |]£(б)|| — константы, уравнение (1.387) сводится к соотношению I е (01| :< {Му || В || + Мх || Ъ1} [ 1 - е-*« 'Д. (1.388) 1.38. Пример В примере § 1.35 уравнение
84 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. 1 было аппроксимировано уравнением + 11 X. (1.390) У о II — (3-{-2/5£') 1 у0 у[ — I _ (2+ 4/5^) 0 у\ Используя уравнение (1.387), найдем оценку ошибки аппроксимации для т = 0. В соответствии с уравнениями (1.369), (1.370) и (1.378) А = — 3 1 — 2 0 С(0 = I —2/5<г' 0 [j А/ое'( 01| Я = 2/5<г* 0 , ь = 01 — 1/бе-' 0 °| (1.391) Импульсная переходная функция, определяемая уравнением (1.381), будет иметь вид W(t — Q) = 2е~2(*-°) 2е'^~0) 2<гО-°) ^-2(^-0) (1.392) Из уравнений (1.391) и (1.392) II W(t — 6)IP = — 18е-3^-0>+ Юе-^‘-ь\ (1.393) 4 (1.394) 5 . . (1.395) Полагая в соотношении (1.387) т = 0 и 6i=r0, получим ^ с, А С (a) I ch = Y~\е ° — е~‘ II S 2с1 W (1.396) Подставляя уравнение (1.227), (1.395) и (1.396) в (1.220), получим соотношение i С —!— g(o-i)|) dB. е rg с,Му ехр 1/5/ Оно примет вид причем c,Mv exp (-^Д : —{<?-' - e-at\ /5 (а - 1) ’ W(t — 6)Ц^С1еа^-“). (1.397) (1.398) (1.399)
ЛИТЕРАТУРА Можно показать, что если а = ~ и сх = У 3, то неравенство (1.398) удовлетворяется, и уравнение (1.397) может быть записано: 2 УS схр | Му |®1! = у} ° {e-ti*—е~1\. (1.400) Из (1.400) очевидно, что \\г\\ стремится к нулю при сю, кроме того, из этого соотношения можно получить неравенство шах||е|| = Ме^ 1,81Ж>(. (1.401) Оценка ошибки аппроксимации, даваемая соотношениями (1.400) и (1.401), позволяет обосновать необходимость аппроксимации урав¬ нения (1.389). 1.39. Заключение В этой главе были рассмотрены некоторые методы, которые можно использовать для синтеза линейных систем автоматического управления, содержащих заданные элементы, полная характеристика которых либо меняется во времени, либо должна меняться во вре¬ мени. Изложение является достаточно полным, хотя некоторые вопросы не исследованы до конца. Изложение этих вопросов можно найти также в книге [17]. ЛИТЕРАТУРА 1. Truxal J. G., Control Systems Synthesis, McGraw-Hill Book Company, Inc., New York, 1955. [Русский перевод: T p а к с e л, Синтез систем авто¬ матического регулирования, Машгиз, М., 1959.] 2. Борский В., О свойствах импульсных переходных функций систем с переменными параметрами. Автоматика и телемеханика, т. 20, июль 1959 г., стр. 848—855. 3. Control Systems Engineering, edited by W. W. Siefert and C. W. Stceg, Jr., McGraw-Hill Book Company, Inc., New York, I960. 4. С r u z J. B. and Van V a 1 k e n b e r g М. E., The Synthesis of Models for Time-Varying Linear Systems, Proceedings of the Symposium on Active Networks and Feedback Systems, Polytechnic Press of the Polytechnic Institute of Brooklyn, New York, 1960, pp. 527—544. 5. Б а т к о в А. М., К вопросу о синтезе линейных динамических систем с переменными параметрами. Автоматика и телемеханика, т. 19, январь 1958 г., сгр. 49—54. 6. М а г ы a in И., Методика решения линейных дифференциальных уравне¬ ний с переменными коэффициентами при помощи моделирующих уст¬ ройств. Автоматика и телемеханика, т. 20, июль 1959 г., стр. 839—847. 7. Мальчиков С. В., О синтезе линейных систем автоматического управ¬ ления с переменными параметрами. Автоматика и телемеханика, т. 20, декабрь 1959 г., стр. 1587—1594.
86 СИНТЕЗ СИСТЕМ С ПЕРЕМЕННЫМИ ПАРАМЕТРАМИ [ГЛ. 1 8. Cruz J. В., A Generalization ol the Impulse Train Approximation for Time-Varying Linear System Synthesis in the Time Domain, IRE Transac¬ tions on Circuit Theory, Vol. CT-6, December, 1959, pp. 393—394. 9. L a n i n g J. H. and Battin R. H., Random Processes in Automatic Control, McGraw-Hill Book Company, Inc., New York, 1956. [Русский перевод: J1 э н и н г Дж. и Б э т т и н Р., Случайные процессы в задачах автоматического управления, ИЛ, М., 1958.] 10.. Computer Control Systems Technology, edited by С. T. Leondes, McGraw- Hill Book Company, Inc., New York, 1961. 11. Birkhoff G. and MacLaneS., A Survey of Modern Algebra, Mac¬ Millan Inc., New York, 1960. 12. St ear E. B. and Stubber ud A. R., Signal Flow Graph Theory for Linear Time-Variable Systems, Transactions of the AIEF (Communications and Electrons), Vol. 58, January, 1962, pp. 695—701. 13. St ubber ud A. R., A Technique for the Synthesis of Linear Nonstatio- nary Feedback Systems, Part I: The Approximation Problem, accepted for publication in AIEE Transactions. 14. Stubberud A. R., A Technique for the Synthesis of Linear Nonstatio- nary Feedback Systems, Part II: The Synthesis Problem, accepted for pub¬ lication in AIEE Transactions. 15. Г л а д к о в Д. И., О синтезе линейных систем автоматического управ¬ ления. Автоматика и телемеханика, т. 22, март 1961 г., стр. 306—313. 16. Miller К. S., Properties of Impulsive Responses and Green’s Functions, IRE Transactions on Circuit Theory, Vol. CT-2, March, 1955, pp. 26—33. 17. Stubberud A. R., The Analysis and Synthesis of Linear, Time-Variable Systems, University of California Press, 1964. 18*. Солодов А. В., Линейные системы автоматического управления с переменными параметрами, Физматгиз, М., 1962.
ГЛАВА 2 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ Хеи (И, С. Hsieh), Леондес (С. Т. Leondes) Р л 3 Д II Л I ОПТИМАЛЬНЫЙ СИНТЕЗ МНОГОМЕРНЫХ СИСТЕМ СО СТАЦИОНАРНЫМИ СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ 2.1. Введение Современная теория управления вступила в эру, в которой проб¬ лемам многомерных систем уделяется особое внимание. Хотя разви¬ ваясь таким образом, теория управления в значительной степени отталкивается от предшествующих работ по одномерным системам, тем не менее возникающие при изучении многомерных систем задачи часто внутренне отличаются от соответствующих задач в одномерном случае. Природу рассматриваемых в первой части настоящей главы задач можно охарактеризовать просто. Имеется набор стационарных слу¬ чайных процессов, представляющих собой смесь полезных сигналов и искажающих их шумов. Этот набор входных процессов должен быть обработан некоторым линейным устройством с тем, чтобы полу¬ чить набор выходных сигналов, оптимальный в смысле минимума сред¬ него квадрата ошибок. Так ставится задача оптимальной линейной экстраполяции и фильтрации. Первая работа по оптимальной линейной экстраполяции и фильт¬ рации была написана Н. Винером [1] около двух десятилетий назад. С тех пор были сделаны различные обобщения основополагающей теории Винера на другие одномерные задачи. Эти методы синтеза теперь хорошо известны и могут быть найдены в различных учеб¬ никах [2, 3, 4]. Однако задачи, относящиеся к многомерному случаю, несмотря на свою чрезвычайную важность для техники, включая управ¬ ление летательными аппаратами и теорию связи, до недавних пор не исследовались.
88 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ [ГЛ. 2 Ранние работы по синтезу многомерных фильтров и систем управ¬ ления со стационарными входами, оптимальных в смысле минимума квадрата ошибки, принадлежат Хеи и Леондесу [5, 6], а также Амара [7]. Векторное уравнение Винера — Хопфа было решено методом преобразования Фурье и методом неопределенных коэффициентов. Более прямой подход к решению векторного уравнения Винера — Хопфа получается при факторизации матрицы спектральных плотно¬ стей входа. Однако разработанные к настоящему времени способы осуществления этой факторизации довольно сложны.- Винер и Масани j 8, 9] рассмотрели синтез дискретного многомерного фильтра и пред¬ ложили метод факторизации, основывающийся на бесконечных матрич¬ ных рядах. Однако этот метод непригоден для какой-либо практи¬ ческой цели. Юла [10] разработал алгоритм решения задачи факто¬ ризации для рациональных спектральных матриц. К сожалению, его метод довольно сложен, и факторизация простой рациональной мат¬ рицы требует больших вычислений. Позднее Дэвис [11] дал другой метод факторизации матрицы спектральных плотностей. Основная идея его подхода интуитивна, и процедура выполнения факторизации по сравнению с предлагавшимися ранее несколько проще. В следующих параграфах формулируется задача среднеквадратич¬ ной фильтрации и выводится в весьма общем виде (с помощью тео¬ рии матриц и операторов) связанное с ней уравнение Винера — Хопфа. Подробно излагается метод неопределенных коэффициентов, предло¬ женный Хеи и Леондесом, а также Амара. Дается пример, поясняю¬ щий этот метод. Затем показывается, как факторизуется матрица спектральных плотностей методом Дэвиса. И, наконец, показывается, как все эти методы применяются для решения общей задачи управ¬ ления системой. 2.2. Постановка задачи многомерной непрерывной фильтрации в смысле Винера Многомерная система определяется как система с я входами и т выходами. В линейной системе входные и выходные сигналы свя¬ заны посредством матрицы весовых функций. Пусть / {t) — я-мерный входной вектор, a C(t) — /я-мерный выходной вектор. Для простоты под вектором всегда понимается вектор-столбец. Обозначим весовую функцию между k-м входом и у-ым выходом символом Wjk(t, т). Тогда W(t, т) будет т X я-матрицей весовых функций. И теперь выходной вектор можно выразить формулой t C(t)= 5 W(t,z)i(x)d*. (2.1) — ОО Целью этого параграфа является формулировка задачи теории виперовской фильтрации в многомерном случае [5]. Для того чтобы
2.2] ЗАДАЧА МНОГОМЕРНОЙ НЕПРЕРЫВНОЙ ФИЛЬТРАЦИИ 89 облегчить постановку и решение этой задачи, введем некоторые опре¬ деления и обозначения. Пусть X(t), —оо<^<^оо,— я-мерный дей¬ ствительный векторный случайный процесс. Корреляционная матрица этого процесса определяется формулой R{s,f) = E{X(s)X'(f)}, (2.2) где ' — штрих означает транспонирование. Таким образом, R(s,t) есть т X /^-матрица. Очевидно, что R(sy t) неотрицательно определена для каждых $ и t и что Rr (5, t) = R(t, s). Обозначим норму матрицы (квадратной или прямоугольной) символом ||Af|j и определим ее так: = (2.3) В рассматриваемой задаче на каждый вход поступает искаженный сигнал—сумма ожидаемого сигнала sk(t) и неожидаемого шума nk(t). Таким образом, входной вектор можно записать как I{t) = S{t) + N(t\ (2.4) где S(t) и N(t) — 5-мерные векторы. Предполагается, что и сигнал, и шум являются действительными стационарными процессами. Исследуемый фильтр определяется в предположении, что идеаль¬ ный выход может быть результатом любой линейной операции над входными сигналами. Пусть D (t, т) — матрица идеальных весовых функций. Тогда идеальный выходной вектор Cd(t) равен оо Cd(t)= \ D(t,x)S(x)dx. (2.5) — СО Следует отметить, что идеальная весовая функция может быть физически невозможной, как, например, происходит в случае экстра¬ поляции. Вектор ошибок системы определяется как разность между действительным выходным вектором и идеальным выходным вектором 8(0 = с (0-ело. (2.6) Формулируемая задача может быть лучше понятна с помощью рис. 2.1. Часть схемы, расположенная под пунктирной линией, пред¬ ставляет собой действительную систему, в то время как то, что рас¬ положено выше этой линии, представляет гипотетическую идеальную систему вместе с устройством сравнения, которое выдает сигналы ошибок. Без потери общности можно предположить, что как сигнал, так и шум имеют нулевые средние. Из этого предположения автомати¬ чески вытекает, что математическое ожидание вектора ошибок равно
90 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ [ГЛ. 2 нулю. Задача теперь состоит в том, чтобы выбрать такую физически возможную (а также устойчивую) матрицу весовых функций, чтобы Идеальная система Действительная система о Л(г) Cd(t) т S(t) т т W(Z) + 'c(t) Рис. 2.1. Блок-схема устройства, формирующего ошибку. математическое ожидание квадрата нормы вектора ошибок было минимальным £ {j8(0 ,р } _ min ? (2>7) w 11, т) где W (t, т) = 0 для t<^z. 2.3. Минимизация ошибки системы Вычислим критерий качества системы. Во-первых, заметим, что для стационарных входов и идеальной системы с постоянными пара¬ метрами оптимальная действительная система будет также иметь постоянные параметры. Во-вторых, минимизация £{||е(0|Р} эквива¬ лентна минимизации математического ожидания квадрата каждой ком¬ поненты вектора е(0- Рассмотрим /-ую компоненту этого вектора e;(0 = S W)(x)/(t-x)dx-C(lj(t), (2.8) где W)—вектор-строка размеров 1 X72 представляет собой у-ую строку матрицы весовых функций. Таким образом, имеем Е {#5 (0} = Е A W) (х) $ / (* — х,) /'(t - т4) Wj (х4) rfx2 - о СО - 2 ^ W) (х.) I (t - x,) Caj (0 f/x, -f C%j (t) = 0 a) oo = 5 Wj (x.) dx, $ *(x, — X,) Wj (x4) dx, - 0 0 OO 4 -2 5 ^(xOBylxOf/x.-l-flQAO} - (2.9)
23] МИНИМИЗАЦИЯ ОШИБКИ СИСТЕМЫ 91 где — -2) = Е {/(* — т0^(* — т2)} — п X ^-корреляционная мат¬ рица входа, п X 1-вектор корреляций между входом и идеальным выходом. Поскольку последний член в равенстве (2.9) не зависит от Wp задача сводится к минимизации со со Q ( Wj) = \ W'j Ы dz! $ /? (X! — Хг) Wj ('.2) с/т.2 — а о СО -2$ И'ДтОВуЫЛ,. (2.10) О Определим скалярное произведение двух векторов x(t) и y(t) из пространства Ц векторных функций, интегрируемых с квадратом, формулой ь х, y = \x'(t)y(t)dt. (2.11) а Введем также обозначение 00 R W, = $ /? (т, — т2) W, Ы dz* (2.12) О Здесь R — очевидно, линейный оператор в я-мерном пространстве Z.2. Тогда уравнение (2.10) можно записать как Q(Wf) = RW/9 Wj — 2B„ WJy (2.13) где интегрирование при вычислении скалярного произведения произ¬ водится в пределах от 0 до со. Задача теперь заключается в том, чтобы найти оптимальный век¬ тор весовых функций, который доставит минимум Q. С этой целью рассмотрим вектор V) такой, что RVj = Bj для (2.14) Подставляя (2.14) в (2.13), а также добавляя и вычитая член RVp Vp имеем Q(Wj) = RWp Wj—2RVp Wj + RVp V, — RVp Vp (2.15) Так как линейный оператор R является самосопряженным, т. е. Rxy у = Ryy ху уравнение (2.15) можно записать как Q(Wj) — RWp Wj-RWp Vj-RVp Wj -j- R Vp Vj — - R Vj, Vj — R( Wj - Vj), (Wj - Vj) - R V,, Vj. (2.16)
92 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ [ГЛ. 2 Далее заметим, что, хотя корреляционная матрица вообще является неотрицательно определенной, на практике она будет также положи¬ тельно определенной. Поэтому мы будем рассматривать только невы¬ рожденные задачи. Это означает, что для любого Zj RZj, Zj^O и RZp Zj = 0 тогда и только тогда, когда Zj = 0 (всюду, исключая множество меры нуль*)). Таким образом, Q будет минимальным, если найти оптимальный W; такой, что Wj— Vj = О, или Wj=V, Уравнение (2.14) можно теперь переписать как RWj = Bj для т^О. (2.17) 14 минимум Q равен Qmin = -By, Wj. (2.18) Следовательно, уравнение (2.17) является уравнением, которому дол¬ жен удовлетворять вектор оптимальных весовых функций. Это обоб¬ щенное уравнение Винера — Хопфа для многомерных систем. Как было показано, оно дает необходимое и достаточное условие опти¬ мальности. 2.4. Оптимальное уравнение в области изображений Из теории фильтрации для одномерных систем хорошо известно, что для стационарного входного процесса интегральное уравнение Винера — Хопфа можно решать методом изображений. Если вход¬ ные процессы являются стационарными, то метод изображений также применим и при рассмотрении многомерных систем, но теперь соответствующее векторное интегральное уравнение преобразуется в алгебраическое уравнение относительно передаточных функций системы [о]. Однако методы определения этих физически возможных передаточных функций системы совершенно отличны от тех, которые используются для одномерной системы. *) Тс, кто не знаком с терминологией теории функций действительного переменного, могут заменить это предложение в скобках замечанием, что приводимые рассмотрения справедливы только для функций, имеющих смысл с физической точки зрения.
2.4] ОПТИМАЛЬНОЕ УРАВНЕНИЕ В ОБЛАСТИ ИЗОБРАЖЕНИЙ 93 Прежде всего заметим, что вследствие требования физической возможности матрицы весовых функций системы равенство (2.17) является необходимым условием оптимальности W только для Tj ^ 0. 'Гак как корреляционная матрица R(z) не равна нулю при отрица¬ тельных значениях аргумента, то для того, чтобы можно было фор¬ мально воспользоваться методом преобразований, уравнение (2.17) следует видоизменить. Пусть /уСч) определена так, что fi (т0= 0 для tj.^0. Тогда уравнение (2.17) можно переписать как RW, = B, + fj для всех значений (2.19) Законность применения преобразования Фурье к уравнению (2.19) будет прежде всего зависеть от того, имеет ли каждая функция в этом уравнении преобразование Фурье. Из требований физической возможности и устойчивости системы вытекает, что матрица переда¬ точных функций может иметь особенности или полюсы только в левой части 5-плоскости. (Здесь полагается 5 =yw.) Спектральные плотности стационарных процессов, являющиеся по предположению рациональ¬ ными функциями от 5, будут иметь особенности во всей плоскости и будут аналитическими в некоторой полосе вдоль мнимой оси. В частности, спектральные плотности одномерных стационарных про¬ цессов будут иметь полюса и нули, расположенные симметрично относительно мнимой и действительной осей. Преобразование Фурье произвольно определенной векторной функции /у, которая обращается в нуль при Ti ^ 0, может обладать особенностями только в правой части 5-плоскости. Таким образом, при соответствующем определении этой функции идеальной системы вектор корреляций между входом и идеальным выходом системы будет иметь преобразование Фурье. Установленные выше свойства известных функций в уравнении (2.19), а также требование физической возможности и устойчивости мат¬ рицы передаточных функций системы безусловно обеспечивают воз¬ можность применения метода изображений. Для нахождения опти¬ мальной матрицы передаточных функций следует наложить еще одно ограничение на матрицу спектральных плотностей, но это будет подробно рассматриваться в следующем параграфе. Применим теперь преобразование Фурье к обеим частям урав¬ нения (2.19). В результате получим OYj = Kj + Fj9 (2.20) оо где 0= ^ R(t)e~st dt— матрица спектральных плотностей вход- — 00 оо ных сигналов, = $ Wj{f)e~st dt — вектор передаточных функций о
94 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ [ГЛ. 2 системы, Kj= J Bj(t)e~stdt — вектор взаимных спектральных плот- — 00 оо ностей входных и идеальных выходных сигналов, F] = ^ ff{t)e~stdi. — оо Здесь, для простоты, аргумент 5 в уравнении (2.20) опушен. Век- тор Fj, пока еще неизвестный, может иметь особенности только в правой полуплоскости. Вектор Kj и матрица G будут иметь осо¬ бенности во всей плоскости. Следовательно, вектор GY; будет также иметь особенности во всей плоскости. Поскольку особенности F] целиком сосредоточены в правой полуплоскости, должно иметь место следующее равенство: {0У/}+ = {*,}+. (2.21) Здесь символ { }+ обозначает ту часть функции, которая имеет по¬ люса только в левой полуплоскости. Точнее, применение этой опе¬ рации к произвольной функции Н(s) в 5-области означает, что оо {H(s)}+=\h(t)e-s' dt, (2.22) и где 1 700 h(t) = ^p $ H(s)e‘sds. -ja> Следует отметить, что в случае, когда H(s) является рациональной по 5 матрицей, операция { }+ эквивалентна тому, чтобы разложить каждый элемент этой матрицы в ряд и затем собрать те члены, ко¬ торые имеют полюса только в левой полуплоскости. Однако, когда H(s) является более общей функцией, для выполнения операции { } ; следует пользоваться формулой (2.22). Уравнение (2.21) можно рас¬ сматривать как уравнение Винера—Хопфа для задачи многомерной фильтрации в области изображений. Когда матрица передаточных функций удовлетворяет этому уравнению, минимум среднеквадратич¬ ной ошибки равен j СО £Himin = 2^ $ \^d)10ss{Yd)J-Y)Gls(Ya)j\ds. (2.23) — }'со Здесь Gss — матрица спектральной плотности сигнала, Gj$ — матрица взаимных спектральных плотностей входного воздействия и сигнала, (Yd)j — вектор идеальных передаточных функций, а звездочка обо¬ значает операцию транспонирования и замену аргумента 5 на — 5.
2.5] МЕТОЛ НЕОПРЕДЕЛЕННЫХ КОЭФФИЦИЕНТОВ 95 2.5. Нахождение оптимальной матрицы передаточных функций методом неопределенных коэффициентов Предполагается, что во всех рассматриваемых в этой главе зада¬ чах многомерной фильтрации случайные процессы являются стацио¬ нарными с рациональными спектральными плотностями. В таком случае рациональная матрица спектральных плотностей будет иметь следующие свойства: Cl. G(s) = G(s), т. е. G(s) действительна. Здесь верхняя чер¬ та обозначает число, комплексно-сопряженное к числу, стоящему под ней. С2. G' (—s) = G(s), т. е. G(s)— пара-эрмигова матрица. Таким образом, если положить s=jо), то G (уоо) для действительных ш будет обычной эрмитовой матрицей. СЗ. G(yo)) — неотрицательно определенная матрица. Другими сло¬ вами, b'G (j^)b^ 0 для произвольного вектора b и каждого действи¬ тельного конечного со. Для более подробного ознакомления со свойствами матриц спект¬ ральных плотностей многомерных стационарных случайных процессов читатель отсылается к статье Крамера [12]. Приступим теперь к решению уравнения (2.20). Умножив обе его части слева на G-1, получим У; - Q~l (Kj + FT) - ^(Kj + Fj). (2.24) Здесь элементы матрицы Л, являющиеся алгебраическими дополне¬ ниями матрицы спектральных плотностей, не будут иметь полюсов на мнимой оси и, таким образом, будут аналитическими в полосе вдоль этой оси. Поэтому для того, чтобы применение метода изо¬ бражений было законно для решения рассматриваемой задачи, матрица спектральных плотностей должна еще обладать свойством С4. Матрица G 1 (s), обратная к матрице спектральных плотно¬ стей, является аналитической вдоль мнимой оси. Отсюда можно заключить, что детерминант | G | не должен иметь на мнимой оси ни одного конечного нуля. Это и есть то добавочное ограничение, которое нужно наложить на матрицу спектральных плотностей. Теперь уравнение (2.24) будет вполне определенным. Каждый член этого уравнения является аналитическим в некоторой полосе вдоль мнимой оси. Следовательно, мнимую ось можно взять в качестве пути интегрирования при применении к этому уравнению обратного преобразования Фурье. Заметим далее, что детерминант спектральной матрицы | G | будет всегда рациональной функцией s'2. Если этот детерминант удовлет¬ воряет приведенному выше требованию, т. е. не имеет конечных
96 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ [ГЛ. 2 нулей вдоль мнимой оси, то он может быть разложен так, что где все полюса и нули Gr(s) лежат в левой полуплоскости, а 0~ (s), равная Gr(— s), может иметь полюса и нули только в правой полу¬ плоскости. Применять метод изображений и метод неопределенных коэф¬ фициентов для решения рассматриваемого векторного интегрального уравнения можно только тогда, когда можно факторизовать | G |, как это сделано в (2.25). Таким образом, уравнение (2.21) можно пере¬ писать как Исследуем теперь в полученном уравнении каждый член. Из требо¬ вания физической возможности матрицы передаточных функций фильтра, очевидно, вытекает, что вектор в левой части уравнения (2.26) может иметь полюса только в левой полуплоскости. Тогда должно быть справедливо равенство благодаря матрице А. Несмотря на то, что вектор F] пока еще не известен, он по своему определению может иметь полюса только в правой полуплоскости и, следовательно, из-за него количество полюсов у оптимальных передаточных функций в левой полуплоско¬ сти не увеличится. Поэтому полюса /г-го элемента векторав левой полуплоскости будут состоять из полюсов элементов &-й \G\ = Q±(s)G-(s), (2.25) ИЛИ (?Yj = ±AKj + ±AFJ. (2.26) (2.27) Вектор AFj полностью известен. Следовательно, оэ {^ЛАГу} =$*(*) e-«dt, — У СО Далее AF] может иметь полюса в левой полуплоскости только
2.5] МЕТОД НЕОПРЕДЕЛЕННЫХ КОЭФФИЦИЕНТОВ 97 строки матрицы А, и этот элемент может быть выражен как mk 2 aPsP p/b(s) р=о П(8-"*) П(8-г-Д’ (2.28) Здесь коэффициенты полинома Py/e(s), по которым можно определить нули выражения (2.28), неизвестны, так как неизвестен F]. Нашей основной задачей будет теперь определение порядка и неизвестных коэффициентов этого полинома. Следует отметить, что для кратных полюсов rik член (s — rif^ в уравнении (2.28) будет повторяться столько раз, какова их кратность. Объединяя уравнения (2.27) и (2.28), получим следующее выра¬ жение для k-Vi компоненты вектора передаточных функций: Yi* = m ^ > Аь.Ж к'к^ jk'f к' = \ S ар$р Р= 0 (2.29) Здесь Ak'k — элемент k-vo столбца и &'-й строки матрицы А — яв¬ ляется алгебраическим дополнением соответствующего элемента в исходной матрице спектральных плотностей. Так как полюса чле¬ нов Ak’k к левой полуплоскости будут в конечном счете аннулиро¬ ваны полюсами G1', оптимальная передаточная функция задается урав¬ нением (2.29), и ее можно записать как Yjkis) 1 1 -а 05 1 1 i ■ пк Р = 0 J 1 1 1 Л 1 СО с* 1 1 -Э Со 1 а. 1 1 (2.30) где bv — нули G+, dt — полюса вектора идеальных передаточных функций (Yd)j в левой полуплоскости, если они отличны от полюсов спектральных плоскостей и не аннулируются полюсами G+. ak — по¬ люса G', которые не аннулируются полюсами к-го элемента век¬ тора-строки AKj -j- Z7/! , и {Cp} — новый набор неизвестных коэф¬ фициентов,, которые должны быть определены. При данном решении задачи уравнение (2.30) является более удобной формой записи для оптимальных передаточных функций. В предыдущем параграфе было установлено, что оптимальный век¬ тор передаточных функций должен удовлетворять преобразованному 4 п/р Леондеса - •
98 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ [ГЛ. 2 уравнению Винера-Хопфа (2.21). Если мы теперь подставим урав« нение (2.30) в уравнение (2.31) и приравняем вычеты в левой и правой частях получившегося уравнения, относящиеся к одним и тем же полюсам в левой полуплоскости, то получим систему линей¬ ных алгебраических уравнений для коэффициентов {Ср}. Число ли¬ нейно независимых уравнений, полученных таким образом, определит число полностью неизвестных коэффициентов в векторе передаточ¬ ных функций. Как распределяются эти коэффициенты среди компо¬ нент вектора передаточных функций, можно определить из вида матрицы G, потребовав, чтобы обратное преобразование от {GYj}4 было хорошо ведущей себя векторной функцией времени. Следует отметить, что определяемый нами оптимальный вектор передаточных функций должен дать конечную среднеквадратичную ошибку, выра¬ женную уравнением (2.23). Именно этим мы будем руководствоваться при определении максимального числа неизвестных коэффициентов, которое можно включить в каждую передаточную функцию. В сле¬ дующем параграфе изложенный метод будет пояснен примером. Итак, определение оптимального вектора передаточных функций Yj в задаче многомерной фильтрации методом неопределенных коэф¬ фициентов сс стоит из следующих основных этапов: 1. Факторизуем детерминант матрицы спектральных плотностей | О | на G+ (s) и G~ (5). 2. Выражаем систему передаточных функций в виде (2.30). 3. Приравниваем вычеты, находящиеся в обеих частях уравнения(2.21), но относящиеся к одним и тем же полюсам в левой полуплоскости, и подсчитываем число линейных уравнений, полученных таким обра¬ зом. Отсюда определяем общее число неизвестных коэффициентов полиномов, стоящих в числителях передаточных функций. 4. Распределяем надлежащим образом среди компонент вектора передаточных функций вышеупомянутые коэффициенты и затем решаем получившуюся систему линейных алгебраических уравнений. Из уравнения (2.30) видно, что полюсы передаточной функции будут двух видов. Во-первых, все передаточные функции системы будут иметь полюсы, являющиеся нулями G+(s). Эти полюса, вообще, совершенно отличны от лежащих в левой полуплоскости полюсов всех спектральных плотностей. Во-вторых, передаточные функции, связанные с отдельным выходом, могут иметь в левой полуплоскости полюсы вектора идеальных передаточных функций (Yd)j. Следует отметить, что для одномерной задачи фильтрации матрица Л равна 1. Следовательно, уравнение (2.27) сводится к Отметим, что
2.6] ПРИМЕР СИНТЕЗА МНОГОМЕРНОГО ФИЛЬТРА 99 2.6. Пример синтеза многомерного фильтра В качестве простой иллюстрации представленного метода реше¬ ния задачи многомерной фильтрации возьмем систему с двумя вхо¬ дами и одним выходом. Предполагается, что сигналы на оба выхода поступают одинаковые, но загрязняются разными «белыми шумами». Пусть 1 у\ @лг1&\ (^) == ~2 * Gnln2 (s) = -j. Функция фильтра состоит в том, чтобы выделить сигнал из этих двух разных каналов (рис. 2.2). W=S(t)+N,(t) * — > щ,(V C,(t) l2(t)=S(t)+N2(t) A W]2(z) Рис. 2.2. Пример фильтра 2x1. Для этой задачи получаются следующие матрицы: — s2 + 3 G = Кг = А = 2 (— s2+l) 1 — s2+l 4(— s2+l) 1 -s2+ 1 — s2 + 5 -s2 + — s2+ 1 — s2 + 5 4 (s2+ О — s2+ 1 -s2 + 3 — s2 + l 2(—s2+l) (^)i = (2.31) (2.32) (2.33) 4*
100 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ [ГЛ. 2 Таким образом, G+(S): G-(S) = s+j/7 V8 (8+1) ’ s —уТ Vs (S-1) • Пусть Yi(s) = P t(8)_ s + /7 (8) S + /7 (2.34) Здесь P\(s) и P2(s)— два полинома, степени которых нужно определить. Подставляя уравнения (2.31), (2.32) и (2.34) в уравнение (2.21), имеем — s2 + 3 P,(s) , 1 P2(s) 1 2 (— s2 + 1) s + УТ 1 — s2+ls + )/7" — S2+ 1 1 P,(s) , — s2 + 5 P,(s) 1 — s2+l s+T"7 1 4 (— s2+ 1) s + /7 + — S2+ 1 Вычисляя и приравнивая вычеты относительно полюсов s — —1 и s = — V1, имеем из написанного выше векторного уравнения че¬ тыре уравнения для Pi(s) и P2(s): Pi (-1) | 1 Р, (-1) 1 2x2—1+ /7 1 2 —1+1/7 1 Pi (-1) , 4 Р2 (-1) 2 —1 +/7 1 4 X 2 — 1 +/7 2 4 Pi(-V7)-4-P8(-V7)=0, 2x6 Р2(— V7)=0. (2.35) (2.36) (2.37) (2.38) Легко видеть, что уравнения (2.35) и (2.36) и уравнения (2.37) и (2.38) зависимы. Следовательно, есть только два независимых урав¬ нения, решениями которых Pi(s) и P%(s) будут просто константы. Таким образом, имеем следующую систему уравнений: -1 + ут г т -1 + /7 1, 2Ci —С2 = 0.
2.7] МЕТОД ФАКТОРИЗАЦИИ МАТРИЦЫ СПЕКТРАЛЬНЫХ ПЛОТНОСТЕЙ 101 Откуда С\ = - -1+1/7 + /7 С= = - + 1/7 =Р«(4 Отсюда следует, что две компоненты Кц(5) и ^12 (5) синтезируемого фильтра имеют одинаковую частоту среза. Однако соответствующие им коэффициенты усиления обратно пропорциональны мощности шу¬ мов Ni(t) и N%(t). Впрочем, этот результат можно было бы ожидать заранее. Среднеквадратичную ошибку можно вычислить, используя уравнение (2.23): 6 1 0+VT)2J = 0,2743. Интересно сравнить качество рассмотренного выше многомерного фильтра с качеством одномерных фильтров, оптимальных по каждому из двух каналов в отдельности. Для одного первого канала переда¬ точная функция оптимального фильтра есть O-f/з) s + /3~ и соответствующая ему среднеквадратичная ошибка равна Е{г2 1 = 0,3660. Для одного второго канала передаточная функция оптимального фильтра есть ^)=1+V5s+V5- и соответствующая ему среднеквадратичная ошибка равна £{е2} min = - 1 (1+/5)2 = 0,3090. Итак, очевидно, качество многомерного фильтра, обрабатывающего входные сигналы двух каналов одновременно, лучше, чем качество Двух рассмотренных одномерных фильтров. 2.7. Нахождение матрицы оптимальных передаточных функций методом факторизации матрицы спектральных плотностей В одном из предыдущих параграфов показано, что уравнение Винера — Хопфа в области изображений имеет вид (2.20) GYf=Kf + F~. Для нахождения вектора физически возможных передаточных
102 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ [ГЛ. 2 функций, удовлетворяющего этому уравнению, можно применить другой подход. Мы покажем, что этот подход по существу сводится к раз¬ ложению матрицы спектральных плотностей входа на произведение двух матриц с некоторыми специальными свойствами. В § 2.4 было установлено, что для того, чтобы некоторая раци¬ ональная матрица была матрицей спектральных плотностей, она должна обладать тремя основными свойствами: С1, С2 и СЗ. Мы также показали, что для того, чтобы можно было получить решение инте¬ грального векторного уравнения Винера—Хопфа методом изображе¬ ний, матрица спектральных плотностей должна обладать еще одним свойством. Это свойство С4 заключается в том, что матрица, обрат¬ ная к матрице спектральных плотностей, является также аналитиче¬ ской вдоль мнимой оси s-плоскости. Предположим теперь, что мат¬ рица спектральных плотностей может быть представлена в виде G(s) = H*{s)H(s), (2.39) где звездочка, как обычно, обозначает операцию транспонирования и замены аргумента s на —s. Мы требуем, чтобы матрица H(s) об¬ ладала следующими свойствами: Tl. H(s) вместе с обратной к ней /7-1(s) рациональна и анали- тична в правой половине s-плсскости. Т2. H(s) действительна. Тогда очевидно, что Я* (s), а также обратная к ней (#*)-1(s) будут аналитичны в левой полуплоскости и могут, таким образом, иметь полюса только в правой полуплоскости. Подставим теперь уравнение (2.39) в уравнение (2.20). Имеем Таким образом, Н Y, = (+ (Я*)-1/7/. (2.40) Поскольку как (Я*)-1, так и F] аналитичны в левой полуплоскости, {(H*T'Fj}+ = 0. (2.41) Поэтому из уравнения (2.40) получим или Yj = H-l{{H*ylKj\Jr. (2.42) Уравнения (2.41) и (2.42) отчетливо показывают важность требова¬ ния аналитичности Я (s) и Я-1 (s) в правой полуплоскости. Получен¬ ный таким образом фильтр будет физически возможным и устойчи¬ вым. Итак, мы показали, что для применения второго подхода к ре¬
2,8] ФАКТОРИЗАЦИЯ МАТРИЦЫ СПЕКТРАЛЬНЫХ ПЛОТНОСТЕЙ 103 шению многомерной задачи фильтрации достаточно установить возможность факторизации, т. е. представления в виде (2.39) матрицы спектральных плотностей G(s). Как только такая факторизация осу¬ ществлена, матрицу передаточных функций оптимального фильтра можно легко получить, используя уравнение (2.42). 2.8. Факторизация рациональной матрицы спектральных плотностей Задача факторизации рациональной матрицы спектральных плот¬ ностей за последнее время интересовала многих исследователей. Первый работоспособный алгоритм для осуществления такого раз¬ ложения в замкнутой форме был разработан Юлой [10]. В методе Юлы используется каноническая форма Смита полиномиальной мат¬ рицы. Было строго доказано, что факторизация таких рациональных спектральных матриц всегда возможна. Причем процедура фактори¬ зации по своему характеру является алгебраической. К сожалению, реализовать эту процедуру весьма сложно. Следует отметить, что разложение матрицы спектральных плот¬ ностей, которое дается уравнением (2.39), можно физически интер¬ претировать как синтез многомерного формирующего фильтра <D(s) при дополнительном требовании аналитичности <D(s) и Ф-1 (s) в пра¬ вой полуплоскости. Когда этот формирующий фильтр возбуждается вектором «белых шумов», матрица спектральных плоскостей выход¬ ного сигнала равна G (S) = Ф (— S) /Ф' (5) = Ф (— 5) Ф'(5). (2.43) Здесь единичная / матрица представляет собой спектр «белого шума», a G(s)—спектр выходного сигнала. Сравнивая уравнение (2.39) и (2.43), имеем //(5) = Ф'(5). Таким образом, задачу факторизации матрицы спектральных плотно¬ стей можно рассматривать как задачу синтеза «усиленно формирую¬ щего фильтра». Однако следует отметить, что задача синтеза фор¬ мирующего фильтра выделяется среди остальных задач фильтрации тем, что требует для своего решения определенной изобретатель¬ ности. Поэтому рассмотренный только что нами результат не будет явно использоваться. Заметив отмеченную выше аналогию, Дэвис [11] недавно предложил метод факторизации, использующий серию мат¬ ричных преобразований. Этот метод интуитивен по своей природе и опирается на небольшое число фактов из теории матриц. После¬ дующее изложение весьма близко к вышеупомянутой статье Дэвиса. Предположим, что устойчивая система Ф(<>) возбуждается векто¬ ром «белых шумов». Если теперь система Ф(5) последовательно
104 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ ГГЛ. 2 соединена с серией последовательно соединенных линейных систем 7\(s),Tn(s) и если результирующая матрица спектральных плот¬ ностей является единичной, то система, полученная в результате по¬ следовательного соединения линейных систем 7\(s),..., Tn(s), должна быть обратной к искомой системе Ф(5). Эта ситуация изображена на рис. 2.3, и приведенные рассуждения содержат основную идею предлагаемого метода факторизации спектральной матрицы. Таким образом, имеем Ф-1(5)=Гл(5)7'л_1(5) ... 7\(s) и Ф (s) = V(S) ••• Т-а L, (s) Тп 1 (S). (2.44) Так как <E>-1(S) — обратный формирующий фильтр, то ... r,(-s)]C(s)[7’i(s) ... T;i_1(s)T'n(s)] = I. (2.45) Отсюда имеем G(s) = [T;'(-s) ... T-l.1(-s)T-\-s)][T^i(s) ... ... Tnii{s)Tn l(s)]' = <b(s)0'(s). Требование устойчивости Ф(5) и Ф_1(5) заставляет с должной тща¬ тельностью отнестись к выбору каждой компоненты обратного фор¬ мирующего фильтра. Это требование будет очевидно выполнено, если каждая компонента Tt (5) и обратная к ней ГГ1 (•?) будут по отдель¬ ности устойчивы. Поэтому мы будем считать, что структура каждой линейной системы имеет один из двух следующих простых типов: 1. Tt(s) является диагональной матрицей, элементы которой за исключением одного или нескольких, равны единице. Обратная к ней матрица будет диагональной с элементами 1 /tjj(s). В этом случае устойчивость 7\*(s), а также (5) будут заведомо иметь место, если все элементы tjj(s) будут минимально-фазовыми и устой¬ чивыми.
ФАКТОРИЗАЦИЯ МАТРИЦЫ СПЕКТРАЛЬНЫХ ПЛОТНОСТЕЙ 105 2. Ti(s) является, исключая внедиагональные элементы tnj(s) п-й строки, единичной матрицей. Обратная к этой матрице совпадает с ней самой с точностью до возможной перемены знака tn-(s). Для устойчивости Ti(s) и ГГЧ5) все элементы tnJ(s) должны быть устой¬ чивыми, но не обязательно минимально-фазовыми. Из рис. 2.3 и уравнения (2.45) сразу видно, что каждая компо¬ нента обратного формирующего фильтра будет преобразовывать входной спектр в выходной в соответствии со следующим соотно¬ шением: Gi (5) = Т, (s) Gi_x (.s) Т\ (5) (/=1,2,..., п\ (2.46) где G0(s) = G(s), Оя (*) = /• Применяя уравнение (2.46) повторно, получим в результате уравне¬ ние (2.45). Рассмотрим сначала, что получится при преобразовании (2.46), если использовать компоненты первого типа. При умножении Ti(—s) на Gi_\(s) у-я строка Gi_i(s) умножается на а при умножении матрицы 7\(—s)Gi_1(s) на 7\-(s) ее /-й столбец умно¬ жается на При применении компонент второго типа произве¬ дение Т i (—s)Gi_i(s) будет отличаться от Gr-_i ($) только п-й строкой, у-й элемент этой строки получается путем сложения произведений tnj(— 5) на элементы у-й строки Gi_t (s). Произведение(Тt (— s) Gt_x (s))X X T'i (5) вычисляется аналогичным образом, только вместо строк мат¬ рицы Tt (s) (s) рассматриваются ее столбцы, а элементы tnj{—s) заменяются на tnj-(s). Заметим, что детерминант матрицы преобразо¬ вания второго типа равен единице. При всех указанных свойствах компонент обратного формирую¬ щего фильтра факторизацию матрицы спектральных плотностей можно осуществить в три этапа: 1. Этап исключения полюсов: производится преобразование, с тем чтобы ни один элемент преобразованной матрицы спектральных плотностей не имел полюсов. 2. Этап редукции детерминанта: полученная после первого этапа матрица с полиномиальными элементами преобразуется до тех пор, пока ее детерминант не станет константой. 3. Этап редукции элементов: матрица, получившаяся после вто¬ рого этапа, подвергается дальнейшим преобразованиям, с тем чтобы получить постоянную матрицу, которая уже может быть факторизо¬ вана. Эти три этапа осуществления факторизации будут подробно рас¬ смотрены на примере матрицы G(s) второго порядка. В результате первого этапа описанной процедуры мы исключаем все полюса каждого элемента матрицы спектральных плотностей
106 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ [ГЛ. 2 входа G(s) и получаем матрицу только с полиномиальными элемен¬ тами. Применяя преобразование первого типа, строки и столбцы G(s) можно умножить на полиномы, которые аннулируют все полюса в отдельной строке и отдельном столбце. В силу требования устой¬ чивости Ti(s) и 7+ (s) умножение G(s) слева на 7\(—5) должно исключить полюса в правой полуплоскости, а умножение G(s) справа на Т\ (5) должно исключить полюса в левой полуплоскости. Поскольку спектральная матрица является пара-эрмитовой, достаточно рассмат¬ ривать только левые преобразования. В качестве примера, иллюстрирующего вышеизложенное, факто¬ ризуем матрицу — 2s2 + 5 —2s2 — 5s + 13 0(s)= ' (-s + l)(-s + 2)(s+l)(s + 2j (-s+lM-s + 2) (s + 3) (s + 5) — 2s2 + 5s + 13 — 2s2 -f 34 (— s + 3) (— s + 5) (s + l)(s + 2) (_s + 3)(-s + 5) (s + 3) (s + 5) (2.47) Согласно первому этапу нашей процедуры первую строку этой спектральной матрицы нужно умножить на (—s —|— 1) (—s + 2), а вторую строку на (—s + 3)(—5 + 5). Это означает, что 7\(—s) равна J , v I ( 5 + ( 5 + 2) 0 II о (—5 3) (—5 5) Получающаяся в результате спектральная матрица Oi (s) = Tl (— s)G(s) T[(s) = II —2s2+ 5 —2s2 —5s+13 = || — 2s2 + 5s+ 13 —2s2+34 Цель второго этапа состоит в том, чтобы преобразовать эту матрицу с полиномиальными коэффициентами в другую матрицу с по¬ линомиальными коэффициентами и постоянным независящим от s детерминантом. Пусть детерминант |Gi(s)| в общем виде представим как I о, (5)| = *П (* + «✓)(-« + *> (2.48) Здесь +■ — положительные числа или комплексно-сопряженные пары с положительными действительными частями, и каждое из них может встречаться в этом произведении неоднократно. Если применить пре¬ образование первого типа 7+s), у которого п-й диагональный эле¬ мент равен l/s + flf, то детерминант преобразованного спектра G2(s) будет равен I 0.2 (5) I = ^ Г1 (5 “Г aj) (— 5 "I" +)•
ФАКТОРИЗАЦИЯ МАТРИЦЫ СПЕКТРАЛЬНЫХ ПЛОТНОСТЕЙ 107 Таким образом, мы избавились в определителе |Gi(s)| от множителя (s + fliH—Но получившаяся в результате матрица G2(s) не является больше полиномиальной матрицей из-за полюсов членов в п-й строке и 1/—5-f-a,* в п-м столбце. Теперь следую¬ щий шаг состоит в том, чтобы избавиться от этих двух полюсов, не изменяя детерминанта матрицы. Заметим также, что для того чтобы это сделать, достаточно рассматривать только левые преобра¬ зования. Рассмотрим типичный член п-й строки G2(s). Его можно пред¬ ставить в виде Наша задача заключается в том, чтобы избавиться от членов Оно имеет детерминант, равный 1. Исследуя элементы л-й строки матрицы G3(s) = 73(—s) G2 (s) 7'(s), сразу видим, что для того чтобы не было элементов с полюсами, коэффициенты къ /г2, ..., kn_Y должны удовлетворять следующим алгебраическим уравнениям: из этих л совместно рассматриваемых уравнений независимы только п—* уравнений. Отсюда можно однозначно определить набор коэф¬ фициентов {kr}. Очевидно, описанную процедуру можно повторять до тех пор, пока результирующая матрица не будет иметь постоянный tnj (s) Pnj (s) + anj (2.49) — s + ai — S + Qi' где anj tfij ip-i)' 73(s) будет 1 1 0 ТА- s) = 0 k. k. — s —|— Q-i — s —(— CL\ — s —|— &1 n— 1 2 krtrj (a,) + tnj (at) = о (J = 1, 2, ..., n). (2.50) r = l Следует отметить, что, поскольку I О, (а,) | =0,
108 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ [ГЛ. 2 детерминант и полиномиальные коэффициенты. Так, в рассматриваемом примере \@i (s) I = (—5 + 0(5 + *)• Отсюда в качестве 7+—s) выбирается 1 0 T*(-s) = 0 — s + В результате его применения вторая строка G\(s) умножается на —* Вторая строка и первый столбец G3(s) равны s —р 1 16 — 2s2 -f- 5s -|- 13 ^^ , — s -f- 1 T" -s + Г Тогда преобразованием Г3(—s) будет T,(~s) = s+1 Оно должно избавить нас от нежелательных полюсов. Таким образом, имеем k[— 2s*+ 5+! +16 = 0 или 16 k= — 3 • Заметим, что это число k можно также определить из уравнения [k - 2s2 - 55 + 13+! + [—252 + 34+! = 0. После этих двух последовательных преобразований будем иметь G3 (5) = Тз (- 5) Т2 (- 5) Gi (5) Т2 (5) Т'г (5) = 2s2-)-5 ?s + 26 41 3S 3 (26)2 18 (2.51) 10з (s) | = 1. На последнем этапе нашей процедуры полученная матрица с по¬ линомиальными коэффициентами и детерминантом, не зависящим от 5, будет подвергнута ряду преобразований, с тем чтобы избавиться от всех степеней 5 в каждом элементе и получить числовую матрицу.
2.8] ФАКТОРИЗАЦИЯ МАТРИЦЫ СПЕКТРАЛЬНЫХ ПЛОТНОСТЕЙ 109 Эту постоянную матрицу можно будет затем очень легко факторизо¬ вать. Если детерминант некоторой матрицы равен просто константе, то в его разложении по степеням 5 коэффициенты при членах с нену¬ левыми степенями 5 должны, очевидно, равняться нулю. Рассмотрим в каждом элементе исследуемой матрицы члены с наивысшими сте¬ пенями 5. Заменяя оставшиеся члены в каждом элементе нулями, обра¬ зуем новую матрицу. Для примера пусть эти члены с наивысшими степенями 5 будут — 2 s6 25s 7s2 — 2s3 2 s4 3 s2 7s* з5з _ 2s2 Эта матрица имеет такой вид, поскольку первоначальная матрица пара-эрмитова. Наивысшая возможная степень s для детерминанта этой матрицы, а следовательно, и для первоначальной есть s12. Заме¬ няя члены, которые при вычислении детерминанта дадут степени ниже, чем s12, нулями, получим новую матрицу — 2s6 2s* 0 — 2s3 2s4 0 0 0— 2s2 Поскольку коэффициент при члене s12 должен быть равен нулю, де¬ терминант написанной выше матрицы будет тоже равен нулю. Это означает, что по крайней мере две ее строки линейно зависимы. В данном случае, умножая вторую строку на —s и складывая ее с первой, можно эту последнюю исключить из рассмотрения. К та¬ кому результату можно прийти, умножая рассматриваемую матрицу слева на преобразование второго типа 1 - — S 0 Т (— s) = 0 1 0 0 0 1 Таким образом, после умножения нашей матрицы слева на Т{—s) и последующего умножения справа на Т'(s) наивысшая возможная степень s в первоначальной матрице уменьшится на два. Описанная процедура повторяется до тех пор, пока каждый элемент не станет константой. Возвратимся теперь к основному рассматриваемому примеру. Из уравнения (2.51) видно, что нужное нам преобразование задается матрицей
110 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ [ГЛ. 2 Таким образом, имеем Oi(s)=Tl(— s)G,(s) T'A(s) = 5 5 3 41 (2б)2 ‘ 3 18 = С. И последним шагом будет факторизация постоянной матрицы. Так как полученная матрица симметрична и положительно определена, ее всегда можно разложить на произведение двух невырожденных тре¬ угольных матриц С = NN\ где N—треугольная матрица с нулями над главной диагональю. Эта факторизация определяется единственным образом с точностью до умножения N справа на унитарную постоянную матрицу U. Действи¬ тельно, учитывая, что UU' = /, имеем NU -(NU)' = NN'. Отсюда для нашего примера 1 ю Ли 0 Ли Л41 41 (26)2 3 18 л21 л22 0 Я22 Решая это уравнение, получим N = V5 41 Поскольку то 3/5 /5 Gq(s) = f = Т ^G^T'y T* = N-\ Отсюда окончательная формула для <D(s) находится с помощью урав¬ нения (2.44): 41s + 65 —3s (s + 1) (s + 2) (s + 1) (s + 2) 41s + 169 — 3s + 13 (s + 3) (s + 5) (s + 3) (s + 5) (2.52) Итак, факторизация данной рациональной матрицы спектральных плотностей завершена. Следует отметить, что матрица Ф (s), умножен¬ ная справа на произвольную унитарную матрицу, будет также пра¬ вильным ответом для рассматриваемой задачи, так как при этом
2.10] СИНТЕЗ СИСТЕМ С ПОЛУЖЕСТКОЙ СТРУКТУРОЙ 111 уравнение (2.43) остается неизменным. Можно также легко показать, что и уравнение (2.42) не изменяется от этого унитарного преобразо¬ вания. Таким образом, полученная оптимальная матрица передаточных функций является единственной. 2.9. Обсуждение методов решения задачи синтеза оптимальных многомерных фильтров Мы рассмотрели два различных подхода к синтезу оптимальных многомерных фильтров со стационарными входами. Решение задачи синтеза методом неопределенных коэффициентов выглядит довольно просто. Вид оптимальной матрицы передаточных функций предпола¬ гается известным с точностью до коэффициентов полиномов, находя¬ щихся в числителях ее элементов. Эти коэффициенты затем опре¬ деляются путем решения системы линейных алгебраических уравнений. Однако этот метод отчасти слеп по своей природе. Ответ на вопрос о том, как распределяются эти коэффициенты среди элементов матрицы передаточных функций, требует большой наблюдательности. Решение, получаемое вторым методом, основанным на факториза¬ ции матрицы спектральных плотностей входа, имеет четкую структуру. Однако шаги, осуществляемые для этой факторизации, несколько за¬ путаны. Следует отметить, что если отказаться от требования устой¬ чивости H-Us) и рассматривать, таким образом, строго задачу о формирующем фильтре, то факторизацию спектральной матрицы можно осуществить различными простыми способами. Юла [10] показал, что матрица H(s) в этом случае будет треугольной матрицей с нулями под главной диагональю. Матыаш и Шилканек [13] предложили про¬ стой способ осуществления факторизации, основанной на введении в каждый элемент Ф(5) фазового множителя. 2.10. Оптимальный синтез многомерных систем управления с полужесткой структурой Основное различие между задачей фильтрации и задачей управ¬ ления заключается в степени свободы выбора структуры оптималь¬ ной системы. В задачах фильтрации оптимальная передаточная функ¬ ция, получающаяся в результате минимизационной процедуры, полно¬ стью определяется входным процессом. В задачах же управления в систему следует включить некоторый заданный объект, выполня¬ ющий определенные задачи. Таким образом, компенсация, вводимая в систему, соединенную с заданным объектом, должна быть такой, чтобы система в целом работала в некотором смысле оптимально. Передаточная функция этой системы будет теперь определяться не только входным процессом, но и некоторыми свойствами заданного объекта, например тем, является ли рассматриваемый объект немини¬
112 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ [ГЛ. 2 мально-фазовым или нет. В многомерном случае неминимально-фазо¬ вым объектом является система, детерминант матрицы передаточных функций которой имеет нули в правой половине 5-плоскости. Описан¬ ная задача управления обычно называется задачей с полужесткой структурой. Рассматриваемые в этом параграфе объекты являются линейными устойчивыми системами с постоянными параметрами [6]. На вход системы будут поступать суммы стационарных случайных сигналов и шума. Таким образом, в целом эти системы будут также иметь посто¬ янные параметры. Часто необходимо, чтобы система имела обратную связь между входами и выходами. Но если имеется разомкнутая опти¬ мальная система, то структуру ее обратной связи получить уже легко. Итак, основной задачей является синтез разомкнутой системы управ¬ ления. Структура разомкнутой системы управления изображена на рис. 2.4. Здесь Q(t)—я X я-матрица весовых функций блока Рис. 2.4. Блок-схема разомкнутой системы управления. управления, аР(т) — т X я-матрица весовых функций заданного объек¬ та, 1(f)— я-мерный входной вектор системы, r(t)— /я-мерный век¬ тор управления и C(t)— /я-мерный выходной вектор системы. В боль¬ шинстве практических задач число входов системы обычно больше или равно числу выходов, т. е. п^пг. Таким образом, имеем со г (0 = 5 Qb)I(t — x)dz (2.53) О И оо С(0—$ РОО г (t — 0 dz. (2.54) О Комбинация уравнений (2.53) и (2.54) дает оо оо С (9 = $ Р Ы dz2 5 Q („) I{t-zx- т4) dzx. (2.55) О о Из рис. 2.4 ясно, что каждый выход системы тесно связан со всем блоком управления. Следовательно, мы должны минимизировать квадрат нормы вектора ошибок.
2.Ю1 СИНТЕЗ СИСТЕМ С ПОЛУЖЕСТКОЙ СТРУКТУРОЙ 113 Можно легко показать [6J, что и частотной области обобщенное уравнение Винера—Хопфа для этой задачи управления с полужест- кой структурой выглядит следующим образом: Здесь Pjf(s) — передаточная функция объекта, Q/k(s) — передаточная функция блока управления, Gik,ik(s)— спектральная плотность вход¬ ного воздействия, OikrSk(s) — взаимная спектральная плотность вход¬ ного воздействия и сигнала, (Xrf)y^(s) — передаточная функция идеаль¬ ной системы P*y(s) = Pjf(—s). Очевидно, что пг X я'2-матрица N, элементы которой имеют вид является также пара-эрмитовой. Здесь fk используются для нумера¬ ции столбцов матрицы N, a fkr — для нумерации ее строк. Очевидно, что методы, развитые в предыдущих параграфах, можно с успехом применить к синтезу управляющих устройств. В большин¬ стве задач управления число входов больше или равно числу выхо¬ дов (п^т). Для превращения разомкнутой системы управления в замкнутую можно воспользоваться канонической формой слож¬ ных систем, предложенной Фрименом [14]. Синтез устройств управ¬ ления в прямой и обратной связи наилучшим образом можно осу¬ ществить, рассматривая задачу чувствительности для всей системы, как эго было сделано Горовицем [15]. Для системы с числом входов, равным числу выходов, при усло¬ вии что объект является минимально-фазовым (детерминант era матрицы передаточных функций не имеет нулей в правой полуплос¬ кости), матрица передаточных функций устройства управления может быть легко получена как Здесь Y—матрица передаточных функций оптимальной системы, по¬ лученная при отсутствии объекта, другими словами, Y является ре¬ шением соответствующей задачи фильтрации. Для одномерных систем аналогичный факт хорошо известен. (2.56) (2.57) Q = P 'Y.
114 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ [ГЛ. 2 РАЗДЕЛ II ДОПОЛНИТЕЛЬНЫЕ АСПЕКТЫ СИНТЕЗА СИСТЕМ СО СЛУЧАЙНЫМИ ВХОДАМИ 2.11. Методы описания случайных процессов Основным при анализе и синтезе любой системы управления со случайными входами является разработка подходящего математиче¬ ского описания рассматриваемых случайных процессов. Методы, име¬ ющиеся для такого описания, естественно распадаются на две кате¬ гории: экспериментальные методы и методы математического анализа. Методы, относящиеся к первой категории, применяются для опреде¬ ления спектральных плотностей или корреляционных функций по реализациям рассматриваемых случайных процессов. Вследствие того что вообще возможно измерять только выборочные значения случай¬ ных процессов и ограниченных возможностей измерительных устройств, нужно было разработать методику съема данных, которую бы можно было вкупе с методами первой категории применить для определения этих спектральных плотностей и корреляционных функций [4, 17]. Что касается методов второй категории — определение математи¬ ческого описания посредством математического анализа, — то они заключаются в установлении соответствующей математической модели данного физического случайного процесса. Эта модель может быть затем разумно упрощена с тем, чтобы стать более доступной для анализа. Так, например, по крайней мере в открытой литературе, та¬ кой подход доминирует при анализе весьма важных физических яв¬ лений — теплового, дробового и импульсного шумов. Открытые ра¬ боты, посвященные анализу довольно сложных физических систем, концентрируются в основном вокруг системы радиолокации [19, 20] и навигации [21, 22, 23, 24]. Причина этого, конечно, в том, что указанные системы широко применяются и разработка их анализа диктуется необходимостью. Работы [25—48] являются дополнительным источником экспериментальных и теоретических методов описания слу¬ чайных процессов. Кроме того, в книге [38], а также в имеющейся в ней библиографии представлены аналитические методы определения влияния весьма сложной системы с обратной связью и нелинейными элементами на математическое описание входного случайного про¬ цесса. Возникает естественный вопрос об относительной ценности этих двух категорий методов описания случайных процессов и о том, ка¬ кая связь существует между ними. Иногда физическая система может быть столь сложной или неопределенной, что возможность разумного математического анализа с целью описания соответствующего слу¬ чайного процесса исключается. В качестве одного из примеров ука¬ жем здесь на определение корреляционных функций скорости ветра,
2.11] МЕТОДЫ ОПИСАНИЯ СЛУЧАЙНЫХ ПРОЦЕССОВ 115 полезных для анализа и синтеза инерциальных систем навигации с демпфированием скорости [49]. Другим примером является опреде¬ ление спектральной плотности атмосферной турбулентности для ее последующего использования при построении структуры летательного аппарата [50]. Еще одним примером, в котором применение матема¬ тического анализа неразумно, является определение спектра океанских волн для возможного использования его при построении системы стабилизации корабля [51]. С другой стороны, в некоторых обсто¬ ятельствах было бы непрактично проводить экспериментальные изме¬ рения. Например, экспериментальные данные, необходимые для мате¬ матического описания радиолокационного шума, возникающего при слежении за целями, получить легко. Однако если желательно изучить влияние изменения формы цели и ее размеров, то необходимость разработки математического анализа подходящей математической мо¬ дели рассматриваемой системы диктуется требованиями экономии и ясности получаемых результатов. Таким образом, понятно, что экс¬ периментальные и математические методы могут либо дополнять друг друга, либо оказывается возможным применить только один из них. В этом параграфе из всех существующих экспериментальных ме¬ тодов рассматриваются только экспериментальные методы определе¬ ния корреляционных функций. Такой выбор сделан потому, что кор¬ реляционные функции играют основную роль не только в методах синтеза, представленных в первой части этой главы, но и излагаемых ниже. На методах описания случайных процессов посредством анализа их математических моделей [19, 20] мы здесь останавливаться не будем. Не будут также затронуты экспериментальные методы опреде¬ ления спектральной плотности отдельного случайного процесса [27] или взаимных спектральных плотностей пары случайных процессов [53] и целый ряд других, очень важных для излагаемых ниже мето¬ дов синтеза. Теперь настало время высказаться по вопросам стационарности и эргодичности [2]. В предположении эргодичности при обработке экспериментальных данных для определения параметров рассматри¬ ваемого случайного процесса вместо усреднения по множеству предпо¬ читают использовать усреднение по времени [2]. Нет нужды говорить что не все случайные процессы являются приближенно стационарными и эргодическими. Строго говоря, в физическом мире не существует такого явления, которое можно было бы назвать стационарным и эргодиче- ским процессом. Такие процессы являются математической абстрак¬ цией. Тем не менее ими достаточно хорошо аппроксимируются многие физические ситуации. Вопрос о том, когда реальный физический про¬ цесс можно с хорошей степенью точности аппроксимировать стацио¬ нарным и эргодическим процессом, решается на основе эксперимен¬ тальных данных и знания физики рассматриваемой ситуации. Например, легко видеть без каких-либо предварительных измерений, что шум,
116 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ [ГЛ. 2 поступающий на вход радара, следящего за синхронным спутником, является по существу стационарным и эргодичным. С другой стороны, легко себе представить, что радиолокационный или инфракрасный шум, поступающий на вход действующей автономной системы наведения снарядов класса «воздух — воздух» или «земля — воздух», является по своему характеру нестационарным [2]. Если мы хотим узнать, является ли данный случайный процесс эргодичным, то это можно сделать, проверив выполнимость некоторых математических условий, фигурирующих в эргодической теореме [2]. Однако ' осуществление такой проверки может оказаться весьма трудоемким, поскольку для этого требуется знать явное математическое описание рассматриваемого случайного процесса. Поэтому, вообще, довольно затруднительно при¬ менить эргодическую теорему к какой-либо сложной физической си¬ стеме. На самом деле ее естественно было бы применить для анализа математической модели, которая разумно аппроксимирует изучаемую физическую ситуацию. Экспериментальные методы можно использовать и для изучения нестационарных случайных процессов. Но хорошо известно, что пока на практике усреднение по множеству осуществить значительно труднее, чем усреднение по времени. Так что, когда можно осуществить усреднение по множеству, при математическом анализе соответствующей физической модели, видимо, предпочти¬ тельнее рассматривать нестационарные случайные процессы. Итак, рассмотрим экспериментальные методы определения корре¬ ляционных функций. Согласно основному определению корреляционная функция двух случайных процессов x(t) и y(t) получается путем усреднения по множеству и равна [2] со а fxyik, к)= \ \ x{h)y{U)f{x,t{,y,t^dxdy. (2.58) — ОО —оо Здесь —совместная плотность вероятности х и y(t2). Когда рассматриваемые случайные процессы стационарны, 'Уху (к, к) = ?ху (к — к) — Уху (')• (2.59) Когда они и стационарны, и эргодичны, т § x{t)y{tkri)dt, (2.60) т. е. в этом случае средние по множеству и по времени совпадают. При любом экспериментальном подходе к определению корреляцион¬ ных функций усреднение можно осуществить только на конечном интервале времени и получить таким образом т <?ху к, Т)=~ jj* it) У V + -о dt, (2.61) 0
2.11] МЕТОДЫ ОПИСАНИЯ СЛУЧАЙНЫХ ПРОЦЕССОВ 117 где символ Т введен в качестве аргумента в функцию, стоящую в левой части этого равенства, для того, чтобы подчеркнуть ее зависи¬ мость от времени, за которое определяется экспериментальная корре¬ ляционная функция. Если усреднить обе части равенства (2.61) по множеству, то получится, что сю сю (?xy{i)= \ S <?Ху(х, T)f{x,y,x)dxdy. (2.62) — СО — сю Это равенство показывает, что в среднем величина Т) равна ср^(т)—истинной корреляционной функции. Нет нужды говорить, что это очень благоприятный, хотя и неожиданный результат. Таким образом, если вычислить дисперсию ср (т, Т) и установить условия, при которых она достаточно мала, то тем самым будут установлены условия, при которых наша экспериментальная корре¬ ляционная функция, определяемая равенством (2.61), будет в общем достаточно близка к истинной корреляционной функции. Перейдем теперь к осуществлению намеченной программы действий. Используя символ Е[ ] для обозначения усреднения по множеству, дисперсию экспериментальной корреляционной функции можно записать как °%у (х, Т) = Е [{®ху (т, 7) — <?ху (т)}2] = (2.63) = Е [<р%у (t, 7")] — ср%у (т), (2.64) где т т Е [<pi„ (Т, 71] = ± ^ Е [х (Му (f, + Т) * Му (*, + ,)] dU dt2. (2.65) о о Обозначая TiV (*, *ь У = Е[х it,)у & + т) х (t2)y (t, 4- Т)], (2.66) заметим, что вследствие стационарности Т*у(х> h, ^) = Т^(Х> °> k — h) = Т*ДХ> v)> (2.67) i = t2 — ti. (2.68) Таким образом, т ta Efolyb Т)]=~ J J Tl-v 0, ^)d->dt2. (2.69) о и-т Меняя порядок интегрирования, имеем О Г-f-v т т Е[<?%у^, т)] = ^ ^ ^ fxy (х, v) di2 dy -f ^ ^ ^ fXy(x,'>)dUd't. (2.70) — То о V Воспользуемся далее тождеством 44 (т, v) = '][4(T— v)- Учитывая его при вычислении первого интеграла в правой части равенства (2.70)
118 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ [ГЛ. 2 и принимая во внимание, что подынтегральные функции в (2.70) не зависят от t2l сразу получаем т E[<?h<b T)] = ji 4)d'<- (2.71) о Но т Y> \ (T-v)dv=l. (2.72) и Таким образом, дисперсия вычисляется по формуле т (*> Т) = js J (Т - v) [fxy (т, v) - fxy (,)] dv. (2.73) о Отсюда, если мы хотим, чтобы экспериментально полученное нами значение корреляционной функции с заданной степенью уверенности отличалось от истинного или среднего не больше чем на некоторую величину, то можем добиться этого путем соответствующего подбора параметра Т в равенстве (2.73). Например, если предположить, что экспериментальные значения корреляционной функции распределены' нормально (это предположение следует проверить путем соответствую¬ щей обработки экспериментальных данных так же, как это делается в более простой ситуации), то из элементарной теории вероятностей вытекает, что для того, чтобы с вероятностью 95% любое полученное значение экспериментальной функции отличалось от среднего, или истинного, значения корреляционной функции не более чем на п°/0 необходимо, чтобы 0,01 Щху (т) = 2оху (т, 7) (2.74) или, другими словами, vxv (т) 200 °ху (т> Т) ~ (2.75) Когда процессы x(t) и y(t) являются стационарными эргодичными и гауссовскими, равенство (2.75) можно иногда записать так, чтобы п было явной функцией параметра Т. Бендат [4] сделал это в ряде случаев и получил весьма обширные численные результаты и графики. Однако такие расчеты требуют определенных знаний о форме рас¬ сматриваемой корреляционной функции. В действительности, эти требования не столь уж неразумны. Например, Блесингэйм [49] установил, что корреляционная функция скорости ветра имеет вид экспоненциального косинуса. Так что
2.12] СИНТЕЗ СИСТЕМ С НЕСТАЦИОНАРНЫМИ ВХОДАМИ 119 результаты, содержащиеся в книге Бендата (4J или книге Лэнинга и Бэттина [2], можно применять при обработке любых эксперимен¬ тальных измерений отдельных стационарных, эргодичных и гауссов¬ ских процессов, если только установлен общий вид их корреляцион¬ ной функции. Кстати, укажем, что Бендат [4] изучает, в частности, влияние шума на измерения корреляционных функций. 2.12. Синтез систем с нестационарными входами В своей основополагающей работе [1] по оптимальному синтезу систем со случайными воздействиями Винер рассматривал только стационарные и эргодичные процессы. Однако имеются практические примеры, когда подлежащие рассмотрению случайные процессы являются нестационарными [55, 61], и, таким образом, возникает необ¬ ходимость в соответствующем обобщении винеровских методов син¬ теза. Такие обобщения были сделаны Заде. Основные его результаты опубликованы в короткой заметке [56] в июле 1961 г. После этого появилось еще несколько статей, посвященных методам синтеза опти¬ мальных систем с нестационарными случайными входами, из которых мы упомянем лишь [57]. Различные подходы к решению задачи определения оптимальной, по критерию среднего квадрата ошибки, весовой функции при нестационарных случайных входах предусмат¬ ривают либо непосредственное решение интегральных уравнений для этих оптимальных весовых функций, либо использование того обстоя¬ тельства, что рассматриваемый нестационарный случайный процесс получается в результате прохождения «белого шума» через форми¬ рующий фильтр. Этот последний подход рассматривается в главе 4 настоящей книги, а также у Заде [56]. Здесь мы сделаем обзор двух довольно важных подходов к решению задачи синтеза системы, опти¬ мальной в смысле минимума среднего крадрата ошибки. Другие под¬ ходы упомянуты в статье Заде [56]. Итак, рассмотрим сначала работу Калмэна и Быоси [57], посвя¬ щенную решению следующей задачи. Определить систему, N выходов которой x2(t), ..., ScN(t) будут наилучшими линейными оцен¬ ками, получающимися в результате минимизации среднего квадрата вектора ошибок [х — х]2 с компонентами, равными квадратам раз¬ ностей между желаемым выходным сигналом системы x^(t\ x*(t\ ... ..., xN(t) и действительным выходным сигналом X\lt\ х* (0> ••• ..., xN(t). В качестве входных сигналов оптимального фильтра или системы Zi(f), z%(t), ..., zm(t) рассматриваются линейные комбинации компонент вектора полезного сигнала, искаженные «белым шумом». Явные выражения для них будут написаны ниже. Предполагается, что рассматриваемый случайный сигнал порождается «белым шу¬ мом», проходящим через линейную, вообще говоря, с переменными
120 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ [ГЛ. 2 параметрами систему, а именно ^L = F(t)x(t) + G(t)u(t). (2.76) Здесь x(t) — вектор-столбец сигнала, a u(t) — вектор-столбец, ком¬ понентами которого являются «белые шумы» с нулевыми средними. Корреляционная матрица u(t) равна cov \и (f), u(z)]=E[u(t), u(z)] = Q(t)b(t — т). (2.77) В этих последних двух равенствах прописные буквы обозначают матрицы, а Е [ ], как и раньше, является символом математического ожидания. Действительный входной сигнал системы можно выразить как * (0 = Hit) х (t) + v (t), (2.78) где v(t) — вектор «белых шумов» с нулевыми средними. Компоненты этого вектора входят в каждую компоненту z(t), а его корреляцион¬ ную матрицу можно записать как cov [V (0, * (т)] =R(t)b(t — т). (2.79) При этих условиях Калмэн и Бьюси показывают, что оптимальная система определяется уравнением -g- = IE(t)-k (t) М (f)] X(t) + k (t) z (t). (2.80) Таким образом, вид этой оптимальной системы частично определяется тем, что можно назвать обработкой сигнала, которая задается равенст¬ вом (2.78). Матрица k(t), фигурирующая в уравнении (2.80), опреде¬ ляется как (штрих обозначает операцию транспонирования) k(t) = P(t)H'(t)R-1(t). (2.81) И, наконец, матрица Р(t) является симметричной корреляционной матрицей вектора x(t) — x(t)\ она получается в результате решения следующего нелинейного уравнения: — F(t)P (0 -f Р (0 F (t) - P (t) H' (0 R"1 (t) H(t) P (t) + 0(0 Q{t)G'{t). (2.82) В ранней работе Калмэна [58] представлены аналогичные резуль¬ таты для случая дискретных систем. Результаты для этого случая были получены также Хеи и Леондесом [59]. Рассмотрим далее второй подход к синтезу системы с нестационарными входами, кото¬ рый был развит Шинбротом [60]. Отклик линейной системы с переменными параметрами, весовую функцию которой мы хотим оптимизировать в смысле средиеквад-
2.12] СИНТЕЗ СИСТЕМ С НЕСТАЦИОНАРНЫМИ ВХОДАМИ 121 ратичной ошибки, определяется как t x(t)= 5 W(t, х) i (х) dx. (2.83) — СО Вход i(t) состоит из комбинации сигнал плюс шум, т. е. i(t) = s(t) + n(t). (2.84) Поскольку входное воздействие начинает поступать, начиная с неко¬ торого конечного момента времени, который можно положить рав¬ ным нулю, t Jс (0 = 5 Wit, х)j(x)dx. (2.85) и Обозначим желаемый выходной сигнал через (т(0- Таким образом, среднеквадратичная ошибка, которую мы хотим минимизировать, задается формулой t 8 * = Е 11(0 —S W(t, х)г(х)<Ц о J (2.86) Путем стандартных преобразований получим, что необходимым и достаточным условием того, чтобы W{t, х) минимизировала в2, является равенство t х)=1 Wit, а)<р ait, a) da для 0 < х < t. (2.87) Здесь и сра/ является согласно обозначениям предыдущего пара¬ графа корреляционными функциями рассматриваемых нестационарных процессов. Из определения корреляционной функции имеем (^> Т) (Т) 0- (2.88) Корреляционные функции нестационарных процессов можно предста¬ вить в виде сумм (см. главу 4) ?«(*> ■')=S ^(t)b9(z), p = i а т)=2 cf{t)bfw Р = 1 для t^x. (2.89) (Такие корреляционные функции называются вырожденными.) Точность такого представления зависит от а — количества членов суммы. Вос¬ пользовавшись равенством (2.88), заметим, что ®Ss(ft т) можно также
122 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ [ГЛ. 2 записать в виде а ”0= s a?(*)bf(t) для т>£ (2.90) р = 1 Обозначая далее буквами а, b и с векторы с элементами ар, Ь9 и с9 соответственно, (2.89) и (2.90) можно записать более коротко: a! (t) • Ъ (т) для т ^ ty х) I а' (х). ъ (t) для T>f, (2.91) ср^ (£, т) = с' (0 • Ь (т) ДЛЯ т ^ £ Если в качестве входного шума взять «белый шум», то уравне¬ ние (2.87) превратится в t <Piw(*> T)=S a)?sj(T> a)^a + ^&(?> т) для (2.92) о При этом мы считали <Р,*)=<P|i.m& *0, '0 = <Pmm(*> Т) + Х5(^- Подставляя (2.91) в (2.92), получим } (2.93) С' (0 • Ь (т) = а' (т) • 5 ь (a) W(t, с) da + 0 t -|- Ьг (ч) ^ a (a) W(t, a)da-\-Xg(t) т) для 0 ^ т ^ t. (2.94) -г Полагая далее v (*, т) = а! (0 • Ь (т) — а (т). Ь (т) (2.95) и записывая в уравнении (2.94) как J ^, в результате имеем 6(т) = = ^ W(t, o)t)(i, a)da -\-\g(t, т) для 0 т sg: t. (2.96) и Найдем теперь решение этого уравнения W(t, т), представимое в виде суммы произведений функций, зависящих от t> на функции, зависящие от т. Такое представление впредь будет для кратко¬ сти называться разложимым. В частности, мы будем искать W(t} т) = [Ы (t) • у (0] и (t — т), (2.97)
2.12) СИНТЕЗ СИСТЕМ С НЕСТАЦИОНАРНЫМИ ВХОДАМИ 123 где u(t — т) — единичная ступенчатая функция, введенная из соображе¬ ний физической реализуемости. Подставляя (2.97) в (2.96), получим t С' (0 — $ а' (о) [h! (t) • yO)] da -b(x) = для О т (2.98) = ft'(0* a) da -f - Ху (т) _о Это уравнение, конечно, удовлетворяется, если т (а) b (т) = ^ y (а)v (т> °) do “h (т)> 0 ^ т ==с; t\ (б) С (0 — 5 а (а) (0 ' Y (а)] da = h (t), (2.99) (2.100) При выводе этого уравнения интегральное уравнение (2.92), в ко¬ тором g(t, т) зависит от двух независимых переменных t и т, было заменено двумя уравнениями для двух компонент разложимого пред¬ ставления g(t, т). Определим e'(T)=[fli(T), ..., аа (т), ^(т), ..., Ьа( т)], /'(т)=[^(т), ..., Ьа{т), — аДт), ..., —аа{т)]. Тогда равенство (2.95) превратится в v(t9 Т) = £?'(Т)./(Т). (2.101) И, таким образом, уравнение (2.99(a)) можно записать как т ^pW = e'(^)-5/(<:')'rp(0)c?0 + xTp(x) для 0 йС^ р=1, а. 0 (2.102) Здесь векторы b(t) и у(0 расписаны по координатам. Расписывая далее покоординатно фигурирующее в (2.102) скалярное произведение, получим 2а т Ьр (х) = (х) 5 Л (о) Тр (а) л + *Тр W (2-103) 9 = 1 о для 0 ^ т ^ ty р = 1, ..., а. Если среди компонент £д(т) вектора е(т) есть линейно независимые, то уравнение (2.103) можно преобразовать к виду Ьр (х) = 2 ея (') $ (°) Тр (°)da + хТр (х) 9 = 1 О для 0 т ;?=1, а, (2.104)
124 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ [ГЛ. 2 где функции ед(ъ) уже линейно независимы, а ч)^(т)— функции, получившиеся из линейных комбинаций соответствующих функций fq (т) в результате перехода от уравнения (2.103) к уравнению (2.104). Дифференцируя далее уравнение (2.104) г раз, мы сразу получаем для функций систему дифференциальных уравнений Р т 2 ея (х) 5 ь ^da = Ьч— к'{р ~ <? = 1 0 -202 (2л05) S=1 q=\ для 0 ^ т ^ ty р = 1, ..., а, где обозначает биномиальный коэффициент г\ г! s) s! (г— s)!' Из уравнения (2.105) при r = 0, 1, ..., t3 — 1 получается (3 систем уравнений для (3 неизвестных т \ ®q (а) 7р (а) ^а> •••> ? (/? фиксировано). (2.106) о В (2.106) необходимо определить именно Переписывая уравне¬ ние (2.105) в матричной форме, имеем EW = F, (2.107) где Егд — элементы r-го столбца и q-й строки матрицы Е — равны ед{х). Таким образом, определитель матрицы Е является вронскианом ли¬ нейно независимых функций ед(т). Элементами матрицы W являются функции (2.106). В частности, т ^«, = К(в)ТР(0)*- (2Л08> 0 Элементами вектора F являются правые части уравнения (2.105) Г Р Frp = Ьгр СО — А.Гр (О — 2 (Э 2 ея~* (т) к(т) (х)] • (2-109) 5=1 q = 1 Разрешая уравнение (2.107) относительно матрицы W, получим W = E~lF. (2.110) Дифференцируя уравнение (2.110), получим систему линейных диф¬ ференциальных уравнений для искомых неизвестных -\р. Эти уравне¬
2.13] МЕТОД МОДЕЛИРОВАНИЯ СОПРЯЖЕННОЙ СИСТЕМЫ 125 ния можно решать на аналоговой или цифровой машине или, если это возможно, аналитически. Сделаем здесь одно замечание. Из равенства (2.110) видно, что элементами матрицы W являются Wcjp. Поскольку q=l, 2, ..., (3, а р=\, 2, а, это означает, что у нас есть [За уравнений для определения а неизвестных *[р, т. е. уравнений больше, чем неизвест¬ ных. Может показаться, что система этих [За уравнений несовместна и не имеет общего решения. Однако такого произойти не может, так как уравнение (2.99(a)) является интегральным уравнением Воль- терра [62], которое всегда имеет единственное решение. Существует много способов выбора а уравнений для определения у. Можно, например, из матричного дифференциального уравнения, получающе¬ гося в результате дифференцирования уравнения (2.110), выбрать отдельную строку. Теперь, когда ”[р(ъ) определены, для того чтобы найти W(t, т) в уравнении (2.97), остается определить h(t). Это можно легко сде¬ лать с помощью уравнения (2.99(6)). Расписывая уравнение (2.99(6)) покомпонентно, имеем М9+ S hq(t)\ap(o)-{q(o)do = cp(t) (р = 1, а). (2.111) q = 1 0 В уравнениях (2.111) неизвестны только hp(t) или hq(t). Таким обра¬ зом, функции hp(t), а следовательно, и hg(t) могут быть найдены. Мы изложили метод Шинброта несколько более подробно, чем метод Калмэна и Бьюси. Причиной этого является несколько более сложная природа методики Шинброта. Во всяком случае, при прак¬ тической реализации оптимальной системы любым из рассмотренных методов следует иметь в виду обычные инженерные требования. В частности, в тех случаях, когда получившаяся оптимальная весовая функция слишком сложна для практической реализации, следует исследовать возможность приближения оптимальной системы к неоп¬ тимальной, но зато более просто реализуемой. Отсюда возникает необходимость развивать методы анализа систем, находящихся под воздействием нестационарных случайных процессов. Этим вопросом мы займемся в следующем параграфе. 2.13. Метод моделирования сопряженной системы Для простоты рассмотрим сначала линейную систему с перемен¬ ными параметрами с одним входом и одним выходом. Предположим, что на рассматриваемую систему поступает случайный входной сиг¬ нал x(t), определенный при —oo <^t <^оо, и пусть e(t) обозначает соответствующую неточность или ошибку, возникающую вследствие x(t).
126 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ [ГЛ. 2 Тогда если W(ty т) — весовая функция, связывающая x(t) и e(t), то t е{х) = J w(t, x)x(x)dx. (2.112) — ОО Для того чтобы вычислить корреляционную функцию e(t)y заметим, что h 12 е(Це(^)= ^ W(tb xi)dxl ^ W(tb i2)x(t,)xWrf-2. (2.113) — oo — oo Усредняя правую и левую части этого равенства по множеству, получим <?ее(*Ь к)= 5 W^> *0*1 5 W{-U-' 4)dx,. (2.114) Если предположить, что нестационарный случайный процесс x(t) «Белый шумъ' Форми¬ рующий, фильтр т Первонаяаль иаясистет Kt) ^ Новая система J Рис. 2.5. Применение формирующего фильтра. получается в результате прохождения «белого шума» через форми¬ рующий фильтр (рис. 2.5), то (2.114) можно переписать как t ?«(<, t) = e\t)= \ W(t, ху) dx, ^ W(t, ^)<р,„(т„ *,)** = —СО — ОС t t t = $ Wii^xjdxi 5 Wy{t, хг)(х^ — xjdx^ 5 Wx(t,4fdx. (2.115) —ОС' —oo —oo Задача синтеза, изображенного на рис. 2.5 формирующего фильтра, рассматривается в главе 4. Здесь мы предположим, что этот форми¬ рующий фильтр уже синтезирован методами, изложенными в главе 4. Так что задача определения среднеквадратичной ошибки рассматри¬ ваемой системы сводится к нахождению Wi(tyi). Прямой, но чрезвы¬ чайно утомительный способ определения Wi(tyi) состоит в том, что на вход системы (ty т) подается импульсная функция. С точки
2.13] МЕТОД МОДЕЛИРОВАНИЯ СОПРЯЖЕННОЙ СИСТЕМЫ 127 зрения применения аналоговой техники удобнее подавать ступенчатую функцию, которую легко получить на выходе интегратора, если подать на его вход импульсную функцию. Импульсная функция по¬ дается в момент времени т, а отклик на нее наблюдается в момент времени i. Для того чтобы определить функцию Wx (t, т) как функ¬ цию т, а это необходимо для последующей ее подстановки в равен¬ ство (2.115), такую процедуру следует повторить для многих значе¬ ний т. К счастью, во многих задачах нет необходимости знать еще №*(£, т) для многих значений t. Например, при создании системы управления огнем, ei{t) необходимо определить только во время при¬ ближения снаряда к цели, а не в течение всего времени полета. Однако даже здесь, когда e2(t) нужно определить только в один или несколько моментов времени, может потребоваться большая работа. Поэтому было бы желательно разработать метод моделирования на аналоговой машине, который позволил бы сразу определить e^(t) или, говоря другими словами, позволил бы сразу определить W^it, т) как функцию т. Метод моделирования сопряженной системы, к непо¬ средственному изложению которого мы переходим, как раз и позво¬ ляет это сделать. Найдем сначала весовую функцию системы, описываемой линейным дифференциальным уравнением x(t) = A{t)x(t) + № (2.116) где Xi (t) /dt) x(t) = Xl{t) ’ m= *n (0 Ш a A(f)—матрица с элементами Кроме того, полагаем, что jt(0) = 0. Пусть М обозначает решение матричного уравнения dM — Л[1)М It), | (2.117) dt М (0) = /, где / — единичная матрица. Для решения уравнения (2.117) восполь¬ зуемся методом вариации постоянной Лагранжа. Полагая х = Ми и подставляя его в уравнение (2.116), получим dx л л du(t) , dM(t) ... ж = мУ)-А1-\ ^u(t) = = M{t) dt 1 dt du (t) dt A (t) M (it) u(t) = A (t)M (t) и {t) +/(0. (2.118)
128 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ [ГЛ. 2 Отсюда (2.119) Таким образом, н(0= ^ AT' (s)f(s) ds, (2.120) о а х (0 = $ м (0 АГ1 (s) f (s) ds. (2.121) и Теперь, если из условия физической реализуемости мы определим матричную функцию k (t, s) как Функция k(t,s) называется функцией Грина или весовой функцией системы. Если вспомнить замечания, сделанные в начале этого параграфа, то нетрудно понять, что для рассматриваемой нами задачи желательно, чтобы функция к (t, s) была функцией 5 для некоторого фиксирован¬ ного значения t, то есть для данного Т мы хотим знать k(T, s) как функцию 5. Далее будет показано, как это можно будет сделать с помощью сопряженной системы. Введем сначала пару переменных f и s', связанных с переменными t и 5 соотношениями где Т — любое фиксированнее действительнее число. Определим функцию L(t',s') соотношением (штрихи над прописными буквами обозначают операцию транспонирования соответствующей матрицы, а штрихи над строчными буквами обозначают различные переменные) где k'(s,t) — матрица, полученная транспонированием матрицы весо¬ вых функций первоначальной системы. Заметим, что в уравнении (2.125) аргументы k' (s, t) — переменные s и t — занимают то же положение и играют гу же роль, что соответственно t и 5 в урав- (2.122) то для ^^0 полученное решение можно записать в виде оэ х (t) = ^ k (t, s)f(s) ds. (2.123) о (2.124) L(f, s’) = k’ (s, t), (2.125)
2.13] МЕТОД МОДЕЛИРОВАНИЯ СОПРЯЖЕННОЙ СИСТЕМЫ 129 нении (2.122). Причина такой довольно внезапной перемены обозна¬ чений заключается в том, что мы хотим иметь дело именно с пере¬ менными f и s'. Во всяком случае, исследуем уравнение (2.125) несколько более подробно. Если t'^>s\ то t^c.s и, следовательно, k(s,t) = 0. Таким образом, L(i',s') = 0 при t'<^s\ как это и должно вытекать из требования физической реализуемости. Если t'^s', то t^s и отсюда L (*', s') = k' (5, t) = [М (s) AT1 (t)\ = [AT1 (t)]' • AT (5). (2. i 26) Определим далее функцию z(tr) со гг (f) = J L (f, s') g (s') ds', (2.12 7) 0 где g(s)— произвольная интегрируемая и непрерывная функция на действительной прямой. Более подробно равенство (2.123) выражает отклик системы, описываемой уравнением (2.116), которому соответ¬ ствует матрица весовых функций k(t,s) на входную вынуждающую функцию f(t). Аналогично z(t') является откликом системы с весовой функцией L(t\ s') на вынуждающую функцию g(s'). Остается только получить дифференциальные уравнения, соответствующие системе уравнений (2.127). Эти дифференциальные уравнения будут похожи на дифференциальные уравнения (2.116). Приступая к решению наме¬ ченной задачи, перепишем (2.127) как v z(f)=\L(f, s')g(s')ds’. (2.12S) U Это можно сделать, так как L(t',s') = 0 для t'<^s'. Дифференцируя равенство (2.128) и учитывая, что L(t\t)= \ (см. (2.126)), получим г Z (О = J w 1 {i’’ s')g(s'} ds' + 1 (f’ Г)ё{Г) = и V д = j\-~L(t\ S')g(s')ds' + g(t'). (2.129) 0 Вычислим теперь L (tf s') для s' ^ t'. В этом случае s^ t и L(t'y s') = [АГ1 (t)]F M' (s). Отсюда, no- dt скольку df — — 1, w L s') = w <№ •M (s)> Ж = d dt {M~'(t)}'\-M'(s). (2.130) 5 n/p Леондеса
130 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ [ГЛ. 2 Далее Д- (*)}' = | 4t ’ (0}]'- (2.131) Таким образом, нам остается только вычислить Д-{Ж_1(0}- Так как ftl (t) Ж-1 (0 + Ж (t) Д- {Ж"1 (0} = 0, (2.132) то Д- {Ж-1 (0} = — м-1 (0 (W (0 /И"1 (t). (2.133) Но M(t) = A(t)M(t) и поэтому /И"1 (t) М (/) Ж"1 (0 = Ж-1 (0 Л (t). (2.134) Отсюда -^-{Ж-,(0[= —Ж-"ЧОАф (2.135) Таким образом, можно заключить, что Дг L (f, s') = Л' (0 [М(г)]' Л1' (s) = Л' (0 L (A s'). (2.136) Тогда i(tf') превращается в v г (О = $ Л' (0 L (f, s') ^ (s') <*s' + g(f). (2.137) о Если положить B(f) = A'(t), то z(f) можно переписать как z (f) = В (f) z (f) -[- g{tr). (2.138) Ясно, что матрицей весовых функций этого последнего уравнения будет L(t\s'). Система, описываемая уравнением (2.138), называется сопряженной к системе, описываемой уравнением (2.116). На самом деле, сопряженной системой удобно называть систему, которая опи¬ сывается уравнением, несколько отличным от уравнения (2.138). Пусть функция y(t) определяется отношением = (2.139) Тогда y{t) = z{t') ^j- = — г(Г)> и уравнение для z (f) превращается в j(t)=-A'(t)y{t) + h{t). (2.140) Система, описываемая этим уравнением, обычно и называется сопря¬ женной к системе, описываемой уравнением (2.116). Итак, если нам
2.13] МЕТОД МОДЕЛИРОВАНИЯ СОПРЯЖЕННОЙ СИСТЕМЫ 131 нужно найти k (t, s) как функцию 5 для данного значения t (мы те¬ перь вернулись к первоначальным определениям t и 5 в выражении для k (t, s)), то для этого нужно найти L (s', f) для соответствую¬ щего f. В частности, для того чтобы найти /г (Г, s), достаточно опре¬ делить L'(s', 0), так как k(Ty s) = V (s', 0). (2.141) Таким образом, применение метода моделирования сопряженной системы для вычисления k(T,t) приводит к следующей процедуре: (1) Моделируем систему (2) Полагаем все начальные условия равными нулю. (3) Запускаем машину и в момент £=0 подаем импульсную (или ступенчатую) функцию на первый вход системы; результат на выходе записываем. (4) Повторяем этот процесс, подавая в момент t = 0 импульсную (или ступенчатую) функцию на каждый последующий вход; резуль¬ таты на выходе записываем. (5) Если машина работала в обратном времени, начиная с момента времени 7, то полученные таким образом п решений образуют строки k(T,t). Основная задача, возникающая при осуществлении этой про¬ цедуры, заключается в том, как перейти к моделированию сопряжен¬ ной системы i(t) = B(f)z(n + g{n если на машине набрана система, x(t) = A(t)x(l) + № Но это сделать легко. Матрица B(f) связана с матрицей A(t) равен¬ ством В (О — A' (t). Используя эту связь, переход от моделирования первоначальной системы к моделированию сопряженной системы можно осуществить в два приема: (1) Функциональные преобразователи, выходами которых являются компоненты A (t) (или, говоря другими словами, элементы матрицы A (t)), перебираются — там, где раньше для получения компоненты аjk(t), производилось умножение на теперь производится умно¬ жение на (2) Производится перестройка функциональных преобразователей Для компонент A (t), с тем чтобы они, начиная с момента 7, работали в обратном времени. Читатель, желающий ознакомиться с дальнейшими применениями сопряженных систем, отсылается к книге [63], в которой также 5*
132 СИНТЕЗ СИСТЕМ СО СЛУЧАЙНЫМИ ВОЗДЕЙСТВИЯМИ [ГЛ. 2 подробно рассматривается целый ряд превосходных примеров. Методы, основанные на рассмотрении сопряженных систем, первоначально развитые Лэнингом и Бэттином [2], применялись со значительной экономией времени многими исследовательскими группами по всей стране *). 2.14. Заключительные замечания В этой главе были представлены различные методы синтеза систем, на входы которых поступают случайные процессы. В резуль¬ тате применения рассмотренных методов синтеза получается весовая или передаточная функция оптимальной системы. По этой весовой функции надо еще построить замкнутую систему, предназначенную для решения данной задачи управления. Этот вопрос рассматривается в разделе I, в котором представлены методы синтеза многомерных систем. Методы получения оптимальных весовых функций при неста¬ ционарных случайных входных воздействиях изложены в § 2.12. (Способы реализации соответствующих замкнутых систем изложены в главе 1.) Следует отметить, что здесь не рассматривались многие вопросы, возникающие при попытке применить изложенные выше методы к практическим задачам [55, 61, 64, 65, 66, 67, 68]. Например, при синтезе одной системы управления артиллерийским огнем было заме¬ чено, что винеровские методы синтеза приводят к бесконечным откло¬ нениям (в среднеквадратичном) от поверхности управления. В работе [64] изложены некоторые практические приемы, позволяющие избегать таких результатов, даже не прибегая к значительному изменению критерия качества. Это только один пример неизбежно возникающих практических трудностей. Другие можно найти в приведенной ниже библиографии. Наконец, здесь рассматривались только системы, оптимальные в смысле минимума среднего квадрата ошибки. Бывают, например, системы, которыми предпочтительнее управлять так, чтобы соответ¬ ствующая ошибка не выходила за заданные пределы. Методы синтеза систем, оптимальных по такому критерию, представлены в отчете Бергена [69] и некоторых работах, указанных в обзорной статье Заде [56]. ЛИТЕРАТУРА 1. Wiener N., The Interpolation, Extrapolation and Smoothing of Stationary Time Series, John Wiley and Sons, Inc., New York, 1949. 2. Lanin g J. H., Jr., and R. H. В a 11 i n, Random Processes in Automatic Control, McGraw-Hill Book Co., Inc., New York, 19o6. [Русский перевод: A) Имеется в виду США (Прим. иерее.)
ЛИТЕРАТУРА 133 Л з и и и г Дж. X. и Бэттин Р. Г., Случайные процессы в задачах авто¬ матического управления, ИЛ, М., 1958.] 3. Davenport W. L., Jr., and W. L. Root, Random Signals and Noise, McGraw-Hill Book Co., Inc., New York, 1958. [Русский перевод: Давен¬ порт В. Б. и P у т В. Л., Введение в теорию случайных сигналов и шу¬ мов, ИЛ, М., I960.] 4. В е п d a t J. S., Principles and Applications of Random Noise Theory, John Wiley and Sons, Inc., New York, 1958. [Русский перевод: Бен дат Дж., Основы теории случайных шумов и се применения, «Наука, М., 1965.] 5. Hsieh Н. С. and С. Т. Leondcs, On the Optimum Synthesis of Multi¬ pole Control Systems in the Wiener Scnce, IRE Trans, on Automatic Cont¬ rol, Vol. AC-1, No. 2 pp. 16—29, November, 1959. 6. Hsieh H. C. and С. T. L e о n d e s, Techniques for the Optimum Synthe¬ sis of Multipole Control Systems with Random Processes as Inputs, IRE Trans, on Automatic Control, Vol. AC-4, No. 3, pp. 212—231, December, 1959. 7. Am ar a R. C., The Linear Least Square Synthesis of Multivariable Control Systems, AIEE Transactions, Part II (Applications and Industry), Vol. 78, pp. 115—119, 1959. 8. Wiener N. and P. M a s a n i, The Prediction Theory of Multivariate Sto¬ chastic Processes, Part I, Acta Math., Vol. 98, pp. Ill —150, 1957. 9. Wiener N. and P. Masani, The Prediction Theory of Multivariate Sto¬ chastic Processes, Part II, Acta Math., Vol. 99, pp. 93—137, 1958. 10. Y о u 1 a D. C., On the Factorization of Rational Matrices, IRE Trans, on Information Theory, Vol. IT-7, No. 3, pp. 172—189, July, 1961. 11. Davis М. C., On Factoring the Spectral Matrix, Preprints, 1963 Joint Auto¬ matic Control Conference, pp. 459—467. 12. Cramer H., On the Theory of Stationary Processes, Ann. Math., Vol. 41, Ser. 2, 1940. 13. Матыаш И., Ш и л к а н с к Я., Генератор случайных процессов с задан¬ ной матрицей спектральных плотностей. Автоматика и телемеханика, т. 21, № 1, 1960, стр. 29—35. 14. Freeman Н., A Synthesis Method for Multipole Control Systems, AIEE Transactions, Part II, Vol. 76, pp. 28—31, March, 1957. 15. Horowitz I. М., Synthesis of Feedback Systems, Academic Press, New York and London, 1963, Chapter 10. 16. Newton G. C., Jr., L. A. Gould and J. F. К a i s e r, Analytical Design of Linear Feedback Controls, John Wiley and Sons,, Inc., New York, 1957. [Русский перевод: H ь ю т о н Дж. К., Г у л д JI. А., Кайзер Дж. Ф., Теория линейных следящих систем. Аналитические методы расчета, Физ- матгиз, М., 1961.] 17. Blackman R. and J. Т u к с у, The Measurement of Power Spectra, Do¬ ver Publications, Inc., New York, 1958. 18. Bennett W. R., Electrical Noise, McGraw-Hill Book Company, Inc., New York, 1960. 19. M u с h ni о r c, Robert B., Aircraft Scintillation Spectra,- IRE Transactions on Antennas and Propagation, March, 1960, pp. 201—212 (see Theoretical Scintillation Spectra НАС TM-271, March 1, 1952). 20. Freeman J. J., Principles of Noise, John Wilcv and Sons, Inc., New York, 1958. 21. H a m m о n, Robert L., An Application of Random Process Theory to Gyro Drift Analysis, IRE Transactions on Aeronautical and Navigational Electro¬ nics, September, 1960. 22. Ham m on R. L., Effects on Inertial Guidance Systems of Random Error Sources, IRE Transactions on Aeronautical and Navigational Electronics, December, 1962.
134 ЛИТЕРАТУРА 23. Dushman A., On Gyro Drift Models and Their Evaluation, IRE Transa¬ ctions on Aeronautical and Navigational Electronics, December, 1962. 24. N e w t о n, George C., Jr, Inertial Guidance Limitations Imposed by Fluctuation Phenomena in Gyroscopes, IRE Proceedings, April, 1960. 25. Weaver C. S., Thresholds and Tracking Ranges in Phase-Locked Loops, IRE Transactions on Space Electronics and Telemetry, Vol. SET-7, No. 3, September, 1961. 26. Livingston M. L., The Effect of Antenna Characteristics on Antenna Noise Temperature and System SNR, IRE Transactions on Space Electronics and Telemetry, Vol. SET-7, No. 3, September, 1961. 27. D e v e 1 e t J. A., Jr., Fundamental Accuracy Limitations in' a Two-Way Co¬ herent Doppler Measurement System, IRE Transactions on Space Electro¬ nics and Telemetry, Vol. SET-7, No. 3, September, 1961. 28. Dworetsky L. FI. and A. Edwards, Principles of Doppler-Inertial Gui¬ dance, ARS Journal, Vol. 29, No. 12, pp. 967—972, December, 1959. 29. Dunn FT H. and D. D. FI о w a r d, The Effects of Automatic Gain Control Performance on the Tracking Accuracy of Monopulse Radar Systems, Proc. of the IRE, Vol. 47, No. 3, March, 1959. 30. Dunn J. H., D. D. Howard and A. M. Kin g, Phenomena of Scintilla¬ tion Noise in Radar-Tracking Svstems, Proc. of the IRE, Vol. 47, No. 5, May, 1959. 31. Delano R. FI., Angular Scintillation of Radar Targets, F1AC TM-233, dated 24 April 1950 (Hughes Aircraft Co.). 32. Much more R. B., Review of Scintillation Measurements, НАС TM-272, dated December, 1952 (Hughes Aircraft Co.). 33. D e 1 a n o, Richard H., A Theory of Target Glint or Angular Scintil¬ lation in Radar Tracking, Proc. of the IRE, pp. 1778—1784, December,. 1953. 34. Much more R. B., Theoretical Scintillation Spectra, НАС TM-271, dated 1 March 1952 (Hughes Aircraft Co.). 35. Delano R. H., Irwin P f e f f e r, The Effect of AGC on Radar Tracking Noise, Proc. of the IRE, pp. 801—810, June, 1956. 36. F a v r e a u R. R., H. Low and I. P f e f f e r, Evaluation of Comlex Statis¬ tical Functions by an Analog Computer, Hughes Aircraft Co., presented at Project Typhoon Symposium III on Simulation and Computing Techniques, October, 1953, University of Pennsylvania. 37. Angular Scintillation of Radar Targets with Monopulse and Interferometer Target Seekers, НАС TM-257, dated November, 1950 (Hughes Aircraft Co.). 38. P о v e ] s i 1 D., R. R a v e n and P. J. Waterman, Airborne Radar, Van Nostrand Company, Inc., 1958. 39. D e v e 1 e t, Jean A., Thermal-Noise Errors in Stimultaneous-Lobing and Conical-Scan Angle-Tracking Systems, IRE Transactions on Space Electro¬ nics and Telemetry, Vol. SET-7, No. 2, June 1961. 40. Meade J. E., A. E. Hastings and H. L. G e r w i n, Noise In Tracking Radars, Naval Research Lab Report 3759, November 15, 1950. 41. Chittenden R. W., R. J. M a s s a and J. F. F r a z e r, Evaluation of Satel¬ lite Tracking System Performance In the Presence of Noise and Interfe¬ rence, Proceedings of the Sxith Conference on Radio Interference Reduc¬ tion, ASTIA No. AD 244, 264. 42. Time Series Analysis Edited by M. Rosenblatt, John Wiley and Sons, Inc., 1962. 43. S t e с с a A. J. and N. V. O’Neal, Target Noisr Simulator-Closed-Loop Tracking, NRL Report 4770, July 27, 1956. 44. FI о w a r d D. D. and B. L. Lewis, Tracking Radar External Range Noise Measurements and Analysis, NRL Report 4602, August 31, 1955.
ЛИТЕРАТУРА 135 45. Lewis В. L., A. J. S t е с с a and D. D. Howard, The Effect of An Automatic Gain Control on the Tracking Performance of a Monopulse Radar, NRL Report 4796, July 31, 1956. 46. S t e с с a A. J., N. V. O’N e a 1 and J. J. Freeman, A Target Simulator, NRL Report 4694, February 9, 1956. 47. Leshnover S., Prediction of Anisoelastic and Vibropendulous Effects on Inertial Navigation System Performance in Linear Random Vibration Envi¬ ronments, Proceedings of the National Specialists Meeting on Guidance of Aerospace Vehicles, May, 1960. 48. S t e w a r t R. М., Some Effects of Vibration and Rotation on the Drift of Gyroscopic Instruments, ARS Journal, January, 1959. 49. B1 a sin game B. P., Optimum Parameters for Automatic Airborne Navi¬ gation, D. Sc. Thesis, М. I. Т., 1950 (formerly classified secret, now declas¬ sified). 50. Press H. and J. С. H о u b о 11, Some Applications of Generalized Har¬ monic Analysis to Gust Loads on Airplanes, Jour. Aerospace Sciences, Vol. 22, pp. 17—26, 1955. 51. Marks W. and W. Pierson, The Power Spectrum Analysis of Ocean Wave Records, Trans. American Geophysical Union, Vol. 33, pp. 834—844, 1952. 52. G о о d m a n N. R., On the Joint Estimation of the Spectra, Cospectrum, and Quadrature Spectrum of a Two-Dimensional Stationary Gaussian Pro¬ cess, Scientific Paper No. 10, Engineering Statistics Laboratory, New York University, March, 1957 (Also available as ASTIA Document No. AD 134 919). 53. В a 1 a к r i s h n a n A. V., A Note on the Sampling Principle for Continuous Signals, IRE Trans. PGIT, June, 1957. 54. Rosenblatt М., Random Processes, Oxford University Press, New York, 1962. 55. Stewart E. C. and G. L. Smith, The Synthesis of Optimum Homing Missile Guidance Systems with Statistical Inputs, NASA Memo 2-13-59A, April, 1959. 56. Zadeh L., Progress in Information Theory in the USA, 1957—1960, Part 5: Prediction and Filtering, Trans. PGIT, July, 1961. 57. К a 1 m a n R. E. and R. S. Busy, New Results in Linear Filtering and Predition Theory, Transactions of the ASME, Journal of Basic Engineering, March, 1961. 58. Kalman R. E., A New Approach to Linear Filtering and Predicition Problems, Trans. ASME, Journal of Basis Engineering March, 1960, pp. 35—45. 59. H s i e h H. C. and С. T. L e о n d с s, On the Optimum Synthesis of Sampled Data Multipole Filters with Random and Nonrandom Inputs, IRE Trans, on Automatic Control, Vol. AC-5, No. 3, pp. 193—208, August, 1960. 60. Shi nb rot, Marvin, Optimization of Time Varying Linear Systems with Nonstationary Inputs, Trans. ASME, Vol. 80, 1958, pp. 457—462. 61. Broniwitz L., A New Approach to the Design of Optimal Ho¬ ming Missile Guidance Systems, Raytheon Report BM-2056, August 22, 1961. 62. С о u г a n t R. and D. Hilbert, Methods of Mathematical Physics, Vol. I, Interscience Publishers, New York, 1953. 63. F i f e г S., Analogue Computation, Vol. IV., McGraw-Hill Book Company, Inc., New York, 1961. 64. Stewart E. C., Application of Statistical Theory to Beam Rider Guidance in the Presence of Noise. I—Wiener Filter Theory, NACA, RM A55E11, 1955.
136 ЛИТЕРАТУРА 65. Stewart Е. С., Application of Statistical Theory to Beam Rider Guidance in the Presence of Noise. II—Modified Wiener Filter Theory, NACA, TN 4278, 1958. 66. IEEE Transactions on Aerospace and Navigational Electronics, Vol. ANE-10, No. 1, March, 1963. 67. Bat tin R. H., A Statistical Optimizing Navigation Proceedure for Space Flight, ARS Journal, November, 1962. 68. McLean J. D., S. F. Schmidt and L. A. M с G e e. Optimal Filtering and Linear Prediction Applied to A Space Navigation System for the Cir- cumlunar Mission, NASA TN D-1208, March, 1962. 69. Bergen A. R., A Non Mean-Square Error Criterion for the Synthesis of Optimum Sample Data Filters, Technical Report T-2/133, Electronics Rese¬ arch Labs., Columbia University, 1956 (Also available as ASTIA Document No. AD 110 180). *70. Пугачев В. С., Теория случайных функций, Физматгиз, М., 1962.
ГЛАВА 3 ФУНКЦИОНАЛЬНЫЙ АНАЛИЗ И ЕГО ПРИМЕНЕНИЕ К ЗАДАЧАМ МИНИМУМА СРЕДНЕКВАДРАТИЧНОЙ ОШИБКИ Хеи (Н. С. Hsieh), Несбит (R. A. Nesbit) РАЗДЕЛ 1 НЕКОТОРЫЕ ОСНОВНЫЕ ПОНЯТИЯ ФУНКЦИОНАЛЬНОГО АНАЛИЗА 3.1. Введение Существует развитая математическая теория функций, и естест¬ венно возникает вопрос, нельзя ли с помощью этой теории решать задачи управления. В истории теории регулирования вряд ли можно обойтись без упоминания о тех успехах, которые имели место, когда удавалось применить в практических задачах строгую математическую теорию. С появлением вычислительных машин круг практических за¬ дач значительно вырос и нельзя игнорировать проблему их эффек¬ тивного использования. Последующее изложение имеет целью познакомить с основными идеями функционального анализа и показать, что они могут быть использованы для решения некоторых задач управления. Мы не пытаемся изложить курс основ функционального анализа, поскольку его можно найти в книге Колмогорова и Фомина «Функ¬ циональный анализ» [10]. Существует много аналогий между векторным и функциональным анализом. Большинство физических задач может быть сформулировано без привлечения векторного анализа, совершенно также можно избе¬ жать формализма функционального анализа. Но тот, кто имел дело с векторными уравнениями физических систем, легко можно понять ценность изучения векторного анализа, а тот, кто интересуется проб¬ лемами, связанными с функциями, тому, конечно, полезно изучить функциональный анализ. Это обсуждение представляет попытку познакомить с предметом функционального анализа и показать его применение к некоторым
138 ФУНКЦИОНАЛЬНЫЙ АНАЛИЗ [ГЛ. 3 задачам. Ниже будет рассмотрен метод наискорейшего спуска реше" ния некоторых задач минимума среднеквадратичной ошибки и, в ча¬ стности, метод, предложенный А. В. Балакришнаном. 3.2. Типы пространств Отправной точкой для многих основных математических построе¬ ний является понятие множества. Элементы абстрактного множества могут быть самыми произвольными, но в большинстве случаев их можно мыслить себе как точки, числа или функции. Существуют не¬ которые утверждения или теоремы, имеющие дело со свойствами множеств, которые могут быть доказаны при довольно слабых пред¬ положениях относительно точной природы элементов этих множеств. Теоремы, доказанные с минимумом предположений, применимы во многих частных случаях. В большинстве построений имеется множе¬ ство, элементы которого используются для образования любых мно¬ жеств, участвующих в задаче. Эго множество называется простран¬ ством. Относительно него можно делать дополнительные предполо¬ жения, получая тем самым различные типы пространств. Метрическое пространство определяется как множество X, в ко¬ тором для каждой пары элементов множества определено расстояние между ними — метрика р. Эта метрика должна обладать следующими свойствами для любых jc и у, принадлежащих X (обозначается х, У G Р (х> У) О х ф у — положительность, р(лг, х) = 0 р (х, у) — р (у, х) — симметрия, Р (х> У) “Ь Р (Уу z)^p(x> z) — неравенство треугольника. Одним из многих примеров метрического пространства является множество всех непрерывных функций x(t) на замкнутом интервале a^t^b с метрикой г-Ь -.1/2 ?(Х, У)= \(x—yfdt _а Другие примеры можно найти в книге Колмогорова и Фомина [10]. Вопросы сходимости последовательности могут трактоваться в тер¬ минах метрического пространства. Метрическое пространство назы¬ вается полным, если любая последовательность Коши [13] сходится к элементу этого пространства. Линейное пространство есть множество R элементов х, у, z, ..., для которых определены следующие операции:
S.2] ТИПЫ ПРОСТРАНСТВ 139 1. Сложение. Для каждой пары элементов х, у имеется един¬ ственный элемент z = х -\-у, так что выполняются следующие условия: а) х+у=у-]-х; в) существует элемент 0 R такой, что х-\-0 = х для всех х (3 Ry г) для любых х R существует элемент —х R такой, что х -|- (—х) = 0. 2. Умножение на скаляр. Для х R существует ах R а) а фх) = (аЗ) х; б) 1 • х = х. 3. Связь между операциями сложения и умножения на скаляр а) (а -|— Р) х = а.х -{— $х\ б) а (х -\-у) = ах -f- ay. Линейное пространство называется нормированным, если каж¬ дому х R поставлено в соответствие неотрицательное число ||х||. Это число называется нормой х и должно обладать свойствами: 1) || х || = 0 тогда и только тогда, когда х = 0; 2) || а* || = | a HI л:||; 3) H+J'IKII-kIIIIj'II- Полагая р(х, у) = \\х—у ||, видно, что нормированное линейное пространство является метрическим. Тогда теоремы сходимости, ко¬ торые применимы к любому метрическому пространству, в точности применимы и к нормированному пространству. Полное нормированное линейное пространство называется банахо¬ вым пространством, или ^-пространством. Примером нормирован¬ ного линейного пространства является пространство всех непрерывных функций х:(£), определенных для a^t^b с обычными операциями сложения и умножения на число и нормой 1*(9И = J х2 (t) dt 1/2 Оператор А устанавливает правило, по которому элементам одного банахова пространства R ставятся в соответствие элементы другого банахова пространства К. Это записывается как у = Ах. Примером линейного нормированного пространства, обладающего многими полезными свойствами, является гильбертово пространство. Гильбертово пространство есть конечно- или бесконечномерное мно¬ жество Д удовлетворяющее следующим условиям: 1. Н есть линейное пространство.
140 ФУНКЦИОНАЛЬНЫЙ АНАЛИЗ [ГЛ. 3 2. Для каждой пары элементов /, g Н определено скалярное произведение. Следующие свойства определяют скалярное произведе¬ ние. Каждой паре элементов соответствует число (/, g) и </. «>=<& />, <«/. £>=»</> g), </, «§>=?</. $>, </,+А *> = </„ g) + (A, s>, </, />>0, если f ф0. H есть линейное нормированное пространство, если в качестве нормы брать величину || /|| = ]//, f *). 3. Пространство Н полно в метрике Р(х, j/) = j! / — g]\t. Если пространство Н содержит всюду плотное счетное подмно¬ жество [13], то говорят, что пространство сеперабельно. Можно показать, что все гильбертовы пространства одной и той же мощности изоморфны [13]. Пространство Гильберта является тем естественным пространством, в котором можно изучать функции, и является также естественным обобщением евклидова пространства конечной размерности. Одной из реализаций гильбертова пространства является пространство всех счетных упорядоченных последовательно¬ го стей х = (хь хь Хз, ..., хп, ...), обладающих свойством ^ 00 i = I со следующими операциями сложения, умножения на число и скаляр¬ ного произведения: х-\-у = (х1-гУъ Хъ-\-уь хп-\-ую ...), ах = (ахь ах2, ..., ахп, ...), со (х, у)= У) Х<Уг i^\ Это пространство обозначается /2. Другой также часто используе¬ мой реализацией гильбертова пространства является пространство функций с интегрируемым квадратом /Г,. Это пространство функций, для которых ^ | f (t) р cl\x (0<C oo, с обычными определениями сложения k *) В качестве упражнения предлагается показать, что V(/> /) обладает тремя свойствами, предъявляемыми к норме.
3.4] РЯДЫ ФУРЬЕ 141 и умножения, а скалярное произведение определяется как </.£>=$/ (О Я Хорошо известная операция разложения функций в ряд Фурье возможна ввиду изоморфизма между L2 и 3.3. Основные неравенства В дополнение к неравенству треугольника 11/+*11<Н/11 + Ш. упоминавшемуся выше, можно вывести другое неравенство, исполь¬ зуя при этом только свойства гильбертова пространства. Неравенство Бунякопского—Шварца часто применяется в анализе. Оно выполняется в любом гильбертовом пространстве и имеет форму К/, f)(g, g) или !(/> *)XII/llllgll- Важно знать, когда имеет место знак равенства, так как это дает решение задачи оптимизации. Задача. Дано показать, что минимально, когда >, = . (A g) (g. g) ' 3.4. Ряды Фурье Для того чтобы освоиться с символикой, рассмотрим обычную за¬ дачу разложения функции с интегрируемым квадратом /(t), a^t^b, ь в ряд Фурье. В этом случае (/, g) = ^ f (t)g(t)dt, и мы имеем си- а стему функций [срь <р2, ..., cpv(^)j, удовлетворяющих соотношениям / \ Я ( °> iz£j> ta. <?/>=«,7=1,, l=h и, следовательно, ортономированную. Коэффициенты at конечного ряда N Фурье ^ ai?i — (в этом равенстве мы подразумеваем, что по i = 1 дважды повторяющимся индексам в таком выражении, как а*®*, про¬ изводится суммирование по i от 1 до N) могут быть выбраны такими, N I минимально. что /— 2 а<?; i = 1
142 ФУНКЦИОНАЛЬНЫЙ АНАЛИЗ [ГЛ. 3 Тождество ||/—a^i ||‘2= ji/—crfi + Cf<Pi— ai¥i!! не зависит от ct и раскрывается следующим образом: II/— Я;®,- !Р= II /— С,-©,- -f Ctfi — atfi II'2 = = II /— С/©,- II'2 + </— с,-®,-, Ctfi — a,•©,•> + <c,-cpi — a Ml, /— с,-?г> + “Ь II (ci — ai) II2- Здесь коэффициенты Ci выбираются из соображения простоты вычис¬ ления. Так как тождественно верно для всех сь то результат не за¬ висит от этого выбора. Пусть Ci = (f, сpi). Тогда </— Ctfi, boj) = b [</, <Pjr>] — Ci (<pi, <py->] = b [</, <pj) — Cj] = 0 И {b<Dj, f—c^i) = b[{<fj, f) t’i (©_,-, <?,->] = о. Таким образом, II /- am ||2 = l| /- d ||2 + S | (a; - c^ |2; 1 = 1 Ci уже фиксированы и правая часть равенства, рассматриваемая как функция ah имеет, очевидно, минимум при = сг. Величины at- = (/, ср;) называются коэффициентами Фурье. Функ- N ция £=2 а^'1 называется проекцией функции / на линейное под- I = 1 пространство L. Линейное подпространство может быть образовано любым подмножеством элементов {fb /2, ..., fm) из Н. Элементами подпространства будут все функции вида ТП ф *=2 bifi. i = \ Задача. В конечномерном аналоге приведенных выше рассужде¬ ний я-мерный вектор F может быть аппроксимирован r-мерным век¬ тором G(r^ri), так чтобы величина ошибки \\F — G|| была бы минимальна. Как следует выбирать компоненты вектора? 3.5. Проекционный оператор Для того чтобы кратко изложить приведенный выше результат без обращения к какому-либо конкретному базису в линейном под¬ пространстве, введем проекционный оператор Р. Пусть L — линейное подпространство Н. Тогда любой элемент из Н может быть разложен на две компоненты: одна принадлежит L, а другая ортогональна лю¬ бому элементу из L: f=g-{-hf f Н, g (z L и (/?, ^) = 0 для всех
3.61 ПРИМЕНЕНИЕ ТЕОРИИ ПРОЕКЦИОННЫХ ОПЕРАТОРОВ 143 х L. Проекционный оператор определим как линейный оператор, обладающий свойствами Pg = g и Ph = 0. (Заметим, что P(Pg) = = P'2g = Pg, т. е. Р'2 = Р. Последнее свойство иногда принимают за определение проекционного оператора.) Вышеприведенные рассужде¬ ния относительно проектирования могут быть приведены с помощью проекционного оператора следующим образом. Найдем функцию g L, которая минимизирует || /— g||2 для /6Я: \\ f—g\? = \\ f — Pf ~т pf — gf = — pf \\* -\- (f — pf> Pf>- f-Pf> g) + (Pf, f-Pf)-(g, f-Pf) + \\pf-g\\\ Так как Pf, g(^L и f—Pf\_L, II / — g\\2=\\f — Pf II2 + II Pf — g ||2>* минимум достигается при g = Pt. 3.6. Применение теории проекционных операторов для минимизации среднеквадратичной ошибки Поскольку математическое ожидание двух случайных величин обладает свойствами скалярного произведения, то изложенная выше теория проекционных операторов может быть использована для слу¬ чайных процессов, если положить </, g) = E(fg). Случайные процессы с конечной дисперсией образуют линейное пространство и часто являются разумными моделями некоторых про¬ цессов управления и связи. Для таких задач теория проектирования позволяет получить уравнения оптимальных в среднеквадратичном фильтров. Но эти уравнения, однако, нужно решать, и анализ гильбертова пространства может быть также использован для решения интеграль¬ ных уравнений. Рассмотрим следующую систему управления: Требуется минимизировать II с — г IIs = Е {(с — г) (с — г)} = Е {ее} =Е \е\*
144 ФУНКЦИОНАЛЬНЫЙ АНАЛИЗ ГГЛ. 3 для всех i: a^t^b (т. е. t Т). Эта задача эквивалентна сле¬ дующей; x(t)=r(t) +n(t) mv c(t) и если оптимальное W известно, то для линейной системы по W и Wq можно найти соответствующее I/*). Задача фильтрации заключается в том, чтобы оценить сигнал r(t) по сумме сигнала и помехи x{t) с помощью наилучшей линейной операции над x(t): to А c(tо)= ^ W (Т0, о) х (сп) do = lim У апх(cr„), оп->° Для этого рассмотрим замкнутое линейное подпространство X, об¬ разованное функциями { jc (а); а^о ^t0\. Требуется найти с X так, чтобы величина II г —^1Г была минимальна. Из общих рассуждений, приведенных выше, видно, что с = Рг и что г — с должно быть ортогонально к любому эле¬ менту из X. Это значит для всех т: Учитывая, что E[r(t0)x(i)] = Rrx(t0t т), предыдущее уравнение принимает вид /о RrA*о. “0=$ °)Rxx(o, z)da. а Это есть основное уравнение Винера—Хопфа и решение его относи¬ тельно W(t0, а) является основной проблемой расчета линейных фильтров. Другой важной проблемой является определение статистик различных процессов. Из приведенного выше уравнения видно, что для расчета оптимального линейного фильтра требуется знать лишь функции корреляции второго порядка. *) Не всегда верно. V {ty т) может быть неустойчиво. Смотри книгу Ньютон Дж. К., Гулд Л. А., Кайзер Дж. Ф., Теория линейных сле¬ дящих систем, Физматгиз, 1961.
3.61 ПРИМЕНЕНИЕ ТЕОРИИ ПРОЕКЦИОННЫХ ОПЕРАТОРОВ 145 Аналогичным способом можно находить и полиномиальные фильтры Рассмотрим квадратичный фильтр, для которого to f0 с (£0) = U7 (t0) а) х (а) do -j- jj ^ К (tQy о, т) х (а) х (т) dz do. а а а Основным вопросом в применении проекционных операторов является выбор подходящего линейного многообразия [13]. Для указанной выше задачи подходящим является линейное многообразие X, состоящее из пар {-хг(a), x(o)x(z) или a^o^.t0, В этом случае урав¬ нения RrxVo, У=5 Wo, °) R.v.v (*, + $ I К (to, а, t) Rxxx (О, t, dx do, a a a to Rrxxif0> h) = 5 W(t*> a)Rxxx(c> t\> h) do -f- a to to —j- ^ ^ К (t0, О, t) Rxxxx (?> dsi do U 0 должны быть решены совместно относительно К и W. Здесь тре¬ буются статистики не только второго, но также третьего и четвер¬ того порядков. Иной тип проблемы оптимизации функционалов возникает, если оптимум искать не в линейном, а в ограниченном, выпуклом под¬ пространстве [13]. Теория проекционных операторов в этом случае недостаточна. В качестве другого примера предположим, что мы должны опре¬ делить коэффициент усиления передаточной функции по известной реакции системы на единичный скачок и наблюдаемой реакции си¬ стемы. Измерение х искажено аддитивным шумом, так что x(t) = = ks(t)-\- n(t), и если рассматривать только линейные операции над данными, то ь 1 k = \х (t) h (t) dU J | h i“ dt oo. a 0 Если шум имеет нулевое среднее значение, то ъ E(k)=k s{t)h(t) dt, а b /. А и разумно требовать, чтобы \s(t)h(t)dt = 1. Тогда E(k) есть
146 ФУНКЦИОНАЛЬНЫЙ анализ [ГЛ. 3 искомая величина /г. Дополнительным требованием к h(t) является мини¬ мум дисперсии оценки Е [(k — kf\ Рассматривая действительное гильбертово пространство Ц на интервале a^t^b со скалярным произведением I) С/. g) = \f{t)g(t)dt, а поставленную задачу можно сформулировать следующим образом. Минимизировать (Rh, Н) при условии (/г, s)=l. (R есть функция ковариации и поэтому является неотрицательным оператором.) Свойства гильбертова пространства весьма полезны для форму¬ лировки функциональных задач, когда минимизируется среднеквадра¬ тичная ошибка. Ниже будет дано решение этой задачи методом наискорейшего спуска в терминах функционального анализа. Предыдущее изложение имело целью познакомить читателя с не¬ которыми понятиями функционального анализа и его связью с про¬ блемами управления. Дальнейшие выводы используют эти и другие, не упоминавшиеся здесь результаты. Интересующиеся могут восполь¬ зоваться библиографией [1, 10, 11, 12]. РАЗДЕЛИ ПРОБЛЕМЫ СРЕДНЕКВАДРАТИЧНОЙ ОШИБКИ 3.7. Неотрицательные операторы в гильбертовом пространстве и минимизация квадратичных функционалов Пусть Н обозначает действительное векторное гильбертово про¬ странство. Линейный ограниченный оператор R, отображающий Н в НУ называется симметричным или самосопряженным, если для лю¬ бых двух элементов х и у из Н (Rx, у) = (х, Ry). (3.1) Оператор R называется неотрицательно определенным, если в до¬ полнение к свойству симметричности (Rx, х> ^ 0. (3.2) Далее, оператор называется положительно определенным, если (Rx, х)^>0у х ф 0, (3.3) и (Rx, jc) = 0 тогда и только тогда, когда л: = 0 (кроме множества меры нуль) [13]. Далее мы ограничим наше рассмотрение простран¬ ством вектор-функций с интегрируемым квадратом на конечном интервале (0, Т), т. е. пространством L2(T). В большинстве рассма¬
3.7] ОПЕРАТОРЫ В ГИЛЬБЕРТОВОМ ПРОСТРАНСТВЕ 147 триваемых проблем линейный оператор не только неотрицательно определен, но и компактен [14]*). Этот оператор характеризуется тогда счетным множеством собственных значений; все они неотрица¬ тельны. При этом, если их бесконечное число, невозрастающая по¬ следовательность собственных значений, будет сходиться к нулю. Пусть {XJ — множество невозрастающих собственных чисел и {ф;} — множество соответствующих собственных функций. Тогда по теореме Гильберта — Шмидта [1] мы имеем для любого симметрич¬ ного оператора R выражение оо Rx= 2 Хг (х, фг> фг (3.4) г= I для каждого х из Z.2. Здесь {X-}—множество ненулевых собственных чисел. Разложение (3.4) справедливо в смысле сходимости в сред¬ нем [10] для всех операторов вида Rх = ^ R (s, t) х (f) dty т где Т есть область изменения параметра t. Если теперь интеграль¬ ный оператор R неотрицательно определен и имеет непрерывное ядро, тогда по теореме Мерсера [1] его можно разложить в ряд оо R(s, 0= 2 х;ф;О)ф;(t), (3.5) i= 1 где штрих означает транспонированную матрицу. Сходимость в сред¬ нем этого ряда является равномерной по обоим переменным s и t. Абстрактно все проблемы среднеквадратичной ошибки могут трак¬ товаться как проблемы минимизации квадратичного функционала вида Q(x) = </?a:, х) — 2 (х, g). (3.6) Здесь R есть, вообще говоря, неотрицательно определенный оператор в L2 и g — данный элемент из Ц. Минимизация производится отно¬ сительно х в L2. Предположим теперь, что в L2 существует элемент такой, что Rh = g. (3.7) Тогда Q (х) = (Rx, х) — 2 (х, RH). *) Оператор А компактен, если он отображает любое ограниченное множество в компактное.
148 ФУНКЦИОНАЛЬНЫЙ АНАЛИЗ [ГЛ. 3 Добавляя и отнимая член -(Rh, h) и используя свойство симметрии Rf имеем Q (х) = (Rx, х) — (Rx, ft) — (Rh, х) -\-(Rh, h) — (Rh, h) = (R(x — h), x — ft)— (Rh, h). (3.8) Предположим теперь, что R в действительности положительно опре¬ делен. Точнее, эго значит, что в Z,2 не существует отличного от нуля элемента такого, что Rx= 0, (3.9) и, следовательно, нуль не является собственным числом оператора R. Очевидно, что Q будет минимальным, если выбрать x — h. Таким образом, Qmit. (■* =—<§■• h), (3.10) и уравнение (3.7) имеет вид Rx = g. (3.11) Это есть интегральное уравнение Винера — Хопфа для данной задачи минимизации. Если R компактен, тогда, как известно [1,10], необходимым и достаточным условием для того, чтобы уравнение (3.11) имело реше¬ ние в 12, является со V У:'г<со. (3.12) Если ядро интегрального оператора R стационарно (т. е. является функцией только разности двух своих аргументов) и его преобразо¬ вание Фурье есть рациональная функция, то общее решение уравне¬ ния (3.11) содержит S-функции и их производные различного по¬ рядка на концах интервала Т. Случай, когда уравнение (3.9) удовлетворяется для х ^ 0, обычно называется сингулярным случаем, и впервые был рассмотрен в [2,5]. Будем обозначать через И0 подпространство, соответствующее нуле¬ вому собственному значению, т. е. Rx = 0, х ^ Н0, и через go — проекцию g на это подпространство. Тогда g — go~{-gv go £ ^о- (3.13) Чтобы минимизировать Q, мы должны взять x = Kg*. (3.14)
3.7] ОПЕРАТОРЫ В ГИЛЬБЕРТОВОМ ПРОСТРАНСТВЕ 14!) Так как (g, gn) = (g.J, gn), то Q(x) = —2K (g» g0). (3.15) Очевидно, выбирая К сколь угодно большим, получим QininC*')2^ (3.1 б) Рассмотрим теперь случай, когда в 12 не существует решения уравнения (3.7). Покажем, что тогда существует последовательность элементов {hn} из 1.2 таких, что :'i Rhn — g!! -> 0, (3.17) и этого будет достаточно, чтобы утверждать, что Q[nf(*) = lim Q(hn). (3.18) /2->-03 Чтобы это показать, образуем последовательность hn = У фь (3.19) 7=1 Очевидно, что (3.17) удовлетворяется. Прибавим и вычтем теперь величину 2 {Rhtv х) -[- (Rhn> hn). Получаем Q (х)= (Rx, х) — 2 (х, g) -j- 2 {Rhn, х) -|- -j- <Rhn, hn) — 2 (Rhn, x> — (Rhn, h„) = z== (R (*^ hn)> % hn) (Rhn> hn) ^ \*^’ Rhn g). Тогда Q (x) — Q (hn) = {R(x — hn)> x — hn) -j- (Rhn — g, x — hn) >-• ^ 2 {Rhn — gx— hn) = 2 (Rhn — g, x). Теперь <Rhn — g, я->оо. Следовательно, имеем Q(x) ^ lim Q(ft„). Отсюда следует, что ‘ ~~ — 2 ~ »= l Qi„fW= —lim h„) = — У i'll. (3.20) n -* oo И Результат минимизации квадратичного функционала, как показано выше, зависит, очевидно, от собственных чисел и собственных функ¬ ций оператора R. Определение этих величин само представляет трудность. Таким образом, это приближение не является таким уж
150 ФУНКЦИОНАЛЬНЫЙ АНАЛИЗ [ГЛ. 3 конструктивным в решении проблемы синтеза. В следующем разделе мы введем последовательную аппроксимацию решения, основанную на методе наискорейшего спуска в гильбертовом пространстве. Этот метод дает самый общий подход для всех проблем минимума средне¬ квадратичной ошибки. 3.8. Метод наискорейшего спуска в гильбертовом пространстве Применение метода наискорейшего спуска для решения проблемы минимизации квадратичного функционала впервые было введено Л. В. Канторовичем в СССР [3]. Сравнительно недавно применение этого метода для решения инженерных задач появилось в литера- туре [4, 5, б, 7, 8]. В частности, Балакришнану принадлежит боль¬ шое количество оригинальных работ по развитию этого метода и применению его для решения большого класса инженерных проблем [5, 6]. Основная идея метода заключается в следующем. Рассматри¬ вается квадратичный функционал Q(jc) в гильбертовом пространстве. В поисках его минимума возьмем произвольное jc0 в качестве первого приближения. Попробуем найти «градиент» в точке х0, т. е. найти элемент z такой, что производная Q (лг0 zz) максимальна при е = 0. Пусть z0 такой элемент. Так как Q(JCo~h£^o) полином второй степени от е, он будет достигать минимума для некоторого е0. Тогда элемент Xi = х0 -j- £о^о принимается за следующее приближе¬ ние и процесс повторяется до тех пор, пока не будет достигнута требуемая точность. Рассмотрим теперь квадратичный функционал Q(x) = (Rx, х)— 2 (х, g). (3.21) Здесь R положительно определенный оператор [10]. Пусть z — произвольный элемент из Ну отличный от нуля. Тогда для лю¬ бого действительного параметра в мы имеем Q (х —\- 32) = Q (х) —j— 2s (R.x — g, z^(Rz, #). (3.22) Предположим, что х0—первое приближение. Для того чтобы найти градиент, нужно максимизировать выражение [Q (Xq -j- s2o)]s = o= 2 (Rxq g, Zq). (3.23) В силу неравенства Шварца выражение (3.23) будет максимизи¬ ровано для ||г0 Ц = 1, если г0 = Rx0 — g• (3.24)
3.8] МЕТОД НАИСКОРЕЙШЕГО СПУСКА 151 При таком выборе z0 (3.22) будет достигать своего минимума по е, если <3'25) Таким образом, в качестве следующего приближения берем Х\= Xq-\- е0 (Rx0 — g) и Q (-^i) = Q (Хо) - - l!2°'14 (Rz,,, z0) • Очевидно, что на п-м шаге мы имеем Хп = Хп_1 гп-\2п-Ь (3.26) где п (RZfi-u %п-1) Q (хп) = Q (xn_t) - r . (3.27) Zn_i) Теперь мы покажем, что Q(xn) действительно сходится к истин¬ ной нижней грани [5, 13] Qinf(*)= lim Q (■*«)• (3-28) Из уравнения (3.27) ясно, что «w=«w- 2 тШл- (3'29) i = о Если теперь бесконечный ряд со у II гп II* Li (Rzm zn) л г) п = О ■ ОО, то Q(xn) будет монотонно стремиться к —со и нижняя грань оче¬ видно достигается. Если же 2<fefc<+«* п **0 ТО (Rzw *„><||K|| II zn ||9,
152 Ф У Н К ЦИ О НАЛ ЬН Ы Й АНАЛИЗ [ГЛ. 3 где ЦЯ||= sup (Rx, х), и тогда имеем (Rzn, zn) — ||/?|| Эго означает, что оо 2 II !i2<-b оо. (3.30) п = 1 Таким образом, получим И *я II = I! (3.31) Однако можно показать [5, 8], что (3.31) достаточно, чтобы утвер¬ ждать Следует заметить, что сама последовательность {хп} вовсе не обязана сильно сходиться. 3.9. Нелинейная фильтрация случайных процессов Как уже отмечалось, все проблемы среднеквадратичной ошибки могут рассматриваться как минимизация квадратичного функционала. При использовании метода наискорейшего спуска не делалось ника¬ ких предположений о стационарности процессов. В этом разделе мы покажем, что та же самая процедура применима и для нелинейной фильтрации [5]. Пусть Е— случайная величина. Мы постараемся получить наи¬ лучшую в среднеквадратичном оценку этой случайной величины по наблюдению случайного процесса x(t) за период O^t^T. Наи¬ лучшей оценкой мы считаем нелинейное выражение вида с+ 2 (А А) * (А) * (А) • • • X (A) dt 1... dtm (3.32) где С—постоянная, Wn(th t2, ..., tn) — симметричная относительно своих аргументов функция, которая принадлежит L%(Tn). Обозначим через x(t)N-мерный вектор-процесс Qinf(Jf)= lim Q(x„). п -у ОО N Т Т п = 1 U б x(f) = x(ti) *(А)*(А) (3.33)
3.91 НЕЛИНЕЙНАЯ ФИЛЬТРАЦИЯ СЛУЧАЙНЫХ ПРОЦЕССОВ а через К (£) ЛЛмерный вектор весовых функций 153 *(9 = ти, и) (3.34) Wjffr t.b ...,tN) где t = (th tb tдг) принадлежит прямому произведению про¬ странств TN. Тогда уравнение (3.32) можно записать как С+ \ Kr(t)x(t)d\t\, (3.35) jN где штрих используется для обозначения транспонированной матрицы. Задача заключается в таком выборе С и K(t\ чтобы О (3.36) (3.37) было минимальным. Введем две новые величины \ = Ь — Е{Ц, (3.38) х = х — Е {jc}. (3.39) Заменяя в (3.36) £ и х на ? и л;, получим С= 0, так как £{f} = 0 и £{Jc} = 0. Уравнение же (3.37) перейдет в ДА) = £|« — J ЛГ(*)х(0<ЧЧ}* (3-4°) Таким образом, удобнее рассматривать эти два новых уравнения. Правая часть (3.40) может быть раскрыта следующим образом: /(АГ)=£{|}2_2 ^ tf'(Q£{6*(<)}d|f| + rfN + $ ^ K'(s)E{x(s)x'(f)}K(i)d\s\d\t\; 'JiV TN это, очевидно, можно записать в операторной форме 1{K)—{RK, К) - 2 <*, К) + Е {Г}, (3.41) где R(S, 0 = £{i(s)jc'(0}1 WXM ff(0 = £p(9} (3.42)
154 ФУНКЦИОНАЛЬНЫЙ АНАЛИЗ [ГЛ. 3 и R есть компактный и неотрицательный оператор в TV-мерном пространстве. Очевидно, что выражение, которое должно быть минимизировано, снова есть квадратичный функционал Q (К) = <RK, К) = 2 (g, К>. (3.43) Уравнение Винера — Хопфа для этой задачи будет RK = g. Это уравнение может быть также выведено с помощью проекционной теоремы. Возможно, что для К из L% (7^) решения не существует. Однако, используя те же самые рассуждения, что и в § 3.1 и 3.2, всегда можно найти последовательность {Кп} такую, что 1№-*И-*о И Qini(*0= lim Q(Kn). п -*• оо Следовательно, для получения аппроксимирующей последовательности можно воспользоваться методом наискорейшего спуска. Условие сильной сходимости этой последовательности может быть выражено в терминах собственных чисел оператора R так же, как и в уравне¬ нии (3.12). Следует заметить, что для нелинейной оценки необходимо знать более высокие моменты входного процесса. ЗЛО. Иллюстративный пример Рассмотрим задачу выделения сигнала из помех. Доступная наблю¬ дению входная величина предполагается заданной в виде I(t) = S{t)-{-N(t). (3.44) Здесь S{t)— известная функция времени, a N(t) — стационарная слу¬ чайная помеха с ковариацией /?лДт). Требуется найти такой линейный фильтр, управляемый этим входом в течение конечного интервала времени Г, что отношение выходного сигнала к шуму было бы максимально в некоторый заданный момент времени t = tx. Это есть задача о согласованном фильтре. Для данной простой задачи можно получить аналитическое ре¬ шение [9]. Наша цель — сравнить точное решение и приближенное решение, получаемое методом наискорейшего спуска. Обозначим выходные величины сигнала S(t) и шума N(t) через £0(0 и N0 (0 соответственно. Тогда т Sol<i) = $ W(^)S(tl — z)dz = (W, Si), (3.45а) U Л/g («!)=<»', Wi) (3.456)
3.10] ИЛЛЮСТРАТИВНЫЙ ПРИМЕР 155 Е {N1 (*,)} = j 5 W{ii) W(т) Rn (и — т) cfa dz = (R W, W). (3.46) т т И о о Нужно минимизировать отношение р — (3'47) Ясно, что максимизация (3.47) эквивалентна минимизации Q(W) = E {Nq (0} - Х50 (h) (3.48) при соответствующем ограничении на S0(^i)- Здесь X есть множитель Лагранжа. Уравнение (3.48) удобнее записать следующим образом: Q(W) = (RW, U7> —2^-Si, wj. (3.49) Теперь на основании выше изложенной теории получаем уравне¬ ние Винера — Хопфа R W= ^S, 0 < х sS Т. (3.50) Так как речь идет об отношении сигнала к шуму р, то выбор числа X несуществен. Следовательно, уравнения (3.49) и (3.50) могут быть нормализованы Q(W) = (RW, W) — 2(Sh W) (3.51) RW=Si. (3.52) Предположим, что в этом примере функция ковариации шума имеет вид RN('z) = e-ix\. (3.53) Входной сигнал задается формулой S(0 = cos92irf. (3.54) Возьмем 7=1 и = 7. Тогда интегральное уравнение, которое нужно решить, имеет вид W(?)dx= sin-2itf. (3.55)
156 Ф У Н к Ц и О Н АЛ I > И Ы й A11 АЛ 113 [ГЛ. 3 Вообще говоря, решение такого интегрального уравнения будет содержать 5-функции на обоих концах. Однако при данном конкрет¬ ном S(t) 5-функции учитывать не нужно. Решение принадлежит L.2. Можно показать, что оптимальная весовая функция фильтра имеет вид W(t)= ~sm22rJ — 4ti2cos4^. (3.56) Минимум Q будет Qmin = — (Si, Щ=— 10,0572. Применим теперь к этой задаче метод наискорейшего спуска. Можно показать, что функция ковариации шума, заданная формулой (3.53) и рассматриваемая здесь как оператор R, яв¬ ляется положительно оп¬ ределенной [9]. Восполь¬ зуемся несколько раз уравнением (3.26). После¬ довательность п р и б л и ж е н - ных решений изображена на рис. 3.1. Некоторые' р е з у л ь т а т ы вычислений даны в таблице 1. В качестве произвольного начального приближения выбрано W0 (t) = 0. Инте¬ ресно, что уже после пер¬ вой итерации полностью выявилась требуемая фор¬ ма решения. Если мы оп¬ ределим ошибку аппрок¬ симации как щт Еп= 1 Q(Wn) (3.57) Qmin то из таблицы видно, что Eio = 5%> £-0= 1,16%. Следует заметить, что существуют и другие ме¬ тоды последовательных приближений, которые могут быть так же использованы для решения этих задач. Однако метод наискорей¬ шего спуска наиболее фундаментален и прост. Рис. 3.1. Последовательные приближения решения в примере при использовании метода наискорейшего спуска.
ЛИТЕРАТУРА 157 Таблица 1 Некоторые численные решения задачи методом наискорейшего спуска (Зшш — ю.озтг Число итераций n иг? = l — Q п) Число итераций n <>(wn) И -1-<W Qm\n Qill in 1 —0,742040 0,926218 15 —6,822408 0,321639 2 —1,427547 0,858057 20 — 7,826654 0,221786 3 —2,061064 0,795066 25 —8,512110 0,153630 4 —2,646916 0,736814 30 —8,980070 0,107100 5 —3,18820 0,682932 15 —9,299579 0,075331 6 —3,690287 0,633070 40 —9,517746 0,053639 7 —4,154406 0,586922 50 —9,768479 0,028708 8 —4,584077 0,544200 60 —9,885469 0,017075 9 . —4,981896 0,504644 70 —9,940115 0,011642 10 —5,350292 0,468014 80 —9,965699 0,009098 90 - 9,977733 0,007902 ЛИТЕРАТУРА 1. F. Riesz and В. S z-N a g у, Functional Analysis, Frederick Ungar- Publishing Co., New York, 1955. [Русский перевод: Рисс Ф. и Секс- фа л ь в и - Н а д ь Б., Лекции по функциональному анализу, ИЛ, М., 1954.] 2. А. V. Balakrishnan, Estimation and Detection Theory for Multiple Stochastic Processes, Journal of Mathematical Analysis and Applications, December, I960. 3. Канторович Л. В., Функциональный анализ и прикладная математика. Успехи мат. наук, 3, № б, 1948, стр. 89—185. 4. Е. Р а г z е n, A New Approach to the Synthesis of Optimal Smoothing and Prediction Systems, Technical Report No. 34, Applied Mathematics and Statistics Laboratories, Stanford University, July, I960. 5. A. V. Balakrishnan, A General Theory of Nonlinear Estimation Prob¬ lems in Control Systems, presented at the Symposium on Mathematical Problems in Control Systems, Washington, D. C., November, 1961. 6. A. V. Balakrishna n, An Operator Theoretic Formulation of a Class of Control Problems and a Steepest Descent Method of Solution, J. Soc. Indust. Appl. Math. Ser. A: On Control, Vol. 1, No. 2, 1963, pp. 109—127. 7. H. С. H s i e h, Synthesis of Optimum Multivariable Control Systems by the Method of Steepest Descent, IEEE Trans, on Application and Industry, Vol. 82, No. 66, 1963, pp. 125-130. 8. H. С. H s i e h, Synthesis of Adaptive Control Systems by the Function Space Methods, Ph. D. Dissertation, Department of Engineering, University of California, Los Angeles, June, 1963. 9. W. B. Davenport, Jr., and W. L. Root, An Introduction to the Theory of Random Signals and Noise, McGraw-Hill Book Company, Inc.,
158 ЛИТЕРАТУРА New York, 1958. [Русский перевод: Давенпорт В. Б. и Рут В. Л , Вве¬ дение в теорию случайных сигналов и шумов, ИЛ, М., I960.] 10. К о л м о г о р о в А. Н. и Фомин С. В., Элементы теории функций и функционального анализа, т. 1 и т. 2. Изд-во Моск. ун-та, 1954, 1960. 11. Р. К. Н a i m о s, Introduction to Hilbert Space, Chelsea Publishing Company, New York, 1957. 12. J. L. D о о b, Stochastic Processes, John Wiley and Sons, Inc., New York, 1960. [Русский перевод: Дуб Дж., Вероятностные процессы, ИЛ, М., 1956.] 13. G. J a m е s and R. James, Editors, Mathematics Dictionary, van Nostrand, Princeton, New Jersey, 1959. 14. Красносельский М. А., Топологические методы в теории нелиней¬ ных интегральных уравнений, Гостехиздат, М., 1956.
ГЛABA 4 ФОРМИРУЮЩИЕ ФИЛЬТРЫ ДЛЯ СЛУЧАЙНЫХ ПРОЦЕССОВ Стир (Е. В. Stear) Возможность представления, в некотором подходящем статисти¬ ческом смысле, данного случайного процесса через другой случайный процесс с более простой вероятностной структурой играла и про¬ должает играть важную роль в развитии общей теории случайных процессов и в ее приложениях. В качестве примера здесь можно привести хорошо известную теорему о спектральном представлении стационарных случайных про¬ цессов. Эта теорема дает гармоническое разложение (т. е. разложе¬ ние Фурье) выборочной функции непрерывного в среднеквадратичном стационарного случайного процесса. Причем различные компоненты (Фурье) этого разложения некоррелированы. Если сами компоненты гармонического разложения рассмотреть как случайный процесс, то ясно, что оно на самом деле является представлением указанного выше типа. Гармоническое представление очень полезно тем, что позволяет применять мощные методы гармонического анализа к изу¬ чению преобразований (например, фильтрации) случайных процессов. Причем некоррелированность компонент гармонического разложения имеет здесь решающее значение. Другое полезное представление указанного выше типа для дан¬ ного случайного процесса получается в результате линейной «фильт¬ рации» «белого шума». Случайные процессы, получающиеся таким образом, часто называются (особенно в математической литературе) процессами со скользящим средним. Полезность этого представления также связана с тем фактом, что компоненты «белого шума», т. е. его значения, в различные моменты времени некоррелированы. Устрой¬ ство, выполняющее операцию линейной «фильтрации», которая поз¬ воляет получить заданный случайный процесс из «белого шума», часто называют формирующим фильтром, и мы также будем придерживаться этого названия. Употребление термина «формирующий фильтр» объяс¬ няется тем, что линейную фильтрацию можно рассматривать как
160 ФОРМИРУЮЩИЕ ФИЛЬТРЫ ДЛЯ СЛУЧАЙНЫХ ПРОЦЕССОВ [ГЛ. 4 операцию формирования спектра, т. е. корреляций между компонентами гармонического разложения, получаемого в случае стационарных процессов с помощью «белого шума». Задачу нахождения формирующего фильтра для данного случай¬ ного процесса естественно просто называть задачей определения формирующего фильтра. Именно этой задаче и посвяшается настоящая глава. В общем случае, когда данный случайный процесс имеет произ¬ вольную непрерывную корреляционную функцию, задача определения формирующего фильтра не решена. Но при некоторых удовлетвори¬ тельных ограничениях на класс допустимых корреляционных функций были получены довольно определенные результаты. Эти результаты излагаются в настоящей главе. Из дальнейшего будет видно, что теорема о спектральном представлении играет главную роль при решении задачи определения формирующего фильтра для стационар¬ ных случайных процессов. 4.1. Причины, побуждающие заниматься задачей определения формирующего фильтра С точки зрения инженера по автоматическому регулированию к решению задачи определения формирующего фильтра главным образом приводят, во-первых, желание моделировать случайные про¬ цессы с заданными корреляционными функциями, во-вторых, желание решать задачи линейной среднеквадратичной фильтрации и экстрапо¬ ляции и, в третьих, желание идентифицировать линейные системы, используя в качестве пробного сигнала «белый шум». Для того чтобы промоделировать случайный процесс с заданной корреляционной функцией, источник «белого шума» соединяется с устройством, выполняющим функцию формирующего фильтра. Но чтобы получить процесс с желаемой корреляционной функцией, оче¬ видно, требуется знать решение соответствующей задачи определения формирующего фильтра. При решении задач линейной среднеквадратичной фильтрации и экстраполяции традиционными методами приходится решать интеграль¬ ное уравнение Винера — Хопфа ^i) = 5 ^Ч^1> т)Гхх (V^) т где корреляционные функции ГХу(^> t\) и Гхх(г> h) заданы, а весо¬ вая функция W{tb т) наилучшего в смысле минимума среднего квад¬ рата ошибки фильтра или экстраполятора является искомой. Если наблюдаемый случайный процесс {X (t), t 7j является «белым шу¬ мом», то Гхх (т, £2) = о (т— Е2) и решение уравнения Винера—Хопфа
4.2] ИСТОРИЧЕСКИЙ ОЧЕРК 161 получается сразу W(th t2) = Гхг(Г2, ^). Отмеченный факт приводит к мысли о представлении наблюдаемого случайного процесса через «белый шум» с помощью формирующего фильтра. При этом мы обращаемся с «белым шумом» так, как если бы он был наблюдаемым случайным процессом. Решение соответствующего уравнения Винера — Хопфа теперь получается немедленно, а уже из него нетрудно полу¬ чить W(th т). В этом по существу заключается метод Боде — Шен¬ нона решения таких задач среднеквадратичной фильтрации и экстра¬ поляции. То, что этот метод требует решения соответствующей задачи определения формирующего фильтра, не вызывает сомнений. Спе¬ циальный вид решения задачи определения формирующего фильтра требуется также и для более нового метода решения задачи линейной среднеквадратичной фильтрации и экстраполяции, предложенного Калмэном и Бьюси. Отсутствие корреляции между компонентами «белого шума» чрезвычайно важно для обоих упомянутых методов. Наконец, доминирующая роль задачи определения формирующего фильтра для идентификации линейных систем (посредством подачи «белого шума» на их входы и определения корреляционных функций, получающихся в результате выходных сигналов) очевидна. 4.2. Исторический очерк Первый значительный результат, касающийся задачи определения формирующего фильтра, был, по-видимому, получен Вольдом [1] для стационарных процессов *), зависящих от дискретного параметра, и являлся частью его фундаментальной теоремы о разложении. А. Н. Колмогоров [2, 3, 4] рассмотрел результаты этой теоремы Вольда с аналитической точки зрения и получил для стационарных процессов, зависящих от дискретного параметра, некоторые новые теоремы, часть из которых опять имеет отношение к задаче опреде¬ ления формирующего фильтра. Независимо Винер [5] получил те же самые результаты, что и Колмогоров, для стационарных процессов, зависящих от дискретного параметра и имеющих абсолютно непре¬ рывную спектральную функцию, и затем обобщил эти результаты на стационарные процессы с абсолютно непрерывной спектральной функ¬ цией, зависящие от непрерывного параметра. Таким образом, часть результатов Винера содержала первое решение задачи определения формирующего фильтра для стационарных процессов, зависящих от непрерывного параметра. Затем Ханнер [б] и Карунен [7] получили различными методами непрерывный аналог теоремы Вольда о разложе¬ нии, которая частично опять имеет отношение к задаче определения *) «Стационарность» здесь всегда понимается как «стационарность в широком смысле». Термин «процессы» используется в этой главе вместо более громоздкой фразы «случайные процессы». 6 п/р Леондеса —
162 ФОРМИРУЮЩИЕ ФИЛЬТРЫ ДЛЯ СЛУЧАЙНЫХ ПРОЦЕССОВ (ГЛ. 4 формирующего фильтра. Боде и Шеннон [8] при своем упрощен¬ ном эвристическом выводе результатов винеровской теории линейной среднеквадратичной фильтрации и экстраполяции отметили, что реше¬ ние задачи определения формирующего фильтра является весьма важ¬ ной частью их метода. Следующий значительный результат, касаю¬ щийся задачи определения формирующего фильтра, был получен Дарлингтоном [9] для нестационарных процессов путем обобщения метода факторизации рационального спектра, применяемого для ста¬ ционарных процессов. Ранее менее общий результат в этом направ¬ лении был получен Дольфом и Вудбари [10]. Двумя месяцами позд¬ нее Дарлингтона Батков [11] опубликовал статью, в которой были представлены три метода решения задачи определения формирующего фильтра, включая один алгебраический. Алгебраический метод Баткова основан на использовании соотношений между различными частными производными от корреляционных функций, зависящих от непрерыв¬ ного параметра нестационарных случайных процессов, принадлежа¬ щих некоторому классу. На самом деле этот метод, как указывается в дальнейшем, пригоден только для довольно специального подкласса объявленного класса. Леонов [12] предложил довольно хорошее математическое решение задачи определения формирующего фильтра для процессов, зависящих от непрерывного параметра (как стацио¬ нарных, так и нестационарных) в терминах разложений по ортого-; нальным функциям. Наконец, Калмэн [13] недавно получил хорошую теорему пред¬ ставления для гауссовских марковских процессов, которая имеет значительную практическую ценность как для стационарных, так и для нестационарных процессов. 4.3. Предварительные сведения из теории случайных процессов. Постановка задачи В этой главе случайный процесс определяется как семейство случайных величин {X (t), t 7}, где t — параметр семейства, а Т — область его изменения. На практике t обычно является «временем», а Т «временным интервалом». В тех случаях, когда структура мно¬ жества Т очевидна из контекста, будет использоваться более корот¬ кое обозначение {X (£)}. Без фигурных скобок X (t) будет использо¬ ваться для обозначения выборочной функции случайного процесса {X (t), t Г}. Предполагается, что все рассматриваемые в этой главе процессы имеют, если только не указано противное, нулевое среднее (т. е. EX{t) — 0 для всех t Т). Корреляционная функция YXY{t^ t{) определяется как Е [-Y(^) У где У (^) комплексно-сопряженное к У {t\). Далее предполагается, что все процессы, за исключением «белого шума», непрерывны в среднеквадратичном, т. е. E\X(t) —
4.31 ТЕОРИЯ СЛУЧАЙНЫХ ПРОЦЕССОВ — ЛД$) |2 -> 0 при ] t — s | —> 0 для всех ty s 7. Отсюда вытекает, что rxxfe^i) непрерывна на 7 X 7. Все пределы случайных вели¬ чин и, в частности, те, которые встречаются при определении произ¬ водной и интеграла от случайного процесса, понимаются как пределы в среднеквадратичном и равенство X(t)= Z(t), где X(t) и Z(t) — случайные величины, означает, если только не указано противное, что E\X(t)—Z(t)\1 — 0. Для более подробного ознакомления с исчи¬ слением в среднеквадратичном читатель отсылается к книге Лоева [ 14J (стр. 486 — 506). Процесс {X(t), t 7] называется стационарным в широком смысле, если ГХх(^> ^i) является для всех tb ^^7 только функцией t2— tv В противном случае он называется нестаци¬ онарным. В дальнейшем для удобства фраза «в широком смысле» будет опускаться. Процесс {Z(t), t ^ 7} называется процессом с орто¬ гональными приращениями, если 7:([Z(^4)—Z(t^)\ [Z(t%)—Z(^)|) = 0 для всех th tb ^ 7 таких, что t3 ^ t{. Процессы с орто¬ гональными приращениями обладают тем свойством, что их «произ¬ водные» можно формально рассматривать как «белые шумы». Если E\Z(t2)—Z(^) |2 зависит только t.2 —1\ для всех th £>(^7, то говорят, что \Z(t)) имеет стационарные приращения, и его «производ¬ ная» может рассматриваться как стационарный «белый шум». Принимая во внимание вышеизложенное, задачу определения формирующего фильтра можно сформулировать следующим образом. Дан действительный непрерывный в среднеквадратичном процесс {Z(0> ^1* Показать, что {К(0} может быть представлен в виде у (0 = $ W(t, x)U(x)dx, I где импульсная переходная функция формирующего фильтра W(t, т) непрерывна, a {U(t\ t 7}—стационарный «белый шум», и дать конструктивный метод нахождения W(t, т) (или соответствующего дифференциального уравнения, если таковое существует). В некоторых случаях типа тех, в которых существует дифференциальное уравнение формирующего фильтра, для определенности поставленной задачи возможно потребуется добавить случайные начальные условия п 2 ?*(*) Уь представляющие собой линейную комбинацию действитель- i ~ 1 пых случайных величин К,-. Функции qt (t) здесь по предположению непрерывны. Если определить W(t, i) как характеристику фильтра, обратного к W(ty т), то посредством прямых вычислений можно формально по¬ казать, что E\Y(t)—jj W(tf т) U (z) d т |2 = 0, если положить U(t) = г = \ (t, z) У ('z)d'z, и что W{t, т) удовлетворяет интегральному г 6*
164 ФОРМИРУЮЩИЕ ФИЛЬТРЫ ДЛЯ СЛУЧАЙНЫХ ПРОЦЕССОВ [ГЛ. 4 уравнению ГууУъ *0 = 5 W(tb т) W(t{, т)dz. (4.1) г После этого задача определения формирующего фильтра сводится к решению интегрального уравнения (4.1). Но поскольку (t, т), как правило, не существует в классе обычных функций и интеграл ^ т) Y(z)dz не сходится в среднеквадратичном даже при соот- т ветствующей интерпретации W~x (t, т), написанные выше выражения не имеют строгого математического смысла. Такой смысл им можно придать, если рассматривать W~l (t, т) как обобщенную функцию [15], а § W'l(tf т) Y(z)dz как обобщенный случайный процесс [16]. При т этом W(t, т) будет опять решением интегрального уравнения (4.1). В свете сделанных пояснений задачу определения формирующего фильтра можно свести к решению интегрального уравнения (4.1). Если для определенности задачи требуется добавить случайные начальные условия, задаваемые случайными величинами Yt, то (4.1) заменяется на уравнение п п где Tij = Е Yi Yj. Это и есть та формулировка задачи определения формирующего фильтра, которая будет использоваться в дальней¬ шем. Следует отметить, что такая формулировка требует только зна¬ ния корреляционной функции ГYY{th t2), что является следствием того, что все рассматриваемые равенства имеют место только в средне¬ квадратичном. Задачу определения формирующего фильтра можно рассмотреть и в случае дискретного параметра (Т—счетное множество). Однако соответствующие результаты приводиться не будут, поскольку они полностью аналогичны тем, которые получены здесь для случая не¬ прерывного параметра. 4.4. Классические результаты для скалярных стационарных процессов Мы не будем указывать имен авторов, как это было сделано в историческом очерке, представленных ниже результатов для ска¬ лярных стационарных процессов, поскольку в этом нет какой-либо необходимости. Подробный вывод приводимых далее результатов, которые довольно хорошо отражают существо дела, можно прочесть
4.41 КЛАССИЧЕСКИЕ РЕЗУЛЬТАТЫ ДЛЯ СКАЛЯРНЫХ ПРОЦЕССОВ 165 в книгах Дуба [ 171 и Гренандера и Розенблага [18]. Рассматривается только случай непрерывного времени и естественно Г=(—оо, со). Если случайный процесс {Р(0}*) является стационарным и непре¬ рывным в среднеквадратичном, он имеет спектральное представление оо Y(t)= $ eiiKkdZ (К). (4.1) —ОО Здесь процесс Z(X) имеет ортогональные приращения и E\dZ(k)\2 — = dFy(ty- Функция Fy(ty называется спектральной функцией про¬ цесса {/(0} и оо г,х(.) = £[К(г + т)Тчо]= 5 ЛЮ- (4.2) —со Кроме того, Fy(X) не убывает и, поскольку оо S rf/7rM = ryy(0)<oo, (4.3) — ОО ЕУ(Х) имеет также ограниченную вариацию. Следовательно, Fy(X) может быть представлена в виде суммы трех неубывающих функций: Fy(X) = FYl (X) + Fy2 (X) + FVi (X), (4.4) где Fyl(X) — скачкообразная часть EV(X), Fys(X)—абсолютно непре¬ рывная часть Е>(Х) и Fy?> (У)— непрерывная и сингулярная часть Fy(X). Этому разложению ЕУ(Х) соответствует разложение {У (t)) на три взаимно ортогональных процесса {Fi (0}> {^(0} и {^з(0} со спект¬ ральными функциями Fy1(X), F\s(X) и EV;i(X) соответственно. Если {Y(t)) поступает на вход устойчивой линейной системы, частотная характеристика которой G(X)**) удовлетворяет условию оо $ | О (X) j‘2 dF), (X) < оо, (4.5) —со то выходной сигнал системы {АД^)} будет непрерывным в средне¬ квадратичном стационарным процессом. Его спектральная функция Fx(X) определяется формулой х FxW= $ \G(k)l*dFy(X). (4.6) *) По предположению {Y (t)} принимает действительные значения. **) G(X) соответствует функции С (X) в [17].
166 ФОРМИРУЮЩИЕ ФИЛЬТРЫ ДЛЯ СЛУЧАЙНЫХ ПРОЦЕССОВ [ГЛ. 4 Следует отметить, что, вообще, не требуется, чтобы О(Х) прйнадле- оо жала L2 (т. е. не требуется, чтобы jj | G(k) \2ciX<^ оо. Из (4.6) сле- — со дует, что Fx(F) будет абсолютно непрерывной, если таковой является FyQО- Если FY(k) абсолютно непрерывна и |/K(X) |2 = F'(X), то (4.1) можно заменить равенством оо К(0= S е^‘/у (X)dZ(K), (4.7) — ОО где {Z(X)} имеет ортогональные приращения и Е | dZ(X) \2 — dX. С другой стороны, предположим, что процесс {Y(t)) порождается процессом {V(t)\ в соответствии с уравнением оо Y(t)= ^ W{i)dV(t — T), (4.8) —ОО где {1/(0} имеет ортогональные приращения, E\dV (f)\2 = dt и оо \ I VtZ(т) |2 dx оо. Тогда — оо оо Гуу (tb t2) =5 Wtfi — 0) W(t.2 — 0) <й. (4.9) —CO Из (4.9) следует, что {У (0} стационарен и непрерывен в средне¬ квадратичном. Кроме того, применяя преобразование Фурье к обеим частям равенства (4.9), легко показать, что А оо оо Fy(l)= \ |G(X)|*dX< J | G (X) j2 rfX = ^ | Щт)|*<*т. (4.10) —оо —оо —ОО Здесь G(k) — преобразование Фурье W(t)*), и, следовательно, FY(ty абсолютно непрерывна и FY(F) = | G(A) |2. Приращения {V{t)}> рас¬ сматриваемые формально, задаются формулой V{t2)—V{h) = \U{t)dt, (4.11) о где {U(t)} — «белый шум». Таким образом, (4.8) представляет отклик линейной системы с весовой функцией U7(t) на «белый шум», а ра¬ венства (4.9) и (4.10) представляют хорошо известные результаты, обычно получаемые инженерами менее строгим путем **). *) Здесь применяется 12-теория или теория Планшереля преобразова¬ ний Фурье. **) Обычный инженерный подход можно также строго обосновать, если ввести в рассмотрение обобщенные функции и процессы.
4.4) КЛАССИЧЕСКИЕ РЕЗУЛЬТАТЫ ДЛЯ СКАЛЯРНЫХ ПРОЦЕССОВ 167 В качестве следствия приведенных выше результатов, при условии отказа от требования физической возможности формирующего фильт¬ ра, можно сформулировать простое необходимое и достаточное усло¬ вие существования решения задачи определения формирующего фильт¬ ра для непрерывных в среднеквадратичном стационарных процессов. Если спектральная функция Fy(k) соответствует корреляционной функ¬ ции Ггу(т) процесса {У (()}, то {К(0} может быть представлен в виде (4.8) тогда и только тогда, когда Fy(l) абсолютно непре¬ рывна. Более того, любую устойчивую систему, частная характери¬ стика которой удовлетворяет равенству | G(X) р2 = (X), почти всюду (п. в.) можно использовать в качестве формирующего фильтра для процесса {У(Щ. Вообще, даже если Fy(^) не абсолютно непрерывна, то сказанное выше все равно применимо к абсолютно непрерывной части Fy{k), т. е. к Fy2(k) в разложении (4.4). Если не отказываться от требования физической возможности, то (4.8) будет иметь место при несколько более сильных ограничениях. Много лег назад Пэли и Винер [19] (стр. 32, теорема 12) показали, что если J |G(X)|2£/X<^ <^оо*), где G(X)—частотная характеристика устойчивой линейной системы, то эта система физически возможна тогда и только тогда, когда Если же имеет место равенство \ G (к) \2 = F'y (к), то для физической возможности рассматриваемой линейной системы (формирующего фильтра) необходимо дополнительное условие Таким образом, для того чтобы формирующий фильтр был физи¬ чески возможным, Fy(ty должна быть абсолютно непрерывной и удов¬ летворять условию (4.13). Поскольку приведенные выше ограниче¬ ния на G(X) являются ограничениями только на ее абсолютную вели¬ чину, ясно, что они определяют формирующий фильтр неоднозначно. Для того чтобы определить формирующий фильтр единственным обра¬ зом (т. е. определить его весовую функцию однозначно всюду, за исключением множества меры нуль), желательно потребовать, чтобы *) Предположение непрерывности Ууу (т) гарантирует ограниченность оо —со оо (4.12) —ОО (4.13) ОО — оо
168 ФОРМИРУЮЩИЕ ФИЛЬТРЫ ДЛЯ СЛУЧАЙНЫХ ПРОЦЕССОВ [ГЛ. 4 он был минимально-фазовым *), т. е. G(X)=£0 для ImX<^0. Такая G(X) определяется следующим интегралом (с потерей фазы): О (X) = ехр 1 £ (1-1- А 2 nl ) (X- (1 + Хш) log F'y (w) со) (1 -|- со2) da). (4.14) Рассмотрим один важный частный случай, когда Fy(F) является рациональной функцией X2. Тогда G(X) превращается в рациональную функцию, полюса и нули которой находятся в области ImX^O, и формирующий фильтр можно описать обыкновенным дифференциаль¬ ным уравнением с постоянными коэффициентами, причем эти коэф¬ фициенты совпадают с коэффициентами полиномов G(X). Хорошо известно, что в этом случае применения формулы (4.14) для получе¬ ния G(X) можно избежать посредством «простой» факторизации поли¬ номов Fy(k). Именно этот метод рассматривается во всех вводных инженерных учебниках по теории случайных процессов. На этом, если исключить некоторые краткие замечания, встре¬ чающиеся в соответствующих местах в оставшейся части главы, мы заканчиваем рассмотрение стационарных процессов **). Ясно, что для непрерывных в среднеквадратичном скалярных стационарных процессов и Т=(—сю, со) задача определения фор¬ мирующего фильтра получила свое окончательное решение до 1950 г. 4.5. Обобщение метода «факторизации рационального спектра» на нестационарные процессы Операцию факторизации рационального спектра в принципе можно обобщить и применить к некоторому ограниченному классу неста¬ ционарных процессов. Основные результаты здесь принадлежат Дар¬ лингтону, и мы приведем их ниже. Однако сначала изложим некото¬ рые необходимые для этого факты. Если W(t, т) обозначает весовую функцию линейного фильтра, на вход которого поступает «белый шум», то корреляционная функ¬ ция VYy{th t2) выходного процесса {Е(0}, когда она существует, выра¬ жается формулой оо г Mil, к)= 5 (4.15) — ОО *) Фильтр, обратный к физически возможному и минимально-фазовому фильтру, является физически возможным и устойчивым. Это важно для при¬ менений в линейной среднеквадратичной теории фильтрации и экстрапо¬ ляции. **) Задача определения формирующего фильтра, по-видимому, все еще не решена для стационарных процессов, которые не непрерывны в средне¬ квадратичном.
4.5] МЕТОД «ФАКТОРИЗАЦИИ РАЦИОНАЛЬНОГО СПЕКТРА* 169 Заметим, что, поскольку нижний предел этого интеграла равен —оо, молчаливо предполагается, что «белый шум» поступал на вход фильтра непрерывно в течение всего бесконечного прошлого. Если рассматриваемый фильтр является физически возможным, то W(t, т) = 0 для i^>t, и верхний предел интеграла в равенстве (4.15) можно за¬ менить на min (tht£). Обозначая символом Wa(t,fz) весовую функцию сопряженного фильтра, имеем Wa (t, т) = W(т, t\ и TYY(tb t%) может быть теперь эквивалентным образом выражена формулой оо Гуy(tu h)= $ W(t„ х) Г (X, *j)dx. (4.16) — ОО Поскольку согласно (4.16) корреляционная функция Гh) является сверткой двух весовых функций, ее можно интерпретировать как весовую функцию физически невозможной (самосопряженной) системы, состоящей из первоначального фильтра и последовательно соединен¬ ного с ним сопряженного фильтра. Когда рассматриваемый фильтр полностью описывается линейным дифференциальным уравнением конечного порядка, его реакция V связана с воздействием Е выражением вида В (p,t)V (t) = И (f) А (р, t) Е (0, (4.17) где B(p,t) и A(p,t) — полиномы по р = ^с коэффициентами, зави¬ сящими от времени: в (р, о =рп + {t)pn-' + ... -f (0, | A(p, t)—f)mbm_i(t)pm~’1 -)-••• ~bao(0> J a H(t)—скалярный множитель, также зависящий от времени. Любой набор п линейно независимых решений, скажем i— 1, ..., я, уравнения В(р, t) V(t) = 0 (4.19) образует набор базисных функций (бф) для В(р, t) и для фильтра. Аналогично любой набор т линейно независимых решений уравнения А(р, t)E(t) = 0 (4.20) образуют набор базисных функций для А(р> t). Эти функции назы¬ ваются функциями нулевой реакции (фнр). Если фильтр имеет по¬ стоянные параметры (стационарен), то бф и фнр *) имеют экспонен- s t циальный вид е а, где — обычные полюса и нули передаточной функции фильтра, бф и фнр нестационарных систем также играют важную роль, даже если их и нельзя представить с помощью про¬ стых коэффициентов, подобных 53. *) Или их линейная комбинация.
170 ФОРМИРУЮЩИЕ ФИЛЬТРЫ ДЛЯ СЛУЧАЙНЫХ ПРОЦЕССОВ [ГЛ. 4 . Когда два фильтра, каждый из которых полностью описывается дифференциальным уравнением конечного порядка, соединены после¬ довательно, то получающийся в результате фильтр полностью опи¬ сывается дифференциальным уравнением конечного порядка, соответ¬ ствующим «произведению» дифференциальных уравнений этих двух фильтров. В терминах операторов упомянутые «произведения» можно представить как *) где BV — HAE— дифференциальное уравнение общего фильтра. Опе¬ раторы В, А и И можно получить из Въ Въ Аь А2, Н\ и Н2 по¬ средством дифференцирования и алгебраических операций **). Фор¬ мально это соответствует свертке весовых функций этих двух дан¬ ных фильтров. Аналогично сумме весовых функций формально соот¬ ветствует подходящим образом определенная «сумма» соответствую¬ щих им дифференциальных уравнений: Операторы В и А и скалярный множитель И также можно полу¬ чить из В\, Вь Ах, Аъ Их и посредством дифференцирования и алгебраических операций ***). Далее, бф В состоят из бф В\ и Я2, но бф А (фнр «суммы») не связаны каким-либо простым путем с бф А\ и А2* Возвращаясь к фильтру, описываемому уравнением (4.17), отме¬ тим, что фильтр, сопряженный к нему, полностью описывается диф¬ ференциальным уравнением сопряженным к уравнению (4.17). Операторы £*(/?,£) и А7(/>, t) легко определяются из B(pyt) и A(p,t). Когда рассматриваемый фильтр физически возможен, его весовая функция, соответствующая уравне¬ нию (4.17), может быть выражена в виде BxVx=HxAlE) BvV=H2A.1Vx, BV = HAE, (4.21) Вх Vx = НхАхЕ, В2 V* = НъАъЕ, V=Vi-\-Vif BV — HAE. (4.22) (p, t) V(t) = ±H (t) /Г (P, t) E (t), (2.23) ( n (4.24) *) Аргументы опущены для удобства обозначений. **) Подробности см. в главе 1 этой книги. ***) Подробности см. в главе 1 этой книги.
4.5) МЕТОД «ФАКТОРИЗАЦИИ РАЦИОНАЛЬНОГО СПЕКТРА» 171 а весовая функция физически невозможного фильтра, соответству¬ ющая уравнению (4.23), — в виде т) = '<■ i = 1 (4.25) О, t> «Произведение» уравнений (4.17) и (4.23), соответствующее свертке (4.16) весовых функций W(t, г) и Wx(t, т), записывается как (4.26) Из рассмотрений, следующих за уравнением (4.16), ясно, что весовой функцией фильтра, описываемого уравнением (4.26), является ГУк(^ь t2), которая с помощью уравнений (4.16), (4.24) и (4.25) может быть за¬ писана в виде У — 2twQ'w' '■>'* i= 1 п (4.27) 2тт '■<'» i= 1 Симметрия Гyy{tb t2) выражает тог факт, что уравнение (4.26) явля¬ ется самосопряженным уравнением. Принимая во внимание вышеизложенные результаты, задачу опре¬ деления формирующего фильтра в том виде, в котором она встреча¬ ется в модели Боде — Шеннона, можно решить, если предположить, что «сигнал» 5(0 и «шум» N(t) получаются в результате прохож¬ дения «белых шумов», порожденных двумя некоррелированными источниками через физически возможные фильтры, описываемые линей¬ ными дифференциальными уравнениями конечного порядка. Если бф и фнр этих фильтров известны, то их весовые функции Ws(t, т) и W/v(0 т) легко определяются, а Гss(tf т) и IVa4^ т) могут быть найдены с помощью формулы (4.16). Соответствующие дифферен¬ циальные уравнения и сопряженные к ним также легко определяются, как это было описано выше (даже если бф и фнр фильтров, порож¬ дающих «сигнал» и «шум», неизвестны). Если F = S-\- N, то 1, t2) = Tss(t\y t^)-{-rNN{th t%), и дифференциальное уравнение вида (4.26), которому соответствует весовая функция TFF(th t2), можно найти из самой ГFF(th t2) (или «суммированием» дифференциальных уравнений, соответствующих Tss(tb t2) и ГдглЧ^ь t2), если TFF(tl} t2) неизвестна).
172 ФОРМИРУЮЩИЕ ФИЛЬТРЫ ДЛЯ СЛУЧАЙНЫХ ПРОЦЕССОВ [ГЛ. 4 Таким образом, мы определяем Bs (р, 0 V(t) = ± Ms (О As (р, t) Е (0, | BN(p, t) V(t) = ±H%(t) AN(Pi t)E{t\ (4.28) BF(P> *) V(£) = ±HHt)AF(p, f)E{t). ) Число бф Вр(р, t), Bs(p, t) и BN(p, t) четно, половина из них — ба¬ зисные функции систем, порождающих S(t) и N(t), а.другая поло¬ вина — бф соответствующих физически невозможных сопряженных фильтров. С другой стороны, число бф Af(p> t) опять четно, но между ними и бф As(p, t) и AN(p, t) нет простой связи. Бф AF(p, ~t) следует искать как решения уравнения АР(р, t)E{t) = 0. (4.29) Решению уравнения (4.29) в стационарном случае соответствует вы¬ числение нулей рациональной спектральной плотности процесса «сиг¬ нал плюс шум». В этом случае спектральная плотность F получается в результате сложения спектральных плотностей S и N (что соот¬ ветствует образованию суммы дифференциальных уравнений для ^ss(tь U) и rW(^i, У)- При таком сложении полюса сохраняются, а нули следует вычислять как нули некоторого полинома (что соот¬ ветствует нахождению решения уравнения (4.29)). Теперь задача определения формирующего фильтра, как она рас¬ смотрена здесь, сводится к нахождению весовой функции WF(t, т) такой, что фильтры, соответствующие как WF(t, т), так и обратной к ней, физически возможны и ведут себя подходящим образом (т. е. устойчивы) при т —>• — оо для всех t, и такой, что оо *,)= 5 WF(tb х) tjdx. (4.30) — ОО Для того чтобы сделать эго, найдем бф Вр(р, t) из «известных» бф Bs(P> 0 и BF(p, t) и бф Ар(р, t) путем решения уравнения (4.29). Далее задача заключается в том, чтобы половину из них отнести к №>(/, т), а оставшуюся половину — к Wrp{ty т) так, чтобы требова¬ ния, предъявленные выше к Wp(t, т), были по возможности выпол¬ нены. Можно показать, что эта задача имеет решение при условии, что коэффициенты дифференциальных уравнений фильтров, порож¬ дающих 6* и Л/, регулярны при t = со и являются периодическими или медленно меняются. Тогда бф либо становятся экспоненциальными при tz*i оо, либо произведениями экспоненциальных на периоди¬ ческие коэффициенты, либо они ограничены экспоненциальными функ¬ циями при t± оо. Те из бф, которые соответствуют экспонентам «V с Re vS, 0, относятся к WF(t, т) точно так же, как и в стацио¬
4.6] ДАЛЬНЕЙШЕЕ ОБОБЩЕНИЕ РЕЗУЛЬТАТОВ 173 нарном случае. Получаемая таким образом WF(ty т) будет иметь тре¬ буемые свойства. Прежде чем перейти к следующему параграфу, отметим, что в этом параграфе предполагалось, что Т — (—оо, оо), а относительно Tpp{tb Ч) было известно, что она равна сумме корреляционных функ¬ ций двух процессов, получающихся в результате прохождения «белых шумов», порождаемых двумя некоррелированными источниками, через физически возможные фильтры, описываемые линейными дифференциаль¬ ными уравнениями конечного порядка. Вследствие предположения об устойчивости формирующих фильтров S и N и выбора интервала Т ничего не было сказано о начальных условиях для ГFp (th t2) и ГлrN(th t2). Представляется, что изложенный метод применим более широко, чем это было показано, хотя точная область его применения, по-видимому, в настоящее время неизвестна, и в свете работы Калмэна [13] ее вряд ли стоит определять. 4.6 Дальнейшее обобщение результатов Выводы предыдущего параграфа можно далее обобщить несколько другим путем. Соответствующий результат здесь принадлежит Бат- кову [11] и приводится в основном ради полноты изложения. Если предположить, что процесс {^(0} имеет корреляционную функцию ^) = i = 1 п (4.31) i = 1 и если qt{f) имеет n непрерывных производных, то qi{t) можно рас¬ сматривать как базисные функции дифференциального оператора Б(р, t) в уравнении (4.19). Далее bi(t) в (4.18) можно легко найти из qt{t) путем хорошо известных алгебраических операций [20] (тео¬ рема 6.2). Теперь задача заключается в том, чтобы найти коэффи¬ циенты a,i(t) дифференциального оператора А(ру t). Если предполо¬ жить, что Гуу(^1> U) такова, что ее можно найти с помощью ai(t) из (4.31), то В(р, tjTyyitb <в)=о, в (р, ti)rYY(tu t%) = А (р, ti) W(tb ft), (4.32) где W{t, х) = Ах(р, x)G(t, т), В(р, t)G(t, — - т). (4.33) (4.34)
174 ФОРМИРУЮЩИЕ ФИЛЬТРЫ ДЛЯ СЛУЧАЙНЫХ ПРОЦЕССОВ (ГЛ. 4 Используя равенства (4.33) и (4.34), (4.32) можно переписать как В (р, ti) Г (*„ к) = А (р, tx) Ла (/?, ^ G (t9, tx\ t9 > (4.35) Так как G(f2> можно также найти путем алгебраических операций, коль скоро известны qi(t\ в уравнении (4.35) остается неизвестным только произведение операторов А (р, t)Aa(p, t\ которое из него оп¬ ределяется. Теперь остается разложить произведение Л(р, t)Aa(pf t) на два сопряженных сомножителя. Как указывает Катков, это сделать очень трудно, за исключением случая скалярного А (р, t), в котором никаких трудностей не возникает. Конечно, в этом последнем случае решение было известно уже давно [10]. Было замечено, что задача факторизации А(р, t)Aa(p, t) в точности является задачей факториза¬ ции Ар(р> t) в работе Дарлингтона. Вследствие указанной трудности Батков [11] предложил другой метод определения а*(0*)> основанный на вычислении скачков част¬ ных производных от Гyy(^i, t9) при ti — tz. Батков выводит уравне¬ ние (41), которое согласно его утверждению позволяет получить a^t) последовательно, начиная с am(t) и кончая a0(t), посредством алгеб¬ раических операций. Однако если тщательно произвести все вычисле¬ ния, предложенные в [11], то оказывается, что каждое последующее из рекуррентных уравнений сильно зависит от предыдущих, вследст¬ вие чего этот рекуррентный метод несостоятелен. Батков не заметил указанной зависимости, потому что он не проделал подробно соот¬ ветствующие вычисления, и рассмотрел только простые примеры. Все попытки модифицировать метод Баткова приводили к системам нели¬ нейных дифференциальных уравнений (типа Рикатти) относительно di(t), а не к алгебраическим уравнениям, как этого хотелось бы. 4.7. Некоторые фундаментальные результаты для нестационарных процессов Хорошо известно, что для процессов с произвольной корреляцион¬ ной функцией физически возможного фильтра, вообще говоря, не су¬ ществует. Например, как было указано в § 4.4, в стационарном слу¬ чае для физической возможности формирующего фильтра необходимо, чтобы его частотная характеристика была абсолютно непрерывна и удовлетворяла критерию Пэли — Винера (4.13). В нестационарном случае, по-видимому, не существует никакого простого критерия, ана¬ логичного тому, который был получен Пэли и Винером. Учитывая трудность рассматриваемой задачи, этот факт не слишком удивите¬ лен. В данном параграфе вопрос существования физически возможного формирующего фильтра рассматривается для класса разложимых корреляционных функций. Будет показано, что если функция этого *) Наши a-t{t) — это bi{t) у Баткова, и наоборот.
4.7] НЕКОТОРЫЕ РЕЗУЛЬТАТЫ ДЛЯ НЕСТАЦИОНАРНЫХ ПРОЦЕССОВ 175 класса удовлетворяет одному замечательно простому условию, то физически возможный фильтр существует. Кроме того, мы также обсудим вопрос о единственности формирующего фильтра. Все эти результаты рассматриваются в недавнем отчете [21]. Ограничиться рассмотрением разложимых корреляционных функ¬ ций представляется разумным с той точки зрения, что в этом случае получающийся формирующий фильтр довольно легко реализовать физически. Эго, конечно, важно для инженерных приложений. Довольно интересно и поучительно изучить, как обстояло дело с физической возможностью в двух предыдущих параграфах. Дарлингтон, по-видимому, вполне осознавал проблему физической возможности и в действительности дал на нее ответ в двух довольно ограничительных случаях. Ограничительных в том смысле, что он предполагал физическую возможность лежащих в основе всех рас¬ смотрений формирующих фильтров сигнала и шума и периодичность или регулярность на со коэффициентов соответствующих дифферен¬ циальных уравнений. Ясно, что такой ответ довольно далек от желае¬ мого. Батков просто избежал обсуждения вопроса физической воз¬ можности и связанных с этим ограничений, неявно предполагая, что рассматриваемая им корреляционная функция имеет требуемый вид. Леонов, работа которого обсуждается ниже, не касался физической возможности формирующего фильтра, потому что это не требовалось для рассматриваемых им приложений. Калмэн, работы которого также обсуждаются ниже, получал только физически возможные фильтры. Пренебрегая на минуту начальными условиями, покажем, что вопрос о существовании физически возможного формирующего фильтра сво¬ дится к вопросу о существовании решения нелинейного интегрального уравнения Вольтерра первого рода h Г {th t2) = 5 dx W(th т) W{tb x), ti Зг t-i Ss 0. (4.36) 0 Когда корреляционная функция разложима, т. е. п г (^1, t-г) = (<,)/>, (*л h к 0, (4.37) 1=1 в свете формул (4.24) и (4.27) решение уравнения (4.36) целесооб¬ разно искать в виде
176 ФОРМИРУЮЩИЕ ФИЛЬТРЫ ДЛЯ СЛУЧАЙНЫХ ПРОЦЕССОВ [ГЛ. 4 В таком случае эго интегральное уравнение превращается в Л Л Л /о 2 41 (<i)Pi (О = 2 я1к) 2 41 (О \d^i « h (4 (4.39) 1 = 1 t = 1 i = 1 О А используя линейную независимость qi(tx) и добавляя начальные условия, получим ~ t р«(о=2 j=i ^Мт)8,(т)+Г;, -О ^0; i=l, п. (4.40) Таким образом, задача свелась к вопросу о существовании решения системы (4.40) нелинейных интегральных уравнений Вольтерра пер¬ вого рода. Тем самым мы произвели редукцию уравнения (4.36), ко¬ торое можно рассматривать как бесконечную систему интегральных уравнений (для каждого значения tx получается одно уравнение). Обычно при изучении интегральных уравнений Вольтерра первого рода сначала их преобразуют в интегральные уравнения второго рода, а затем уже применяют известные стандартные методы исследования интегральных уравнений Вольтерра второго рода. Для линейных уравнений такое преобразование легко выполнимо [22]. То, что урав¬ нения (4.40) можно преобразовать в интегральное уравнение второго рода, возможно, не очевидно, но тем не менее это делается следую¬ щим образом. Дифференцируя уравнения (4.40), получаем t 1 п \ dtfi (х) ру (х) 4- Г,у + р, (0 2 4J (0 h (0- (4.41) о J У=1 Изучение уравнения (4.41) показывает, что множитель при (3,-(0 п является одним и тем же при всех I и равен ^ *7/(0Ру (0- Пусть 7=1 п k(t)= ^ Задача теперь заключается в том, чтобы опре- 7 = 1 делить неизвестное k(t). Если бы k(t) было известно и не равнялось нулю для всех ^^>0, то желаемое интегральное уравнение второго рода можно было бы получить, разделив обе части уравнения (4.41) на k(t). Хотя на первый взгляд может показаться, что нет никакой надежды определить функцию k(t), поскольку в нее входят неизвест¬ ные |оказывается эго сделать можно. Решая уравнение (4.41), находим, что ргч<)= 2 4П о
4.7] НЕКОТОРЫЕ РЕЗУЛЬТАТЫ ДЛЯ НЕСТАЦИОНАРНЫХ ПРОЦЕССОВ 177 Подставляя (4.42) обратно в (4.41), получаем следующее соотно¬ шение: Таким образом, k{t) можно определить из Г(^, t2). Очень важно отметить, что если $i(t) действительны, то из урав¬ нений (4.42) и (4.45) вытекает, что J0t для всех t^O. Итак, интегральное уравнение первого рода (4.40) преобразовано в инте¬ гральное уравнение второго рода (4.42). Конечно, остается нерешенным вопрос о том, что делать в слу¬ чае, когда k(t) = 0. В этом случае уравнения (4.41) сводятся к си¬ стеме интегральных уравнений первого рода вида уравнения (4.40), в котором qi(t) и pi(t) заменяются на Qil) (t) ир\1) (t) соответственно. Получившееся уравнение можно вновь преобразовать в интегральное уравнение второго рода так же, как это было сделано ранее с урав¬ нением (4.40). В результате получим п pi ’ (0 — 2 Я?' (0 \ dxh СО Р/ (О -г г«7 = }=1 L« I j = I k = 1 о из которого, приводя подобные члены, имеем п kHt)= 2 q(t) п n г t - s mo S Я] (0 $Лру(т)р*(т) + 1> . (4.44) Ho * = i j = i Lu :) Ps(T) + Г.-ft =pk if). Следовательно, k(t) = ± qjit)p'i (0- q'j" (t)Pj(0 = ± V\ 1 (0. (4.45)
178 ФОРМИРУЮЩИЕ ФИЛЬТРЫ ДЛЯ СЛУЧАЙНЫХ ПРОЦЕССОВ [ГЛ. 4 По гой же причине, что и раньше, требуется, чтобы Л, а (0^0 Для всех 0. Естественно, если kx(t) = 0, то новое уравнение опять преобразуется и т. д. Когда k(t)= 0 (или ki(t) = 0 и т. д.) для некоторых значений t, но не тождественно, возникает более сложное интегральное уравнение, Пикара, называемое уравнением третьего рода. Подобные случаи для линейных уравнений изучались Лалеско [23]. Задача теперь свелась к установлению существования решения интегрального уравнения второго рода (4.42). Это можно сделать, используя некоторые результаты, принадлежащие Сато [24], который исследовал вопрос о существовании решений нелинейных интегральных уравнений Вольтерра с помощью теоремы о неподвижной точке. Идею, лежащую в основе этой теоремы, можно хорошо продемонстрировать на следующем простом примере. Пусть С—множество {х: O^jc^l}, и пусть о(х) — непрерывное одно¬ значное преобразование С в себя (т. е. о(лг) — непрерывная однознач¬ ная функция, определенная на [0,1], и значения а(х) принадлежат отрез¬ ку [0,1] для всех лг [0,1]). Тогда существует некоторая точка х0^-С такая, что jc0 = a(jt0). Точка х0 называется неподвижной точкой пре¬ образования а (л:). Из рис. 4.1 истинность этого утверждения очевидна. Также очевидно, что х0 может равняться 1, либо 0 и что она необя¬ зательно единственна (на рис. 4.1 имеется пять неподвижных точек). Обобщение этого простого результата на более общие множества, лежащие в более общих топологических пространствах, привело к по¬ лучению довольно мощных теорем (о неподвижной точке), позволяющих устанавливать существование решений (неподвижных точек) общих функциональных уравнений и, в частности, интегральных уравнений. При рассмотрении интегральных уравнений С превращается в некоторый класс функций, а а является интегральным оператором, например таким, который стоит в правой части уравнения (4.42). Ясно, что утверждение о существовании неподвижной точки у а эквивалентно утверждению о существовании решения соответствующего интеграль¬ ного уравнения. Одна из наиболее общих теорем о неподвижной точке, используемая Сато, была доказана Шаудером [25] (стр. 260). Эту теорему можно сформулировать следующим образом: Теорема Шаудера. Пусть С — непустое компактное выпуклое множество из локального выпуклого пространства X, и пусть a — непрерывное однозначное преобразование из С в С. Тогда существует некоторая точка х0 £ С такая, что а(х0) = х0. Рис. 4.1. Иллюстрация теоремы о неподвижной точке.
4.7] НЕКОТОРЫЕ РЕЗУЛЬТАТЫ ДЛЯ НЕСТАЦИОНАРНЫХ ПРОЦЕССОВ 179 При применении теоремы Шаудера основная проблема, конечно, заключается в том, чтобы найти класс С, подходящий для рассматри¬ ваемой задачи. Интересно отметить, что фигурирующие в теореме требования компактности и выпуклости С можно было предвидеть при рассмо¬ трении простого примера, приведенного выше. Непосредственно, применяя результаты Сато к системе интеграль¬ ных уравнений (4.42), легко получаем следующее важное утверждение. Предположим, что Гуу(^, t%) имеет вид (4.37), что ф1) (t) и р(" (t) существуют и непрерывны на [О, 7], что 70, i(0^>0 на [0, 7'] и что существует неотрицательно определенная матрица такая. п что Pi{0)— ^ (0) = 0 для всех и Тогда физически возмож- j= 1 ный формирующий фильтр существует и W(t, т) имеет вид (4.38), где рг(£) непрерывны на [0, Т]. Единственная возможная трудность при применении этого результата заключается в том, что решение, существование которого утверждается, может быть, невозможно продолжить на весь [0, Г]. Можно показать, что из такой невозможности вытекает неограниченность $i(t) и, сле¬ довательно, их разрывность на [0, Т]. В приведенном утверждении и в тех утверждениях, которые следуют дальше, предполагается, что рассматриваемое решение можно продолжить на весь отрезок [0, Г]. Во всяком случае, можно показать, что приведенный результат имеет место [0, 7'], где 0<^7'<:7. Случаи, в которых $i(t) неогра- ничены, не очень важны для инженерных приложений, кроме того, они связаны с вычислительными трудностями. Когда 701 ,(£) = () на [0, 7|, но на [0, 7], имеет место следующая модификация вышеприведенного утверждения. Предположим, что Гуу(/Ь t^) имеет вид (4.37), что qi(t) и р?] (t) существуют и непрерывны на [0, 7], что на [0, 7] и что существует неотрицательно определенная матрица Г/;- такая, что п п МО)— 2 ^*7^7 (0) = 0 и р\1) (0)— 2 ^ij4T (0) = 0 для всех L Тогда j =\ ; = 1 физически возможный формирующий фильтр существует на [0, Т\> его весовая функция имеет вид (4.38), [3t-(£) непрерывны на [0, Т\ и W{t, t) = 0 для t£ [0, 7|. Дальнейшая модификация первого утверждения, когда о/0(1(0 = = 71>2(0 = 0 на [0, 7), но Л. з(0^>0 на [0, 7], очевидна. Случай, когда JQ l(t) = 0 для некоторого f £ [0, 7], но не тождественно, не рассматривается. Возможно, что удовлетворительные результаты в этом случае можно получить, следуя работе Лалеско [23]. Наконец, предположим, что в дополнение к условиям, при которых имеют место вышеприведенные утверждения, qt (t) и pi (t) имеют п
180 ФОРМИРУЮЩИЕ ФИЛЬТРЫ ДЛЯ СЛУЧАЙНЫХ ПРОЦЕССОВ [ГЛ. 4 непрерывных производных на [0, Т\> и определитель Вронского, со¬ ставленный из <7*(0> не обращается в нуль на [0, 7']. Тогда, последо¬ вательно дифференцируя уравнения (4.42), получим, что имеют п—1 непрерывную производную на [0, Т]. Отсюда следует, что рас¬ сматриваемый формирующий фильтр может быть описан дифференци¬ альным уравнением вида (4.17), где at{t) и bj(i) непрерывны на 10, Т]. Теперь, после того как мы решили вопрос о существовании физи¬ чески возможного формирующего фильтра, естественно возникает вопрос о его единственности. Из уравнения (4.40) ясно видно, что его решение не единственно. В самом деле, если W(tyz) — решение, то — W(t,~) также является решением. Заметим, что если U7(^, т) является решением, соответствующим знаку плюс в (4.45), то реше¬ ние— W(t, т) соответствует знаку минус в (4.45). Но остается вопрос, является ли решение уравнения (4.40) единственным с точностью до знака. Ответ на этот вопрос отрицателен потому, что может существовать больше чем одна неотрицательно определенная матрица удовлетворяющая требованиям приведенных утверждений. А раз¬ личные матрицы Tij приводят к различным решениям уравнения (4.40). Например, рассмотрим корреляционную функцию Две матрицы 8 —20/3 Г:.=!| 2 -Щ\ Гг.= " |—2/3 1/4 J’ 11 Л) (0=1 —20/3 25/41 удовлетворяют требованиям первого утверждения. Далее прямая под¬ становка в уравнение (4.42) показывает, что §i(t) = (2et и р2(^) = —е* являются на [0, оо) решениями, соответствующими Гг:у, в то время как 3j(f) = —4е* и (32(Т) = Ье** являются решениями на [0, оо), соответ¬ ствующими Г/у. Отсюда Wi(t, т)=2£"(Г~х)—и т) = = —4<г0-”) -j- 5е~2^-т) — весовые функции физически возможных фильтров, получающихся для матриц Г\j и Гу соответственно. При¬ меняя к Wi(t — т) и W<i(t — ^) преобразование Лапласа, получим р ( г>\ «S -f“ 3 Г1 ( Q\ 53 Ui(6) — (S+ 1)(5 + 2) И а2(М— (s+ i)(5 + 2)* Интересно отметить, что передаточная функция системы, соответ¬ ствующей Г,-}, имеет нуль в левой полуплоскости, тогда как переда¬ точная функция системы, соответствующей Г/у, имеет нуль в правой полуплоскости. Теперь в свете этого примера возникает вопрос, яв¬ ляется ли решение уравнения (4.40) единственным, если в уравнении (4.45) берется, скажем, знак плюс, а матрица Г,-у, удовлетворяющая
4.8] РЕЗУЛЬТАТЫ. ОСНОВАННЫЕ НА РАЗЛОЖЕНИЯХ В РЯДЫ 181 требованиям приведенных утверждений, фиксируется. Из нижесле¬ дующего утверждения, которое можно доказать методом последова¬ тельных приближений, вытекает, что ответ на этот раз является по¬ ложительным. Если условия утверждений, сформулированных выше курсивом, удовлетворяются, то физически возможный фильтр существует на [О, Т\у а если знак в уравнении (4.45) и матрица Ггу- фиксированы, то этот формирующий фильтр единственный. На этом мы заканчиваем рассмотрение вопросов существования и единственности физически возможных формирующих фильтров для случайных процессов с разложимыми корреляционными функциями. Ясно, что уравнение (4.42) можно использовать для вычислительных целей. 4.8. Результаты, основанные на разложениях в ряды Когда процесс {АДО} можно представить в виде бесконечного ряда, задача определения формирующего фильтра может быть решена совершенно прямым путем, если только отказаться от требования физической возможности. Основной результат здесь принадлежит Леонову [12]. В этом случае задачу определения формирующего фильтра можно переформулировать следующим образом. Дан «белый шум» {УД £)}*), где —оо <^t <^оо (т. е. Ту = (—оо, оо)), и нестационарный процесс {АД£)}, где 0<^t<^T (т. е. Гх=(0, Г)). Требуется показать, что при некоторых условиях случайная функция процесса {АДО} (выборочная функция процесса {АД£)}) может быть представлена в виде где (линейный) оператор Ах определяется по функции АДО **). За¬ дача, обратная к этой, заключается в представлении Y(t) в виде где Ах — оператор, обратный к Ах- Ниже соответствующие операторы Ах и Ах будут явно построены и тем самым будет показано, что поставленные задачи имеют решение. Для этого мы воспользуемся некоторыми результатами из книги [26]. *) Предполагается, что для всех рассматриваемых здесь «белых шумов» EY (t) = 0. **) Пугачев [26, 27] называет равенство (4.48) интегральным каноническим представлением X (t). X(t) = AxY(t), (4.48) Y(t) = A~xlX{t), (4.49)
182 ФОРМИРУЮЩИЕ ФИЛЬТРЫ ДЛЯ СЛУЧАЙНЫХ ПРОЦЕССОВ [ГЛ. 4 Хорошо известно [26], что случайная функция Z(t), где Tz = (a, b), может быть представлена в виде ряда (каноническое разложение) Z(t)= (4.50) i = i где Bi — случайные величины, удовлетворяющие условиям EBiBj = bijDj, (4.51) a Zi (it) — некоторые регулярные (неслучайные) функции. Для того чтобы ряд (4.50) сходился к Z(t) в среднеквадратичном, необходимо и до¬ статочно, чтобы ряд оо Tzz (k, k) = Ц DiZi (<,) г, (k) (4.52) i = 1 сходился к VZz(U, U) в каждой точке. Определение сходимости в среднеквадратичном, конечно, имеет смысл только для случайных функций с конечной дисперсией. Далее для решения поставленной задачи Y(t) необходимо пред¬ ставить в виде ряда (4.50). Но поскольку У(t) не имеет конечной дисперсии, сходимостью в среднеквадратичном воспользоваться нельзя, и возникает необходимость введения нового понятия сходимости. Леонов ввел понятие слабой сходимости в среднеквадратичном **). Говорят, что последовательность случайных функций Un(t) слабо сходится в среднеквадратичном к случайной функции U(t\ если интеграл т ап{Т)— J R(t) Un{t)dt (4.53) 0 при со сходится в среднеквадратичном для любой достаточно гладкой случайной функции R(t). Под достаточно гладкой случайной функцией здесь понимается случайная функция с конечной дисперсией, непрерывная в среднеквадратичном и имеющая необходимое число непрерывных производных и корреляционную функцию rRR(tht.2), ос удовлетворяющую неравенству ^ (£, t) dt сю. Можно показать, —оо что при таком определении сходимости У(t) представимо в виде оо т=Есм(Ъ (4-54) 1 = 1 *) Zi (t) не обязательно ортогональны и —со^а ^оо. **) Ясно, что это понятие аналогично обычному понятию слабой сходи¬ мости в гильбертовом пространстве [28].
4.8] РЕЗУЛЬТАТЫ. ОСНОВАННЫЕ НА РАЗЛОЖЕНИЯХ В РЯДЫ Ш где ECiCj = bij, а уi(t)—любая полная (в L2) система ортонормиро- ванных функций на (—оо, оо). Ряд в правой части (4.54) слабо сходится в среднеквадратичном к случайной функции «белого шу¬ ма» Y(t). Теперь довольно легко решить нашу основную задачу. Ct- (4.54) определяются как С,=71, (4.50) где Vi являются коэффициентами разложения в ряд X(t) со X (0 = 2 ViX.it), (4.56) i = I a Di = EVl. Линейный оператор Ах в таком случае определяется как 00 AxY(i)=l Wx(t,z)Y(x)d?, (4.57) — ОО где оо wx it, t) = S /D, Xt (t)Уi (X). (4.58) 1 = 1 Далее из (4.57) и (4.58) со AxY(t)= \ Wx (t, x) Y (x) dx — —OO CO = 2 V0(Q = *(9. (4.59) i = \ Отметим, что интеграл в (4.59) понимается в среднеквадратичном. Функции Wx (*, т) и У (t) в уравнении (4.59) можно определить бесконечно многими способами. Это связано с тем, что согласно Пугачеву [26] для X(f) можно получить бесконечно много различных представлений вида (4.56). Однако Леонов показал, что если Y(t) выбирается так, что имеет место (4.59), то существует одна и только одна Wx {U т), т. е. представление Wx (t, т) единственно. Наконец, легко решается и обратная задача. Определим Ах как со Ах'Х(1) = \ U7*1 it, х) Л-(х) dx, (4.60) где Ил' ")= (0 ai W/ VDit (4.61) i= i
184 ФОРМИРУЮЩИЕ ФИЛЬТРЫ ДЛЯ СЛУЧАЙНЫХ ПРОЦЕССОВ [ГЛ. 4 а а,*(т) выбирается так, чтобы т \ai{x)Xj{x)dx = bij. (4.62) О Как и раньше, yi{t) — любая полная (в Z>2) система ортонормиро- ванных функций на (—оо, оо). Тогда из (4.53), (4.60), (4.61) и (4.62) следует, что Т со Y(t) = \ и?*1 (t, X) X (х) dx = У -^гу, (0. (4.63) 0 i=\* 1 Как отмечалось выше, ряд в правой части (4.63) слабо сходится в среднеквадратичном к случайной функции Y(t) «белого шума». Этим завершается рассмотрение решения задачи определения фор¬ мирующего фильтра и соответствующей задачи определения обрат¬ ного формирующего фильтра с помощью разложений в ряды. Ясно, что весовую функцию формирующего фильтра в данном случае можно выписать в виде ряда сразу же, как только будут известны Xi(f) и Dt для канонического разложения X(t). В своей книге [26] Пуга¬ чев предложил несколько довольно простых методов нахождения первых п членов разложения вида (4.56). Эти методы позволяют из¬ бежать необходимости определения собственных значений и собствен¬ ных функций интегральных уравнений, фигурирующих в хорошо известной теореме представления Карунена — Лоева. Вместе с тем следует отметить, что решение Леонова всегда получается в виде бесконечного ряда и, кроме того, нет никаких гарантий физической возможности получаемого формирующего фильтра или обратного к нему. 4.9. Представление векторных процессов Все случайные процессы, рассматриваемые в этой главе, до на¬ стоящего времени были скалярными, т. е. случайная величина X(t) принимала скалярные значения при всех t Т. Напротив, в этом параграфе рассматривается задача определения формирующего фильтра для векторных процессов. Для одного класса векторных процессов было получено особенно полезное представление. Калмэн и Бьюси [29] использовали это представление при выводе своих результатов, ка¬ сающихся линейной среднеквадратичной фильтрации и экстраполя¬ ции *). Выведенное в этом параграфе представление в случае гауссов¬ ских процессов эквивалентно представлению Калмэна [13] для гаус¬ *) Формулировку результатов Калмэна и Бьюси можно прочесть в § 2.12 главы 2 этой книги.
4.9] ПРЕДСТАВЛЕНИЕ ВЕКТОРНЫХ ПРОЦЕССОВ 185 совских марковских процессов. Однако как методы получения этого представления, так и его вид не такие, как у Калмэна. Причины, по которым мы не следуем Калмэну, заключаются в том, что избран¬ ное нами изложение проще и лучше согласуется с предыдущими параграфами этой главы. Чтобы лучше понять, как получается приводимое нами представ¬ ление, рассмотрим случай, в котором действительный векторный про¬ цесс {X(t\ t [0, сю)} порождается «белым шумом» {W(t), t ^ [0, сю)} в соответствии с векторным дифференциальным уравнением первого порядка X(t) = F(t)X(t)-\- W(t), (4.64) где матрица F(t) непрерывна по t. Тогда t X{t) = y (t)X(O) + ® (t) ^ <р-‘ (s) W(s) ds, (4.65) 6 где (фундаментальная) матрица о (t) является решением матричного дифференциального уравнения = ®(0) = /. (4.66) Если корреляционная матрица Гxx(t, т) процесса {X{t)\ определяется как Txx(t, ^) = E[X{t)XT{*-.)], (4.67) где ^(т)— матрица, транспонированная по отношению к A'(t), то из уравнения (4.65) следует, что *) т Гд-д-((> т) = с? (0 [Гд-д- (0, 0) Фт (х) -|- 5 tp-1 (s) Q(s) ср-1 (s)1 ds’0T(X)], U о, (4.68) где Гот ((, т) = Е [ W (0 Wr(т)] = Q(t)o(t — т). (4.69) Здесь предполагается, что Q(t) непрерывно дифференцируемая (т. е. имеет первую непрерывную производную), симметричная, неотрица¬ тельно определенная матрица. Уравнение (4.68) можно записать в бо¬ лее простом виде Гхх(*> '0 = <Р(0фС0, 0, (4.70) где ф(т) равна члену в квадратных скобках в уравнении (4.68). Эти результаты наводят на предположение о том, что если (t, т) имеет вид (4.70), где матрицы ср(£) и ф(т) имеют непрерывные производные *) Предполагается, что £ [X (0) W1 (£)] = 0 для всех L
186 ФОРМИРУЮЩИЕ ФИЛЬТРЫ ДЛЯ СЛУЧАЙНЫХ ПРОЦЕССОВ [1 Л. 4 и cp(t) невырожденна, то {X(t\ t £ [0, сю)} можно представить в виде (4.64), где {W(t), t [0, со)}—векторный «белый шум» *). Спра¬ ведливость этого предположения устанавливается в следующем абзаце. Пусть дан процесс {X(t)\, корреляционная функция которого имеет вышеперечисленные свойства. Рассмотрим процесс {W(tf), t £ [0, оо)}, определяемый соотношением W(t) = X(t) — F(t)X(f), (4.71) где F(t)X(f)—наилучшая в среднеквадратичном линейная оценка X(t) при данном X(t). Строго говоря, предел, используемый для опре¬ деления X(t) в (4.71), обычно не существует как предел в средне¬ квадратичном и, следовательно, нельзя строго говорить о наилучшей оценке X(t) в среднеквадратичном, потому что X(t) не имеет конеч¬ ной дисперсии. Здесь мы встречаемся с трудностью, аналогичной той, о которой упоминалось в § 4.3, и эту трудность можно преодолеть путем рассмотрения обобщенных случайных процессов. Но предпоч¬ тительнее предел, используемый для определения X(t) в (4.71), интер¬ претировать как слабый предел в среднеквадратичном (см. § 4.8). Также можно интерпретировать и оценку X(t). При таком подходе проводимое в дальнейшем формальное дифференцирование можег быть непосредственным образом строго обосновано. Если продолжать формально, то задача теперь заключается в том, чтобы показать, что' F (t) можно определить единственным образом из Г^(^, т) и что {W(0, f£I0> со)} является векторным «белым шумом» (т. е. правая часть уравнения (4.71) слабо сходится к векторному «белому шуму»). Поскольку F(t)X(t) — наилучшая в среднеквадратичном линейная оценка X(t)> она удовлетворяет уравнению Винера — Хопфа, которое в этом случае выглядит как Е [X(t) X7 (0] — F(t) Е [X (0 Хт (*)] = 0, (4.72) Используя (4.70), уравнение (4.72) можно переписать как Ф(0Ф(0 —/7(0?(0Ф(0 = 0. (4.73) Если предположить, что 1^(2, t) невырожденна, то ф(£) также будет невырожденной, и уравнение (4.73) можно разрешить относительно F(t) F(t)=^(t)^(t). (4.74) Даже если Txx(t, t) вырожденна для некоторого £^>0, то все равно как показывает прямая подстановка, F(t) определяемая формулой *) Здесь предполагается, что <р (0) = ./. Если это ие так, то вместо ср (т) рассматривается ср (t) ср-1 (0) и (т) переопределяется как <р (0) ф (£). Тогда указанное предположение выполняется.
4.9] ПРЕДСТАВЛЕНИЕ ВЕКТОРНЫХ ПРОЦЕССОВ 187 (4.74), является решением уравнения (4.73). Происходит это потому, что, когда Гxx(iy t) вырождена, уравнение (4.73) будет иметь много решений, одним из которых будет (4.74) *). Уравнение (4.74) согла¬ суется с уравнением (4.66) и однозначно определяется матрицей ср (t). Для того чтобы показать, что {W(0} является «белым шумом», рас¬ смотрим Е [ W (t) Хт (т)] для£^>т. Используя уравнения (4.71) и (4.74), имеем ВI W(t) Хт(X)] = Е[Х(0 хт (х)] - F (0 Е [*(*) хт (X)] = = $ (0 ф (х) — т (0 ?-1 (0 ? (0 Ф (х) = °> t >х- (4-75) Дифференцирование уравнения (4.75) по t дает = *>т. (4.76) Отсюда, используя уравнения (4.71), (4.75) и (4.76), получим E\W(t) WTW] = — E[W (0 X (т)] — E[W (0 WT (т)] FT( т) = 0, t > т. (4.77) Наконец, из симметрии Е [ W(t) WT(т)] вытекает, что E[W(t) WT(z)] = 0, (4.78) Равенство (4.78) показывает, что |W(f)} является «белым шумом» и, следовательно, Tww(t, т) имеет вид (4.69). Для нахождения Q(t) за¬ метим, что из уравнения (4.68) вытекает, что данное ^(^) будет полу¬ чено при Q (0= ? (0 ^ [ф (0 (?г (0П <рг(А (4.79) Это можно доказать прямой подстановкой (4.79) в уравнение (4.68). (Отметим, что поскольку ср (0) = /, то 1^(0, 0) = ф(0).) Здесь стоит, вероятно, отметить два основных отличия вывода, приведенного выше, от того, который был сделан Калмэном [13]. Первое отличие состоит в том, что Калмэн считал процесс {X(t)} гауссовским и марковским, тогда как выше предполагалось, что кор¬ реляционная матрица {X(t)} имеет вид (4.70). Второе отличие состоит в том, что Калмэн определяет {W(f)} уравнением W(t) = X(f) — E[X(t)\X{t)], (4.71') *) Калмэн [13] полагает F (t) = о (t) <[/ (t) [о (t) Ф (*)]*, где [«р (0 ф (01* — ■определяемая Пенроузом псевдообратная матрица к [ср (t) ф (0]- Хотя при этом получается решение F (t)y псевдообратная матрица которого имеет ми¬ нимальную норму (норма — сумма квадратов всех элементов), нет каких- либо разумных физических причин следовать в определении F (t) Калмэну.
188 ФОРМИРУЮЩИЕ ФИЛЬТРЫ ДЛЯ СЛУЧАЙНЫХ ПРОЦЕССОВ [ГЛ. 4 а не уравнением (4.71). Из предположения гауссовости вытекает, что условное математическое ожидание в уравнении (4.71') является ли¬ нейной функцией X(t) (т. е. F(t)X(t) как раз является наилучшей в среднеквадратичном оценкой X(t)). А предположение марковости используется для вывода уравнения (4.75) вместо предположения о том, что Tx(t, т) имеет вид (4.70). Наконец, стоит также отметить, что из результата Калмэна вытекает, что Гxx(t, т) имеет вид (4.70). На этом мы заканчиваем рассмотрение задачи определения фор¬ мирующего фильтра для векторных процессов. В оставшейся части этого параграфа полученные результаты будут применяться к задаче линейной среднеквадратичной фильтрации и экстраполяции, которая рассматривалась Калмэном и Быоси [29]. Одна из формулировок задачи линейной среднеквадратичной фильтрации и экстраполяции является следующей. Рассмотрим слу¬ чайный процесс {Х(£)}, порожденный «белым шумом» {W(£)} в ре¬ зультате его прохождения через рассмотренный выше формирующий фильтр: X(t) = F{t)X(t)-\-W(t\ t2* 0, (4.80) и предположим, что наблюдается процесс {Z(t)\, где Z(t) связана с X (t) соотношением Z(t) = H(t)X(t)-\~ V(t)=y(t)-\- V{t\ . f0. (4.81) Здесь Hit) непрерывна, а {У(0}— «белый шум». Пусть Tvv (t, z) = E[V(t) VT(z)) = R(t)b(t — т); t, x 2*0, (4.82) и пусть R(t) положительно определена. Предположим также, что В [W(t) VT (т)] = 0; t, х 2*0. (4.83) Задача, которую мы хотим рассмотреть, заключается в том, чтобы найти наилучшую в среднеквадратичном линейную оценку X{ty\t) величины X(t{) при данных наблюденных значениях Z(t) на интер¬ вале где t\ z. То есть надо найти оценку X(ti\t)f имею¬ щую вид ^ t А:(<1|0 = 5Л(^ь (4.84) 6 где A{tb z)— матрица, непрерывно дифференцируемая по обоим ар¬ гументам. Можно показать, что для того чтобы X j t) была наилуч¬ шей в среднеквадратичном линейной оценкой, необходимо и доста¬ точно, чтобы A(th т) удовлетворяла интегральному уравнению
4.9] ПРЕДСТАВЛЕНИЕ ВЕКТОРНЫХ ПРОЦЕССОВ 189 Винера — Хопфа *) t E\X(tx)ZT{x)} — $ A(tb s)E [Z(s)Zr(x)l ds = 0. (4.85) 0 Чтобы вывести результаты Калмэна и Бьюси (которые сформули¬ рованы в § 2.12 этой книги), предпримем следующее. Предположим на минуту, что tx = t. Тогда наша задача превра¬ щается в задачу фильтрации. Дифференцируя уравнение (4.85) по t, меняя порядок операций d/dt и Е[ ] и используя уравнение (4.80), имеем ^ E[X(t) ZT (х)] = F(t)E [X(t) ZT(x)] -f E [ W\t) Z‘ (x)], и (4.86) t ^ ( A(t, s)E[Z(s)ZT(x)]ds = 0 t = [ dA g" s) E [Z (s) Zl (x)] ds + A (t, t)E[Z(t)ZT(x) ], t^x^O. (4.87) Но из уравнений (4.80) — (4.83) следует, что W(t) некоррелирована с V(t) и АДт) для t^> т, a X(t) некоррелирована с У(т) для всех t, т 0. Отсюда Е [ W(0 ZT (т)] = 0, t > т, (4.88) и £[Z(0Zrw] = £lCy(9+ v(9)CvW + ^ (х))7] = = E\y(t)yT(х)] = Я(0 Е [X(0 ZT (х)] - Е [у (t)VT(х)] = = H(t)E[X(t)ZT(x)], t^sx. (4.89) Объединяя уравнения (4.86) и (4.87) и используя уравнения (4.85), (4.88) и (4.89), имеем I J | F(i)A(t, s) дА£ s) A (t, f)H(f)A(t, s)j X X £[Z(s)Z7'(x)]ds = 0, <>x^0. (4.90) Далее ясно, что уравнение (4.90) будет удовлетворено, если A{tf т) будет решением уравнения F(t)A(t, — x) — A{t, t) H (t) A (t, x) = = B(t, x) = 0, t^sxSzQ. (4.91) *) Вывод интегрального уравнения Винера — Хопфа для векторных про¬ цессов см. в § 2.3 настоящей книги.
190 ФОРМИРУЮЩИЕ ФИЛЬТРЫ ДЛЯ СЛУЧАЙНЫХ ПРОЦЕССОВ [ГЛ. 4 Если R(x) положительно определена для как предполага¬ лось, то A (t, х) необходимо удовлетворяет также и уравнению (4.91). В самом деле, из уравнения (4.90) видно, что A(t, z)-\-B(ty х) также является решением уравнения Винера — Хопфа. Отсюда вытекает, что ^ t X(t\ t) -f 5 В (t, x) Z (x) d-z (4.92) 0 также является оптимальной оценкой для X(t). Теперь с помощью уравнения Винера — Хопфа можно легко показать, что корреляцион¬ ная матрица разности двух оптимальных оценок обращается в нуль при t{ = z. Следовательно, t t s)E[Z{s)ZT(?)]BT{t, о) ds da = 0. (4.93) 0 0 Далее из уравнений (4.80) — (4.84) следует, что Е [ Z (s) ZT (a)} = R(s)Z(s-o) + E\y(s)yr (а)]. (4.94) Подставляя (4.94) в (4.93), найдем, что если уравнение (4.91) не удов¬ летворяется, то второй член получившегося уравнения неотрицателен, а его первый член положителен (вследствие положительной опреде¬ ленности R(t)). Отсюда B(ty х) = 0. Дифференцируя уравнение (4.84) по ty получим -X(tdt t] = 5 -дА$ Т) z(X)rfx+A (t, t)Z(it). (4.95) 0 Полагая К(t) = A(t, t) и используя уравнения (4.84) и (4.91), уравне¬ ние (4.95) можно переписать в виде йХ {tdt 1 0 =F(t)X(t \t) + K(t) Z(t) — H(0X(t | t). (4.96) Это — дифференциальное уравнение оптимального фильтра. Для того чтобы получить решение задачи среднеквадратичной фильтрации, остается только найти способ вычисления K(t). Это можно сделать следующим образом. Пусть X(t | t) определяется соотношением X (t\t) — X{t) — X(t\ t). (4.97) Тогда из уравнений (4.80) и (4.96) вытекает, что X(t, t)—разность
ПРЕДСТАВЛЕНИЕ ВЕКТОРНЫХ ПРОЦЕССОВ 191 между истинным значением и оценкой — удовлетворяет дифференциаль¬ ному уравнению dX(t\t) =[F{t)_Kit)H{t)]x{t | 0+ W{t)_ K{t) y(0. (4.98) Кроме того, воспользовавшись уравнением Винера — Хопфа, можно легко увидеть, что из уравнения (4.85) вытекает, что Из равенства (4.99) и того факта, что Z (t) = у (t)-\~ V (t), следует, что Перейдем далее в правой и левой части уравнения (4.101) к пределу при т —► t. Такой предельный переход законен, так как обе части уравнения (4.101) непрерывны по т при любом фиксированном t. Итак, переходя к пределу в обеих частях уравнения (4.101), учиты¬ вая, что Е [у (Х).УГ(Т)] = Е [Z(i)yT{^)] и (4.100), получим K{t)R(t) = A(t, t)R(t) = E[X(t | t)yr(t)] = = E\X(t | t)XT(f)\HT(f) = E\X {t | t)XT(t | f)]tfr(9 = Поскольку R(t) положительно определена, она невырождена и Таким образом, мы получили явное выражение для K(t) через Р (t). Чтобы найти уравнение для вычисления Р (t), рассмотрим Правую часть уравнения (4.104) можно преобразовать с помощью уравнения (4.98). Действительно, А отсюда E[X(t | 0Zr(t)] = 0, *>t;>0. е[х(t | 9л-г(о1 = о. (4.100) (4.99) E [X(f)yT (t)] -\A{t, s)E \y (s) (t)] ds = о = A(t, t)/?(x), (4.101) (4.103) dP (t) (It е\1^Х^У])хТ(1 I *)] + £[*(* I t)^ XT(t.\ o)"|. (4.104) = [E(t)-K(t)H(t)E\Xr{t | t)XT(t | 0l-b -i- E[{ W{t)-K {t) V(t)) X1 {t | <)]. (4.105)
192 ФОРМИРУЮЩИЕ ФИЛЬТРЫ ДЛЯ СЛУЧАЙНЫХ ПРОЦЕССОВ [ГЛ. 4 Решение X(t\t) уравнения (4.98) можно представить в виде X(t I ^) = Q (О Q-1 (0) J^(0 I 0)-f t + 2 (0 5 2-1 (О [ W{x) - К (t) V(x)\ dx, (4.106) 0 где 2 (£) — произвольное невырожденное решение матричного диф¬ ференциального уравнения 2 01) = [F (0 - К (0 Н(0] 2 (0- (4.107) Подставляя (4.106) в (4.105) и используя (4.103), получаем E[{wXQ IkT{t I °] = = F(t)P (t) - р (0 нт (0 R' (t) Я(0 Р (0 + + У Q (0 -!- -J Р (0 нт (0 /Г1 (0 н(0 р (0, (4.108) где множитель 1/2 возникает вследствие симметрии о-функции, зави¬ сящей от верхнего предела интегрирования. Члены, которые могли появиться в уравнении (4.108), благодаря начальным условиям, отсутствуют потому, что Х(0 | 0) = АР(0) — Х(0 | 0) = ЛЧ0), (4.109) и потому, что Л^О) некоррелирована с W{t) и V(^) для всех t. А из (4.84) сразу следует, что А"(0 | 0) равняется нулю. Второй член в уравнении (4.104) получается просто транспонированием правой части (4.108). Таким образом, если принять во внимание симметрию матриц P(t), Q(t) и R(t), уравнение (4.104) превращается в *£Jp- = F(t)P (<) + Р (f)FT{t) - Р (0 HT(t) R-1 (t)H(t) P (t) + Q (0. (4.110) Уравнение (4.110) для вычисления P(t) является нелинейным диффе¬ ренциальным уравнением Рикагги. Оно называется дисперсионным уравнением. Начальные условия для P(t) непосредственно получаются из уравнений (4.102) и (4.109), и Р(0) = Е [А-(0) Хг (0)]. (4.П1) На этом мы заканчиваем вывод результатов, касающихся задачи фильтрации. Было показано, что оптимальный фильтр полностью определяется решением дисперсионного уравнения и не зависит от наблюдаемого процесса {Z(t)}. Это не удивительно, потому что дис¬ персионное уравнение было выведено из уравнения Винера — Хопфа
ЛИТЕРАТУРА и эквивалентно ему, а оптимальный фильтр, определяемый уравнением Винера — Хопфа (т. е. A (t, т)), не зависит от Оптимальный фильтр определяется уравнением (4.96), где K(t) вычисляется с по¬ мощью уравнений (4.103), (4.110) и (4.111), а начальным условием для оптимального фильтра является, как отмечалось выше, /^(0 | 0) = 0. Когда tx ^ t, имеет место задача экстраполяции, и можно легко показать (см. Калмэн [13]), что X{tx I = I 0, (4.112) где y(t) связана с Гxx(t, т) уравнением (4.70). Вопросы существования, единственности и устойчивости решения уравнения (4.110) здесь не рассматриваются. Читатель, интересующийся этими вопросами, отсылается к работе Калмэна [13] или Калмэна и Бьюси [29]. ЛИТЕРАТУРА 1. Wold Н., A Study in the Analysis of Stationary Time Scrvies, Uppsala, 1938. 2. Kolmogorov A., Sur L’Interpolation et Extrapolation des Suites Station- naires, C. R. Acad. Sci., Paris 208, pp. 2043—2045, 1939. 3. К о л м о г о р о в А. Н., Стационарные последовательности в гильберто¬ вом пространстве, Бюлл. МГУ 2, вып. 6 (1941), I—40. 4. К о л м о г о р о в А. Нм Интерполирование и экстраполирование стацио¬ нарных случайных последовательностей, Изв. АН СССР, сер. мат., т. 5, № 1, 1941, стр. 3—14. 5. W i е n е г N., Extrapolation, interpolation, and Smoothing of Stationary Time Series, John Wiley and Sons, Inc., New York, 1949. 6. H a n n e г O., Deterministic and Nondeterministic Stationary Random Pro¬ cesses, Ark. Mat. l,..pp. 161—177, 1949. 7. Karhunen K., Uber die Struktur Stationarer Zufalliger Funktionen, Ark. Mat. 1, pp. 141 — 160, i960. 8. В о d e H. and C. Shannon, A Simplified Derivation of Linear Least- Square Smoothing and Prediction Theory, Proc. IRE 38, pp. 417—426, April, 1950. [Русский перевод: Упрощенный вывод линейной теории сглаживания и предсказания по методу наименьших квадратов. В кн. Шеннон К., Работы по теории инфгрмации и кибернетике, 687—708, ИЛ, М., 1963.] 9. Darlington S., Nonstationary Smoothing and Prediction Using Network Theory Concepts, Transactions IRE, 1 T-5, May, 1959, pp. 1—11. 10. Dolph C. and M. Woodbury, On the Relation Between Green’s Func¬ tions and Convariances of Certain Stochastic Processes and Its Application to Unbiased Linear Prediction, Trans. Amer. Math. Soc. 72, May, 1952, pp. 519—550. 11. Батков А. М., Обобщение метода формирующих фильтров на неста¬ ционарные сл\чайные процессы. Автоматика и телемеханика, т. 20, № 8, 1959, стр. 1081 — 1094. 12. Лео н о в Ю. П., Проблема формирующего фильтра и оптимальные ли¬ нейные системы. Автоматика и телемеханика, т. 21, №6, 1960, стр. 674— 681. 13. Kalman R., New Methods and Results in Linear Prediction and Filtering Theory, RIAS Technical Report 61 — 1. Also an Appendix to ASD-TR-61-27. 7 п/р Леондеса
194 ЛИТЕРАТУРА 14. Locvc М., Probability Theory, D. Van Nostrand, Princeton, N. J., 1960. (Русский перевод: Л о э в М., Теория вероятностей, ИЛ, М., 1962.] 15. Г е л ь ф а и д И. М. и Ви ленки н Н. Я., Обобщенные функции, вып. 4, Некоторые применения гармонического анализа. Оснащенные гильбертовы пространства, Физматгиз, М., 1961. 16. Гель фан д И. М., Обобщенные случайные процессы, ДАН СССР 100, № 5, 1955, стр. 853—856.] 17. Doob J., Stochastic Processes, John Wiley and Sons, Inc., New York, 1953. [Русский перевод: Дуб Дж. Л., Вероятностные процессы, ИЛ, М.. 1956.] 18. G г е n and с г U. and М. Rosenblatt, Statistical Analysis of Stationary Time Series, John Wiley and Sons, Inc., New York, 1957. ‘ 19. P a I e у R. E. A. and N. W i e n с r, Fourier Transforms, An American Math. Society Colloquium Publication, 1932. [Русский перевод: Винер H., Пэли П., Преобразование Ф\рье в комплексной области, «Наука», М., 1964.] 20. С о d d i n g t о n E. and N. L e v inso n, Theory of Ordinary Differential Equations, McGraw-Hill Book Company, Inc., New York, 1955. [Русский перевод: К о д д и н г т о н Э. А. и Л с в и н с о н Н., Теория обыкновен¬ ных дифференциальных уравнений, ИЛ, М., 1958.] 21. St ear Е., Synthesis of Shaping Filters for Nonstationary Stochastic Pro¬ cesses and Their Uses, AFOSR Report 61-50, August, 1961. 22. Tricomi F., Integral Equations, Intersicencc Publishers, Inc., New York, 1957. [Русский перевод: Трикоми Ф., Интегральные уравнения. ИЛ, М., I960.] 23. Lalesco Т., Introduction a la Theorie des Equations Integrales, Gauthicr- Villars, Paris, 1922. 24. Sato Т., Sur l’Equation Integralc Nonlinear de Voltcrra, Compositio Mathematica 11, 1953, pp. 271—290. 25. Bcrge C., Espaces Topologiques, Dunod, Paris, 1959. 26. Пугачев В. С., Теория случайных функций и ее применение к зада¬ чам автоматического управления, Гостсхиздат, М., 1957. 27. II у г а ч е в В. С., Интегральные канонические представления случайных функций и их применение к определению оптимальных линейных систем. Автоматика и телемеханика т. 18, № 11, 1957, стр. 971—984. 28. Натансон И. П., Теория функций вещественной переменной, Гостех- издат, М., 1957. 29. К a I m an R. Е. and R. S. Вис у, New Results in Linear Filtering and Prediction Theory, J. Basic Engr. (ASME Trans.) 83D, March, 1961, pp. 95—108.
ГЛАВ А 5 АНАЛИЗ НЕЛИНЕЙНЫХ СИСТЕМ УПРАВЛЕНИЯ С ПОМОЩЬЮ ПРЯМОГО МЕТОДА ЛЯПУНОВА Дональсон (D. D. Donalson) 5.1. Введение 5.1.1. Исторический очерк Прямой метод Ляпунова является общим методом исследования устойчивости систем обыкновенных дифференциальных уравнении. Он применим к автономным и неавтономным и к линейным и нели¬ нейным обыкновенным дифференциальным уравнениям. Часто этот метод называется вторым методом Ляпунова и, так как эти названия используются в литературе попеременно, это иногда приводит к недо¬ разумениям у неподготовленного читателя. Впервые эти методы были предложены в самом конце XIX века русским математиком А. М. Ляпуновым. В 1907 г. работа Ляпунова была переведена на французский язык. В свсей работе Ляпунов по существу все методы анализа устойчивости обыкновенных дифферен¬ циальных уравнений относил к одному из двух основных методов. Первый метод был назван непрямым методом, поскольку он требовал непосредственного решения исследуемой системы дифференциальных уравнений. Второй метод был назван прямым методом, гак как в этом случае рассматриваются критерии устойчивости, которые могут при¬ меняться прямо к системе обыкновенных дифференциальных уравне¬ ний и при этом не требуется решение этих уравнений. Таково исто¬ рическое происхождение двойных названий методов Ляпунова. В этой главе мы будем называть второй метод Ляпунова прямым, так как это название точнее отражает суть метода. До 1940 г. прямой метод Ляпунова почти не применялся. Лишь в 1940—1950 гг. в СССР впервые обратили внимание на значение этого метода для анализа нелинейных систем автоматического управ- 7*
196 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 ления. Затем в 1947 г. первый французский перевод работы Ляпу¬ нова был переиздам Принстонским университетом, а около 1955 г. начали появляться и первые публикации на английском языке. Это были оригинальные работы и переводы русских и немецких работ. 5.1.2. Основные идеи прямого метода Для рассмотрения проблем устойчивости автономных и неавто¬ номных нелинейных систем потребуется предварительно определить понятие устойчивости более подробно, чем это требуется для линей¬ ных систем. Невозмущенная линейная динамическая система имеет только одно положение равновесия. Если оно устойчиво, траектории всех решений при возрастании времени до бесконечности будут приближаться к этой точке равновесия. Особый случай возникает при наличии пары чисто мнимых корней характеристического уравнения системы, так как в этом случае, если система в начальном состоянии не находилась в точке равновесия, в ней все время будут наблю¬ даться устойчивые колебания. Однако такая ситуация редко встре¬ чается в реальных системах, поскольку корни характеристического уравнения, по-видимому, не будут чисто мнимыми, даже если этого специально добиваться. Устойчивость линейной системы не зависит ог начальных условий, а реакция устойчивой системы на любое непре¬ рывно действующее ограниченное возмущение будет ограниченней. По существу последнее можно было бы использовать как определе¬ ние устойчивости линейных систем. Гораздо более сложным образом определяется устойчивость нелинейных систем. Соответствующие опре¬ деления даются в § 5.2, где они рассматриваются с большей мате¬ матической строгостью, чем это требуется сейчас во введении к пря¬ мому методу Ляпунова. Чтобы получить весьма простую аналогию прямого метода Ляпу¬ нова, рассмотрим систему, показанную на рис. 5.1. Связь выходной и входной величин описывается уравнением х -4- ах = г. Предположим, что г есть равная нулю правая часть, и рассмотрим реакцию системы при различных начальных возмущениях. В этом случае уравнение системы может быть записано в следующем виде: х =—ах. Самых элементарных сведений из теории дифференциальных уравне¬ ний достаточно, чтобы убедиться, что система будет устойчивой, если а равно любому вещественному положительному конечному числу. В этом нет ничего нового для специалиста по системам управления, однако подход к рассмотрению физических причин, объясняющих поведение решения этого уравнения, аналогичен прямому методу Ляпунова. За¬
5.1] ВВЕДЕНИЕ 197 метим, что при любом 0<^а<^оо, независимо от значения, принимае¬ мого ху кроме того случая, когда х = 0, скорость изменения х такова, что его абсолютная величина |лг| всегда уменьшается. Однако при х = 0 производная х также равняется нулю. Поэтому л; = 0 есть точка равновесия для этой системы и система устойчива, так как при любом конечном по величине начальном условии для х = х{) (как при положительном, так и при отрицательном) решение уравнения x(t) будет приближаться при бесконечном возрастании к нулю. Легко можно показать, что если —оо<^ 0, тогда | лег | всегда возра¬ стает при х Ф 0, и поэтому при таких значениях а эта система не¬ устойчива. Подобный анализ в системах второго и более высокого порядка по отношению к переменной х провести невозможно. Однако в раз¬ личных теоремах, основанных на прямом методе Ляпунова, это делается для функции Ляпунова, по от¬ ношению к которой применимы очень похожие рассуждения. Естественно, что при этом воз¬ никают дополнительные усло¬ вия, которые обеспечивают ма¬ тематическую строгость и га¬ рантируют достоверность по- Рис. 5.2. Простая система второго лучаемых выводов, порядка. J гт Применим для иллюстрации приводимые ниже теоремы, свя¬ занные с прямым методом, к простой линейной системе, изобра¬ женной на рис. 5.2. Уравнение для этой системы можно записать в виде х -\-Зх -\-‘2х= г. Предположим, что г — равная нулю правая часть, т. е. г = 0. Тогда система описывается следующим дифференциальным уравнением: х -f- Ъх -}- 2х — 0 или х = — Ъх — 2jt. Точка х = 0 будет точкой равновесия системы. Исследование будет касаться поведения невозмущенной системы при различных началь¬ ных значениях х. Теоремы прямого метода Ляпунова обычно формулируются приме¬ нительно к системе обыкновенных дифференциальных уравнений первого порядка, однако уравнения порядка выше первого несложно 2s *-s+2 г .7 J; s+a. Рис. 5.1. Простая система перво¬ го порядка.
198 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 преобразовать к такому виду. В рассматриваемом примере для этого вводятся следующие переменные: Тогда невозмущенная система второго порядка может быть представ¬ лена следующей системой дифференциальных уравнений первого по¬ рядка: Переменные Х\ и называются обычно переменными «состояния». В тех случаях, когда они представляют выход системы и его различ¬ ные производные, они могут также называться «фазовыми» коорди¬ натами. Многомерное пространство, в котором вдоль прямоугольных координатных осей откладываются переменные состояния или фазовые координаты, называется пространством состояний, или фазовым про¬ странством. В частном случае, который нами рассматривается, этим пространством является фазовая плоскость, хорошо знакомая каждому, кто имел дело с фазовыми кривыми простых нелинейных систем вто¬ рого порядка. Итак, наша система уравнений приведена к виду, позволяющему применить прямой метод Ляпунова. Теперь можно обратиться к сле¬ дующей теореме. Теорема. Пусть система дифференциальных уравнений первого порядка (2) Функции Xi непрерывны по всем переменным xt во всем про¬ странстве состояний. Пусть далее существует скалярная функция V(xh хь ..., хп\ принимающая действительные значения, такая, что (а) V(xh хъ ..., хп) непрерывна и имеет непрерывные частные производные первого порядка; (б) V(хь хъ ..., хл)^>0, за исключением точки лгг = 0 при всех /= 1, 2, ..., п (т. е. V положительно определенная функция); X = Хь Х = х1 = JCQ. (5.1.1) £i = Xi(x1, ..., хп), г = 1, 2, ..., п, удовлетворяет условиям: (1) Л, = *,«). ..., 0)=0, /= 1, 2, ..., я. (в) 1/(0, 0, ..., 0) = 0; (г) V(х,, х„) — со при
5.1] ВВЕДЕНИЕ 199 п п (д) 'v==Tt = lL (^7 2 х^т' е- ^ 0ТРИ1«телМ10 i=l 4 1 г=1 ределенная функция). Тогда эта система асимптотически устойчива в целом *). Асимптотическая устойчивость в целом означает, что для любых конечных вещественных начальных условий выход системы будет стремиться к состоянию равновесия х = 0, х = 0 при £-> оо. Для линейных систем это определение совпадает с обычным определением устойчивости. Рассматриваемая нами система обыкновенных дифференциальных уравнений первого порядка (5.1.1) удовлетворяет условиям (1) и (2) приведенной теоремы и имеет соответствующую форму. Задача поэтому заключается в отыскании скалярной функции V (xh jc2), удовлетво¬ ряющей условиям (а) — (д) теоремы. Существует ряд методов постро¬ ения функции Ляпунова, которые рассматриваются в § 5.3, однако здесь в этом вводном примере мы не будем останавливаться на этих методах, так как вопрос о том, как построить функцию Ляпунова, обычно составляет самую трудную часть анализа устойчивости. Вообще же, чтобы исследовать устойчивость системы, достаточно лишь выяснить, существует ли функция, которая удовлетворяет ука¬ занным выше требованиям. Пусть для рассматриваемой системы V = ~2 {5х\ -j- 2xiX% -j- x£). (5.1.2) Легко проверить непосредственно, что эта функция удовлетворяет условиям (а), (в) и (г). Так как функция V(хи х.2), задаваемая фор¬ мулой (5.1.2), есть квадратичная форма, то чтобы определить, будет ли она удовлетворять условию (б) теоремы, необходимо определить, будет ли эта квадратичная форма положительно определенной. Для произвольной квадратичной формы от двух переменных Q (х\, х$) = а*\ + 2ЬхуХ2 -f- сх\ (5.1.3) необходимыми и достаточными условиями положительной определен¬ ности являются (а) а^> 0 (5.1.4) и (б) ас — &‘2 > 0. (5.1.5) *) О доказательстве теоремы Ляпунова об асимптотической устойчиво¬ сти в целом см. М а л к и н И. Г., Теория устойчивости движения, «Наука», 1966, стр. 519—520. (Прим. перев.)
200 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 Для квадратичной формы (5.1.2) а = 2,5, b = 0,5 и с = 0,5, поэтому очевидно, что функция (5.1.2) удовлетворяет условию (б) теоремы. Если теперь производная этой функции по времени удов¬ летворяет также и условию (д), тогда V (хъ х2) есть функция Ляпу¬ нова для нашей системы, а это является достаточным условием асим¬ птотической устойчивости системы в целом. Чтобы проверить, выполняется ли для V (хъ х2) условие (д), про¬ дифференцируем уравнение (5.1.2) по времени и вместо производ¬ ных по времени от фазовых координат подставим их значения из уравнения (5.1.1) V (Xi, Х2) = SXjXj -j- XjX2 -|- X{X2 -f- XoX2 — = 5xtx2 -j- X\ (— 3x2 — 2x0 Jr xl + хч (— 3x2 — 2x0 = = — 2 (jq-f *2). (5.1.6) Таким образом, V(хь x2) также является квадратичной формой, при¬ чем отрицательно определенной, и условие (д) теоремы выполняется. Тем самым с помощью прямого метода Ляпунова доказано, что рас¬ смотренная система асимптотически устойчива в целом. Здесь уместно сделать некоторые замечания, позволяющие эври¬ стически интерпретировать такой анализ. Функция V в пространстве переменных хь х2 была выбрана таким образом, чтобы она была положительной во всем пространстве, кроме начала координат, где все переменные и сама функция V обращаются в нуль. Полная производная V функции V по времени (в выражение ко¬ торой вместо производных от переменных dxi/dt подставлены их значения из уравнений системы) принимает отрицательные значения везде, кроме начала координат, где она также обращается в нуль. Таким образом, очевидно, что при любом отличном от нуля значении переменных хг- функция 1/^>0 убывает с ростом времени, так как V<^0. Прямой метод Ляпунова опирается, таким образом, на иссле¬ дование функции V, которая может зависеть от сколь угодно боль¬ шого числа переменных. Если эта функция обладает нужными свой¬ ствами, к ней можно применить рассуждения, очень похожие на те, с помощью которых ранее объяснялось поведение простой системы первого порядка. Однако следует обратить внимание читателя на ряд дополнительных условий, которые указаны в приведенной выше тео¬ реме, и предостеречь его от попыток проводить анализ, пользуясь одними лишь интуитивными рассуждениями, хотя эти рассуждения и
5.1] ВВЕДЕНИЕ 201 полезны для лучшего понимания метода. Строгое доказательство сформулированной выше теоремы следует в общих чертах приведен¬ ным здесь рассуждениям, однако сами эти рассуждения ни в коем случае нельзя еще считать доказательством. Можно рассматривать функцию Ляпунова как аналог потенциаль¬ ной энергии системы. При таком толковании положительная функ¬ ция V и отрицательная V соответствуют системе, рассеивающей энер¬ гию. В этом случае по¬ ведение системы при лю¬ бых начальных условиях приводит к рассеиванию энергии до тех пор, пока она не рассеется полно¬ стью, г. е. все перемен¬ ные Xi не обратятся в нуль. Последнее условие есть условие равновесия для системы, удовлетво¬ ряющей условиям (1) и (2) приведенной выше теоремы. В ряде работ было показано, что ана¬ логия с потенциальной энергией иногда помо¬ гает выбрать функцию, которая может использо¬ ваться как функция Ля¬ пунова. Однако наличие более формальных мето¬ дов получения функции Ляпунова, по-видимому, ограничивает такое применение энергетической аналогии. Приведенная выше теорема допускает геометрическую интерпре¬ тацию. Все рассуждения будут относиться к системе с двумя пере¬ менными, так как это позволит представить геометрические соотно¬ шения на плоскости, однако нетрудно перенести эти же идеи и в /г-мерное пространство. Рассмотрим функцию Ляпунова, которая удовлетворяет условиям (а), (б), (в) и (г) теоремы. Постоянным зна¬ чениям V(xh х*) на фазовой плоскости хъ х2 соответствуют замкну¬ тые ограниченные кривые. Если функция V(хъ х%) есть квадратичная форма, эти кривые будут эллипсами. При возрастающих значениях константы Ку т. е. при 0 A'i Кз /С4, кривые V(xh х%) = = будут иметь вид, показанный на рис. 5.3. Полная производная по времени функции V (хь х.2) равна dV __ дУ dxx ■ дУ dx2 dt dA'i dt ‘ dx2 dt * ф фазовая траек¬ тория отклика устойчивой, * с иcmсмь/ t/ормаль к кривой t'=/fy в точке И, положи тело* ная в указанном напра¬ влении. Рис. 5.3. Геометрическая интерпретация кри¬ терия Ляпунова.
202 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 Рассматривая точку М, в которой некоторая фазовая траектория пересекает линию I/ = /С4, можно представить частные производные функции V как Геометрически это иллюстрируется на рис. 5.3. Используя эти соот¬ ношения, можно записать dVjdt в виде Здесь Vn есть проекция тангенциальной составляющей скорости вдоль траектории движения системы в точке М на нормаль к кривой V — Кц в точке М. Если теперь dVjdt всюду отрицательна, то и Vn также должна быть всюду отрицательна. Следовательно, траектория системы всегда пересекает кривые V = К снаружи. Этого достаточно, чтобы гарантировать при t—> оо стремление переменных Х\ и х2 к нулю. Это рассуждение можно считать доказательством теоремы для случая двух переменных и его можно перенести и на многомер¬ ный случай. В приведенной выше теореме требуется, чтобы V была положи¬ тельно определенной, а V — отрицательно определенной. С тем же успехом можно потребовать отрицательную определенность функции Г и положительную определенность V. Существенным здесь является лишь требование противоположных знаков у функции V и V. Однако в литературе принято определять V как положительную, и мы будем придерживаться этой традиции. Прямой метод Ляпунова может применяться и при доказательстве неустойчивости системы. Теорема, которая при этом используется, совпадает с рассмотренной теоремой, за исключением условия (д), которое заменяется на требование положительной определенности функ¬ ции V (которая, следовательно, должна иметь тот же знак, что и V). Эта теорема, как и ряд других утверждений, строго формули¬ руется в § 5.2. Следует заметить, что критерии устойчивости, получаемые прямым методом Ляпунова, являются только достаточными, но не необходи¬ мыми условиями. Поэтому, если для какой-то системы невозможно и где
5.1] ВВЕДЕНИЕ 203 построить функцию, которая удовлетворяет условиям теоремы об устойчивости или неустойчивости, это еще не позволяет делать ни¬ каких заключений о ее устойчивости или неустойчивости. Кроме того, функция Ляпунова, с помощью которой исследуется устойчивость или неустойчивость системы, определяется неединственным образом. Можно показать, что если построена функция Ляпунова, определяю¬ щая устойчивость или неустойчивость системы, то существует сколько угодно функций, с помощью которых также можно судить об устой¬ чивости или неустойчивости этой системы. 5.1.3. План дальнейшего изложения Выше мы кратко познакомились с историей прямого метода Ля¬ пунова и рассмотрели одну теорему, поясняющую основную идею анализа устойчивости. Для иллюстрации эта теорема была применена к простой линейной системе второго порядка. Изложение в этом вводном параграфе умышленно проводилось в довольно популярной форме и сопровождалось рассмотрением некоторых аналогий. Гео¬ метрическая интерпретация для случая двух переменных поясняла сущность доказательства теоремы. Ниже все результаты будут приводиться без доказательства. Однако всюду будут даваться ссылки на соответствующую литературу, в ко¬ торой читатель сможет найти эти доказательства. Теорема, приведен¬ ная выше в настоящем введении, ради простоты содержит ряд огра¬ ничительных условий, от которых, вообще говоря, можно отказаться. Поэтому эта теорема не встречается в числе теорем, приводимых ниже. В § 5.2 дается ее более общая формулировка. В § 5.2 вводятся основные обозначения и определения и приво¬ дятся теоремы, которые могут использоваться при исследовании устойчивости систем автоматического управления с помощью прямого метода Ляпунова. Введение специальных обозначений и определений облегчает понимание и применение этих теорем. В основном эти опре¬ деления приводятся в начале параграфа, однако при необходимости они будут вводится и далее. Каждая теорема имеет номер, что упро¬ щает ссылки на нее, а также имеет название, которое отражает ее содержание и помогает выбрать теорему, соответствующую той или иной задаче. Ссылка на автора дается указанием литературы. В на¬ званиях теорем фамилии авторов не указаны. Теорема 5.1 дает усло¬ вия существования, единственности и непрерывности решения системы дифференциальных уравнений. В теореме 5.2 рассматривается устой¬ чивость линейных систем, в теоремах 5.3—5.8 — устойчивость нели¬ нейных систем в малой окрестности точки равновесия. Часто удобно применять эти теоремы сначала для установления локальной устой¬ чивости или неустойчивости положения равновесия, а затем исполь¬ зовать полученные результаты для анализа системы в более широкой
204 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 области или даже во всем пространстве состояний. Ряд теорем, при¬ водимых далее, посвящен расширению и обобщению методов, отно¬ сящихся к прямому методу Ляпунова. В этот параграф включены также некоторые алгебраические теоремы, которые используются в теории устойчивости. В § 5.3 излагается ряд наиболее эффективных методов примене¬ ния теорем устойчивости и методов построения функций Ляпунова. Приводится ряд примеров. В этом параграфе рассматривается метод канонических преобразований Лурье, метод Айзермана, .метод Кра- совского, метод Плисса, а также метод переменного градиента. При¬ водится также пример применения одной из теорем, касающейся эвентуальной устойчивости, в задаче адаптивного управления. В за¬ ключении параграфа излагается метод оценки верхней границы пере¬ ходного процесса в системе с помощью прямого метода Ляпунова. В параграфе 5.4 дается краткое резюме изложенного материала и приводятся некоторые замечания, касающиеся современного состояния этого метода анализа нелинейных систем управления. 5.2. Теоремы, определения и обозначения В дальнейшем для записи систем дифференциальных уравнений, представляющих анализируемую систему управления, будет удобно пользоваться матричными обозначениями. Систему линейных диффе¬ ренциальных уравнений первого порядка Х\ = а\\Х 1 -f" «1пхп х% = а^\Х\ ~\~ ашхъ "Ь • • • ~\~ аЧпхп хп~ ап\х\ апЪх<1 -f- • • • -f" аппхп можно записать с помощью следующего матричного уравнения: х=Ах, (5.2.2) в котором Х\ х\ х2 Хъ , X — I хп хп Q\ 1 ап ••• а\п «21 «22 • . • «2л ^п\ • • • &пп При этом используются обычные операции матричной алгебры. (0.2.1)
6.2] ТЕОРНМЫ, ОПРЕДЕЛЕНИЯ И ОБОЗНАЧЕНИЯ 205 Определение 5.1. Системы, которые можно записать в виде (5.2.2), называются линейными системами. Если, кроме линейных членов (5.2.2), в уравнение входят нели¬ нейные члены, такая система может быть представлена в виде х — Ax~f(x\ в котором f\ (*) fn(X) где fi(x) — некоторые нелинейные функции переменных х,, х.2,..., х„. Определение 5.2. Нелинейные системы. Системы, которые можно записать в виде (5.2.3), называются нелинейными системами. Определение 5.3. Переменные состояния. Переменные хъ Хъ ..., хп называются переменными состояния, так как в любой мо¬ мент времени они определяют состояние системы. Определение 5.4. Пространство состояний. /х-мерное евклидово пространство, по координатным осям которого отклады¬ ваются переменные хь хъ ..., хПУ называется пространством состоя¬ ний. Любая точка в этом пространстве представляет единственный и определенный набор значений, которые могут принять переменные xh х<.ъ ..., хп. Таким образом, каждая точка представляет опреде¬ ленное состояние системы. Если состояние системы задано при £ = 0, тогда при £^>0 пере¬ менные состояния задают траекторию в пространстве состояний. Вид этой траектории полностью определяется начальной точкой и видом уравнения (5.2.2) или (5.2.3) *). Очевидно, что эго уравнение (5.2.2) есть просто частный случай (5.2.3). Определение 5.5. Стационарные системы. Системы, кото¬ рые описываются уравнениями (5.2.2) или (5.2.3), в которых элементы матрицы А и элементы функции / не зависят от времени, называются стационарными системами. Определение 5.6. Нестационарные системы. Системы, кото¬ рые описываются уравнениями (5.2.2) или (5.2.3), в которых либо элементы матрицы Л, либо элементы функции / или и те и другие зависят от времени, называются нестационарными системами. Определение 5.7. Свободные или не возмущенные системы. Стационарные или нестационарные системы, которые можно пред¬ *) Требование единственности траекторий накладывает определенные ограничения на правую часть уравнений (5.2.2) и (5.2.3). См., например, Петровский И. Г., Лекции по теории обыкновенных дифференциальных уравнений, «Наука», 1964, стр. 115—118 и 129—130. (Прим. перев.) (5.2.3) (5.2.4)
206 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 ставить в виде (5.2.2) или (5.2.3), называются свободными или невоз¬ мущенными системами. Определение 5.8. Возмущенные системы. Системы, которые можно представить в виде где x = Ax-'rf(x) + R(t), (5.2.5) R(t): Г\ (О г г (О гл(0 называются возмущенными системами. Определение 5.9. Автономные системы. Стационарная не¬ возмущенная система называется автономной системой. Определение 5.10. Р0 (хувек торные степенные ряды. Вектор P9(jc) имеет элементами либо нули, либо функции, которые образо¬ ваны из степеней или произведений переменных хь ..., хп по¬ рядка, равного или меньшего 6. Определение 5.11. Нормы ||л:|| и \х\. Величины \\х\\ и |*| называются нормами. Существует два вида норм *). Первая — это евклидова норма и,?* А/а (5.2.6* Вторая норма называется неевклидовой нормой и задается выраже¬ нием (5.2.7) Определение 5.12. ср (f; jc0, t^-решение или траектория в прпстианстве состояний [11]. Если существует единственная**) вектор-функция сp(t; л:0, tQ), дифференцируемая по t, такая, что при *) В качестве норм могут рассматриваться и другие выражения, на¬ пример ||х|| = шах ( | хх I, | д:2 |. ..., | хп |). См. Демидович Б. П., i Марон И. А., Основы вычислительной математики, Физматгиз, 1963, стр. 238—240. {Прим. перев.) **) Требование единственности обычно не включается в определение решения дифференциального уравнения. См. Петровский И. Г., Лекции по теории обыкновенных дифференциальных уравнений, 1964, стр. 7. (Прим. перев.)
5.2) ТЕОРЕМЫ, ОПРЕДЕЛЕНИЯ И ОБОЗНАЧЕНИЯ 207 любых фиксированных лг0, t0 (а) Хц, г'о) = *о> (5.2.8) (б) ^ ф (t'< Хо, t0) = A(f(t; ха, г‘п) + /(ф(г'; xlh t0)) (5.2.9) в некотором интервале 11 — t0\^a(t0), то такая функция <р назы¬ вается решением уравнения (5.2.3). Определение решения уравне¬ ния (5.2.2) есть частный случай этого определения. Теорема 5.1. Существование, единственность и непрерыв¬ ность (см. [6], теоремы 2.3 и 7.1, главу 1; см. также [11]). Пусть Ax-\-f(x) в некоторой окрестности произвольной точки je0, t0 i |j x - лг01| b (Xq) R(jc0, <„) = ] b, c>0 (5.2.10) [ К — I ^ c (*o) непрерывны по x и t и удовлетворяют условию Липшица, т. е. для любых (х, t) и (у, t) в окрестности R(x0, у0) выполняется условие II (Ах +/(*)) - (Ау + /(у)) II < л IIJC - у II, (5.2.11) где k — положительная константа, зависящая только от b и с. Тогда (а) Существует единственное решение ср(£; л;0, t0) уравнения (5.2.3), определенное для всех t, таких, что 11 — ^0|^а(^0), которое начи¬ нается в точке xQ, t0. Константа a(tQ) определяется как (5.2.12) где M(Xq, t0)—максимальное значение, которое принимает непре¬ рывная функция |! Ах -j- f(x) || на замкнутом и ограниченном мно¬ жестве R(xо, t0). (б) В некоторой окрестности точки дг0, t0 это решение есть не¬ прерывная функция своих аргументов. Заметим, что условие Липшица требует от функции Ax-\-f(x) непрерывности только по х. Локальное условие Липшица, написан¬ ное выше, означает, что решение уравнения (5.2.3) существует лишь в некоторой окрестности х0, ^о- Условие Липшица, которое выпол¬ няется для Ax-{-f(x) всюду, называется условием Липшица в целом. Если система удовлетворяет условию Липшица в целом, ее решение или траектория в пространстве состояний не может за конечное время уйти в бесконечность. Термин «условие Липшица в целом» эквивалентен термину «глобальное условие Липшица», который также распространен в литературе.
208 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 Определение 5.13. Непрерывные по времени динамические системы [11]. Если траектория <р такова, что (а) ср(£0; *0, ^о) = *о Для всех (дг0, U)\ (5.2.13) (б) ф (*а; ф(^; х0, Q, ^)=ф(^; х0, U) для всех лг0, t0f th t, (условие существования и единственности); (5.2.14) (в) ср непрерывна по всем аргументам; (г) ср определена для всех jc0, tQ, t (решение не уходит в беско¬ нечность за конечное время), то система называется непрерывной по времени динамической системой. Определение 5.14. Состояние равновесия. Состояние хе не¬ возмущенной динамической системы (уравнение (5.2.3)) есть состояние равновесия, если Ахе~]~ f(xe)~ 0 для всех t, (5.2.15) или, что то же самое, ср(£; хе> 0) = хе для всех t (5.2.16) Приводимые далее определения касаются различных типов устой¬ чивости и следуют определениям [11]. Определение 5.15. Устойчивость [11]. Состояние равнове¬ сия хе невозмущенной динамической системы называется устойчивым, если для любого вещественного числа в^>0 найдется вещественное число 8(е0, *0)>О такое, что из соотношения il^o — Vsi^8 (5.2.17) следует II?С; х0, t0) — для всех t^t0. (5.2.18) Определение 5.16. Асимптотическая устойчивость [ 1.1 ]. Состояние равновесия хе невозмущенной динамической системы на¬ зывается асимптотически устойчивым, если (а) оно устойчиво, (б) любое движение, которое начинается достаточно близко от хеУ стремится к хе при t-> оо. Более строго, существует такое веще¬ ственное число г(£0)^>0, что при любом вещественном най¬ дется вещественное число ^({л, дг0, t0) такое, что из || аг0 — хе II (t0) следует ||<p(<; х0, t0) — jtJjCtJ. для всех Следует заметить, что асимптотическая устойчивость есть локаль¬ ная характеристика, так как число г (t0) точно не задается и может быть сколь угодно мало. Определение 5.17. Равностепенная асимптотическая устойчивость [11]. Состояние равновесия хе невозмущепной дина*
5.21 ТЕОРЕМЫ, ОПРЕДЕЛЕНИЯ И ОБОЗНАЧЕНИЯ 209 мической системы называется равностепенно асимптотически устойчи¬ вым, если (а) оно устойчиво, (б) любое движение, которое начинается достаточно близко от хе7 стремится к хе при t-*co равномерно по лг0, т. е. число Т в опре¬ делении 5.16 не зависит от х0: T(\i> г(£0)> до¬ определение 5.18. Асимптотическая устойчивость в це¬ лом [11]. Состояние равновесия невозмушенной динамической системы называется асимптотически устойчивым в целом, если (а) оно устойчиво, (б) любое движение стремится к хе при t-+ со. Определение 5.19. Равностепенная асимптотическая устойчивость в большом [11]. Состояние равновесия невозмущеи- ной динамической системы называется равностепенно асимптотически устойчивым в большом, если (а) оно устойчиво, (б) каждое движение при t-> оо стремится к хе равномерно по jc0 при ЦлГоЦ^г, где г — фиксированное произвольно большое число. Определение 5.20. Ограниченная траектория [И]. Траекто¬ рия называется ограниченной для любых t0f jc0, если можно указать такое число B{xQ, tQ), что для всех ||cp(tf; jt0, ^0)||^Z?. Определение 5.21. Равностепенно ограниченная траекто¬ рия [11]. Траектория называется равностепенно ограниченной, если В(хо, t0)^B(r, t0) (см. определение 5.20) для всех ||x0||^r- Заметим, что из асимптотической устойчивости в большом следует ограниченность траекторий, а из равностепенной асимптотической, устойчивости в большом следует равностепенная ограниченность. Определение 5.22. Равномерная устойчивость [11]. Если в основном определении 5.15 о не зависит от t0, мы имеем равно¬ мерную устойчивость. Определение 5.23. Равномерная асимптотическая устой¬ чивость [11]. Если при равностепенной асимптотической устойчи¬ вости числа о, г и 7 не зависят от tQj говорят, что имеет место равномерная асимптотическая устойчивость. Определение 5.24. Равномерная асимптотическая устой¬ чивость в большом [11]. Состояние равновесия хе невозмущенной динамической системы равномерно асимптотически устойчиво в боль¬ шом, если (а) оно равномерно устойчиво, (б) оно равномерно ограничено, т. е. при любом г^> 0 найдется такое В (г), что при || лс0 — хе\\ ^ г имеет место || ср (t\ х0, t0) — хе || ^ В Для всех t^t0 и (в) любое движение стремится при t-+ оо к хе равномерно по *0 и || х01| ^ г, где г — произвольно большое фиксированное число. Таким образом, при любых г^> 0 и найдется такое число
210 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА ГГЛ. 5 Т (ja, г), что из || Хц — || г следует Ц ср (t; х0) t0) — хе || ^ jx для всех t ^ tQ -|- Т. Теперь, пользуясь этими определениями, можно излагать различ¬ ные теоремы об устойчивости. Первая группа теорем приводится в работе [19] и более подробно в монографиях [6] и [3]. Теорема 5.2. Устойчивость автономных систем. Состояние равновесия хе = 0 системы х = Ах (5.2.19) равномерно асимптотически устойчиво в целом тогда и только тогда, когда вещественные части характеристических чисел матрицы А отрицательны. Здесь хв = 0 означает я-мерный вектор, все компо¬ ненты которого нули. Подчеркнем, что в данной теореме А — матрица с постоянными элементами. Теорема 5.3. Устойчивость нелинейных автономных систем. Если (а) каждое решение системы х—Ах равномерно устойчиво в целом, (б) f(x) непрерывна в некоторой окрестности jc = 0, (в) Т*Г при 1*1^°’ тогда для системы х = Ах -j— f (х), jc(0) = c (5.2.20) решение хе — 0 в некоторой достаточно малой его окрестности является асимптотически устойчивым решением. Доказательство этой теоремы приводится в работе [6] (сгр. 343—346) и в работе [3] (стр. 96—102)*). Теорема 5.4. Неустойчивость решения. Решение хг = 0 си¬ стемы (5.2.20) неустойчиво, если эта система удовлетворяет условиям (б) и (в) теоремы 5.3 и если хотя бы один корень характеристиче¬ ского уравнения матрицы А имеет положительную вещественную часть. Доказательство этой теоремы приводится в работе [6] (стр. 346—347) и в работе [3] (сгр. 107—108). Теорема 5.5. Условная устойчивость нелинейных автоном¬ ных систем. Пусть в системе (5.2.20) (а)/е характеристических чисел (k^n) матрицы А имеют отри¬ цательную вещественную часть, 0 при ' *' °’ (в) |/(JCi) — f(Xi) | sg с, | дг,—*s| для I*, | и |*2|^c-2. где ct 0 при 6'2 —► 0. *) Здесь и в дальнейшем номера страниц указываются по русским изда¬ ниям упоминаемых работ, если таковые имеются. (Прим. перев.)
5.21 ТЕОРЕМЫ. ОПРЕДЕЛЕНИЯ И ОБОЗНАЧЕНИЯ 211 Тогда существует ^-параметрическое семейство решений уравне¬ ния (5.2.20), стремящихся к нулю при оо. В этой теореме утверждается, что, хотя решение, которое начи¬ нается в произвольной окрестности фазового пространства вблизи точки хе = 0у может оказаться неустойчивым, найдется тем не менее такая часть этой области, прилегающая к началу координат, что любое решение, которое начинается там, будет асимптотически устойчивым. Доказательство теоремы 5.5 приводится в [6] (стр. 360—364) и в [3] (стр. 108—110). Теорема 5.6. Устойчивость нелинейных автономных систем. Частный случай. Пусть (а) каждое решение уравнения х = Ах асимптотически устой¬ чиво в целом, б) f(x, у) и g(x, у) непрерывны в некоторой окрестности л: = 0, при 1*1-0, (г) | лг (0) j = | с | достаточно мало, (я) 1 '-*0 ПРИ 1*1 -*0. £■(*- 0) = As(*)• Тогда нулевое решение хе = 0, уе = 0 системы х = Ах f (ху у), х (0) = с, (5.2.21 а) y — g(x, у\ у (0) = d (5.2.216) устойчиво и, кроме того, решение хе = 0 уравнения (5.2.21а) асимп¬ тотически устойчиво. Некоторые соображения, связанные с доказательством этой теоремы, приводятся в [19|. Теорема 5.7. Устойчивость нелинейных неавтономных систем. Пусть (а) каждое решение х=Ах асимптотически устойчиво в целом, (б) f(x) непрерывна в некоторой окрестности хе = 0 фазового пространства, (в) при i*i и (Г) |R(0|<M. Тогда решение системы x = х(0 ) — с (5.2.22) ограничено, если | с | и М достаточно малы. В работе [19] (стр. 40—43) приводится как строгое доказатель¬ ство этой теоремы, так и ряд эвристических рассуждений, относя¬ щихся к этому доказательству.
212 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 Т е о р е м а 5.8. Устойчивость нелинейных неавтономных си¬ стем. Частный случай. Пусть (а) каждое решение х = Ах асимптотически устойчиво в целом, (б) f(x, У) и у) непрерывны в некоторой окрестности начала координат фазового пространства, (в) ^->0 при | д; | —»• 0 И (г) 0 при I AT j -»■ 0, g(x, 0) = Р., (X). Тогда решение системы х = Ах /(х, у)~ М (t\ х (0) — с, У = ё(х,у), у (0) d t ограничено, если |л:| и ^\x(r)\dr ограничены. Доказательство тео- и ремы 5.8 приводится в работе [19] (стр. 43—44). В теоремах 5.3—5.8 рассматривалась устойчивость или неустой¬ чивость в произвольно малой окрестности начала координат фазо¬ вого пространства. Однако эти теоремы не дают никакой информации о том, каковы размеры этой окрестности. По сути дела, эти теоремы вообще оказываются мало полезными для определения оптимальных или субоптимальных параметров при проектировании системы управ¬ ления, поскольку влияние нелинейной части системы дифференциаль¬ ных уравнений учитывается в этих теоремах лишь в малой части фазового пространства. Тем не менее теоремы 5.3—5.8 могут успешно применяться для исследования устойчивости состояния равновесия системы. Это замечание следует иметь в виду при использовании теорем, относящихся к прямому методу Ляпунова. Поскольку ориентироваться в приведенных выше теоремах отно¬ сительно просто, знание их, по-видимому, существенно уменьшит число неудачных применений прямого метода Ляпунова в задачах анализа устойчивости. Следующая группа теорем, которая приводится ниже, включает основные теоремы прямого метода Ляпунова и большинство обоб¬ щений этого метода, которые могут представить интерес для спе¬ циалиста по автоматическому управлению. Эти теоремы в литературе приводятся в различной форме и по-разному интерпретируются. Для читателя, желающего более обстоятельно познакомиться с имеющейся по этому вопросу литературой, ниже приводится соответствующая библиография. Относительно теорем, основанных на прямом методе Ляпунова, следует еще раз специально отметить одно обстоятельство. Оно за¬ ключается в том, что эти теоремы дают не необходимые, а лишь (5.2.23а) (5.2.236)
5.2] ТЕОРЕМЫ, ОПРЕДЕЛЕНИЯ И ОБОЗНАЧЕНИЯ 21.4 достаточные условия устойчивости и, следовательно, невыполнение условий теорем, вообще говоря, еще не указывает на то, что иссле¬ дуемая система уравнений неустойчива. Теорема 5.9. Разномерная асимптотическая устойчивость в целом для невозмущенных нелинейных неавтономных систем [11]. Пусть для непрерывной по времени невозмущенной динамической системы (здесь 0 — /z-мерный нулевой вектор), существует скалярная функ¬ ция V (х, t), имеющая непрерывные по х и t частные производные первого порядка, такая, что 1/(0, 0 = 0 и (а) V (х, t) — положительно определенная функция, т. е. суще¬ ствует непрерывная неубывающая скалярная функция a(||jc||) такая, что а (0) = 0 и для всех t и всех х ф 0 (б) существует непрерывная скалярная функция 7(||x|j) такая,, что 7(0) — 0 и производная V по времени вдоль траектории, начи¬ нающейся в точке t, х, удовлетворяет при всех t и всех х ф 0 следующему соотношению: (в) существует непрерывная неубывающая скалярная функция Р(||аг||) такая, что [3(0)=0 и для всех t (г) а (|| х ||) оо при ||jt||->oo. Тогда положение равновесия хв — 0 равномерно асимптотически устойчиво в целом. Функция V (х, t) на¬ зывается функцией Ляпунова для системы дифференциальных урав¬ нений (5.2.24). Определение 5.25. VI/ — градиент скалярной функции. х = Ах -}- f (х), в которой А и / могут зависеть от времени, причем Л0+/(0) = 0 при всех t (5.2.24) (5.2.25) (5.2.26) V (Ху 0 = —^jr—^ вдоль траектории, начинающейся в точке t, х> dV[y{% *о, t0), т] dz х = t = Tt +(VV)'[ + f{x)] ^ - T (ll * < 0; (5.2.27) (5.2.28)
214 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 Градиентом VP скалярной функции V(хх, хь ..., xw t) называется вектор-столбец dV VI/= дх{ дУ дх2 дУ (5.2.30) дхп Различные комбинации условий теоремы 5.9 позволяют получить до¬ статочные условия для различных более слабых видов устойчивости. Ниже приводятся соответствующие теоремы. Теорема 5.10. Равномерная асимптотическая устойчивость [11]. Условия (а), (б) и (в) теоремы 5.9 являются достаточными условиями равномерной асимптотической устойчивости. Теорема 5.11. Равностепенная асимптотическая устойчи¬ вость в целом [И]. Условия (а), (б) и (г) теоремы 5.9 являются достаточными условиями равностепенной асимптотической устойчи¬ вости в целом. Теорема 5.12. Равностепенная асимптотическая устойчи¬ вость [11]. Условия (а) и (б) теоремы 5.9 являются достаточными' условиями равностепенной асимптотической устойчивости. Теорема 5.13. Равномерная устойчивость [11]. Условия (а) и (в) теоремы 5.9 вместе с условием V{ху t)^0 для всех Ху t (5.2.31) являются достаточными условиями равномерной устойчивости. Теорема 5.14. Устойчивость [11]. Условие (а) теоремы 5.9 вместе с условием V(ху t)^0 для всех ху t являются достаточными условиями устойчивости. Теорема 5.15. Бесконечное время удержания в конечной области [И]. Условия (а) и (г) теоремы 5.9 вместе с условием V (Ху t)^c V (Ху t) для всех ху t} где с — положительная постоянная (5.2.32), являются достаточными условиями бесконечного времени удержания в конечной области. Теорема 5.16. Равностепенная асимптотическая устойчи¬ вость в целом для непрерывных по времени нелинейных автоном¬ ных динамических систем [И]. Равностепенная асимптотическая устойчивость в целом непрерывной по времени нелинейной автоном¬ ной динамической системы х — Ах —j— / (х), Л0 -j— / (0) — 0 (5.2.33)
5.2} ТЕОРЕМЫ. ОПРЕДЕЛЕНИЯ И ОБОЗНАЧЕНИЯ 215 обеспечивается существованием скалярной функции V(х), которая [имеет непрерывные частные производные первого порядка по хУ причем i (а) V (0) = 0, (б) \/(jc)^>0 для всех х^О, (в) V (х) 0 для всех х ф 0, (г) V(x) -> оо при || JC || —^ оо. Условие (в) может быть заменено условиями (в = 1) V(x)^0 для всех х (т. е. V(х) знако-отрицательна), (в = 2) V [ср (t; х^ £0)] не стремится к нулю при t^t0 при лю¬ бом и любом Xq ф 0. Доказательства теорем 5.9—5.16 приводятся в работе [11]*), хотя в некоторых случаях там используются иные обозначения. Теорема 5.17. Неустойчивость в целом непрерывных по вре¬ мени нелинейных автономных динамических систем [8, 28]. Если для непрерывной по времени автономной динамической системы (5.2.33) найдется скалярная функция V (jc), непрерывная и имеющая непре¬ рывные частные производные первого порядка по х} такая, что (а) V(0) = 0, (б) V (jc) ^ 0 для всех х Ф 0, (в) V (д:) 0 для всех х Ф 0, (г) V(x)->od при ||л; ||->*00, тогда эта система неустойчива в целом. Эта теорема, несколько иначе сформулированная, приводится и доказывается в работах [8, 28]. Теорема 5.18. Существование функции Ляпунова [11]. Пусть функция Ax-\-f(x) (уравнение (5.2.3)) удовлетворяет условию Лип¬ шица. Пусть, кроме того, Л0-^-/(0) = 0 и положение равновесия jce = 0 равномерно устойчиво в целом. Тогда существует функция Ляпунова V (ху t\ которая бесконечно дифференцируема по х и t и удовлетворяет всем условиям теоремы 5.9. Формулировка и доказательство теоремы 5.18 приведены в ра¬ боте [20]. Из нее следует, что существование функции Ляпунова, удовлетворяющей условиям теоремы 5.9, необходимо и достаточно для равномерной асимптотической устойчивости в целом. Теорема 5.19. Линейные системы с вынуждающими силами [11]. Рассмотрим непрерывную по времени линейную динамическую систему х = Ахф DR(t\ (5.2.34) в которой R(t) есть входное воздействие или вынуждающая сила, а элементы матриц А и D могут зависеть от времени. *) См. также М а л к и и И. Г., Теория устойчивости движения, «Наука», 1966. (Прим. перев.)
216 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 Пусть выполняются следующие ограничения: (а) || ct<^oo для всех ||jc||=1 и всех t *), и (б) 0<^c2^||Z>jc||^c3<^oo для всех ||jc||=1 и всех t Тогда общее решение уравнения (5.2.35) может быть записано в виде t ч (<; Х„ <о)=ф (*. U) *« + 5 ф (t, х) D (х) R (х) rfx **). h Относительно этой системы справедливы следующие эквивалентные предложения: (1) при любой равномерно ограниченной вынуждающей силе !*(0|Хс4<ОО решение системы равномерно ограничено при всех t^t0 t I! 1 *(91 = ф (t, U) ^0 + \ Ф (t, X) D (x) R('.)d X|!^ cs (c4, [| д:0 IIX oo; I /0 1 t (2) при всех t ^ t0 ^ || Ф (^, t)|| d т ^ c6 oo; to (3) положение равновесия xe = 0 невозмущенной системы равно¬ мерно асимптотически устойчиво; (4) существуют положительные константы с7 и с8 такие, что при любом t^t0 II Ф(*, ^о)||^^_С8(/_/о); (5) если найдется симметрическая положительно определенная не¬ прерывная по t матрица Q(t) такая, что при всех t^t0 \Q(t)-c„I], [do/— Q(01 И (Cl0 — c9)l***) будут положительно определенными, тогда скалярная функция, кото¬ рая задается выражением оо V(x,t)=\ {[ф(х, 0jc]'[QW][®(^0^]}^=^[P(0]jc, (5.2.35) *) Все ci — конечные положительные постоянные. **) Ф (t} t0) называется переходной матрицей (матрицей Коши. — Прим. перев.). Ее элементы могут рассматриваться как импульсные переходные функции при соответствующим образом подобранных возмущениях и наблю¬ дениях [11]. ***) Здесь / означает единичную матрицу. {Прим. перев.)
6.2] ТЕОРЕМЫ, ОПРЕДЕЛЕНИЯ И ОБОЗНАЧЕНИЯ 217 является функцией Ляпунова для невозмущенной системы, удовлет¬ воряющей условиям теоремы 5.9, причем производная от этой функ¬ ции вдоль невозмущенного решения, начинающегося в точке х, t, равна V(x, t) = — x' [Q (*)] x *). (5.2.36) Теорема 5.20. Асимптотическая устойчивость непрерывной по времени линейной автономной динамической системы [11]. По¬ ложение равновесия хе = 0 непрерывной по времени линейной авто¬ номной динамической системы х = Ах (5.2.37) асимптотически устойчиво тогда и только тогда, когда для любой симметрической положительно определенной матрицы Q существует симметрическая положительно определенная матрица Р, которая п (п -f- 1) » является единственным решением системы у—- линейных уравне¬ ний А'Р PA = — Q, (5.2.38) причем |]х||2Р есть функция Ляпунова для этой системы. Теорема 5.21. Обобщение теоремы 5.20 [11]. Вещественные части характеристических чисел постоянной матрицы А (см. тео¬ рему 5.20) будут меньше а тогда и только тогда, когда для любой симметрической положительно определенной матрицы Q существует симметрическая положительно определенная матрица Р, которая яв¬ ляется единственным решением системы п ^ линейных уравнений — 2аР Л'Р -f РА = — Q. (5.2.39) Доказательства теорем 5.19 — 5.21 приведены в работе [11], где указаны первоисточники, а также проводится обсуждение их значения и возможностей применения. Теорема 5.22. Области асимптотической устойчивости для нелинейных автономных систем [13]. Пусть Q есть содержащая хе = 0 ограниченная замкнутая область фазового пространства для системы дифференциальных уравнений x=Ax+f(x\ Л0-{-/(0) = 0, (5.3.40) где Ax-\-f(x) удовлетворяют определению непрерывной по времени автономной динамической системы. Пусть далее 2 обладает тем *) Здесь ' означает операцию транспонирования. {Прим. перев.)
218 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 свойством, что каждое решение ср(/; х0, t0), которое начинается в 2, остается там и при любом t. Пусть, наконец, существует скалярная функция V{х)у которая непрерывна в 2 и имеет там непрерывные частные производные первого порядка, и такая, что в области 2 (а) У(0) = 0, (б) 1/(jc)^>0 для всех х Ф О, (в) V(je)<^0 для всех х ф 0. Вместо условия (в) можно рассматривать условия (в-1) \/(jc)^0 для всех х (т. е. V(х) знако-огрицательна), (в-2) V[y(t; jc0, tQ)] не обращается в тождественный нуль при t^t0 для любого t0 и любого х0 Ф 0. Тогда любое решение, которое начинается в области 2, асимпто¬ тически устойчиво, а точка хе = 0 есть точка равновесия. Доказатель¬ ство теоремы 5.22 приводится в работе [13] (стр. 9—10). Заметим, что теорема 1 работы [13] и соответствующее доказательство по¬ зволяют получить более общее утверждение, чем теорема 5.22. Теорема 5.23. Способ нахождения области асимптотичес¬ кой устойчивости для нелинейных автономных систем [3]. Пусть 2 есть замкнутая область, которая определяется неравенством V(x)^Ly где V(х) есть скалярная непрерывная в 2 функция, имеющая в 2 непрерывные частные производные первого порядка. Пусть для системы (5.2.40) функция V(х) удовлетворяет в области 2 условиям (а), (б) и (в) теоремы 5.22 и область 2 ограничена. Тогда любое решение системы (5.2.40), которое начинается в 2 или попадает туда, является асимптотически устойчивым и точка хе = 0 есть точка равновесия. В теореме 5.23 достаточным условием того, что область 2, опре¬ деляемая неравенством V(x)^Ly ограничена, является 1/(лс)->со при || х || —> оо. Если lim mfV(x) = L0 1! X Н — со область 2 ограничена для всех L<^L0. В работе [13] (стр. 10 — 14а) дается анализ теоремы 5.23 и приводятся примеры ее применения. Т е о р ем а 5.24. Исследование ограниченности решений с помощью прямого метода Ляпунова (теорема Лагранжа) [13]. Пусть для системы (5.2.40) 2 есть ограниченная окрестность начала координат, и пусть 2е есть ее дополнение (т. е. совокупность точек, внешних по отношению к 2). Пусть далее W(x) есть непрерывная в 2е скалярная функция, имеющая там непрерывные частные производные первого порядка и удовлетворяющая условиям: (а) U7(Jt)^>0 для всех х 2е, (б) U7(jc)^0 для всех х(^2с, (в) W(x) со при ||л: 1 -* со.
5.2] ТЕОРЕМЫ, ОПРЕДЕЛЕНИЯ И ОБОЗНАЧЕНИЯ 219 Тогда каждое решение уравнения (5.2.40) ограничено при всех t^O. Доказательство теоремы 5.24 приводится в работе [13] (стр. 16—19). Там же рассматривается два простых примера ее применения. Теорема 5.25. Области эвентуальной асимптотической ус той- чивости невозмущенных нелинейных неавтономных систем [14]. Рассмотрим непрерывную по времени невозмущенную динамическую систему * = А*+/(*), (5.2.41) в которой Ли/ могут зависеть от времени и где Л0+/(0) = 0 для всех t, (5.2.42) причем /(jc) имеет непрерывные частные производные первого порядка. Обозначим ср(£;л;0,£0) решение, удовлетворяющее условию ср (^0; аг0, ^о)=^о- Пусть 2— ограниченная замкнутая область, содержащая начало координат. Пусть далее 20— область внутри области 2, обладающая тем свойством, что решения, которые начинаются в 20 при Г0, остаются в дальнейшем в 2. Пусть, наконец, существует скалярная функция V (х, t) такая, что (а) V(x, t)-+U{x) при t-+oo равномерно по х 2, (б) V(x, t)->— W(x) при t-+ оо равномерно по х £ 2, (в) U(x) и W{x) есть положительно определенные функции при x£Q. Тогда существует Т0^>0 такое, что ср (t; x0i t0)-> 0 при t-^oo для всех jc0 ^ L>o и всех Г0. Теорема 5.26. Способ определения области эвентуальной устойчивости для невозмущенных нелинейных неавтономных си¬ стем [14]. Рассмотрим непрерывную по времени невозмущенную ди¬ намическую систему, которая уже встречалась выше в теореме 5.25. Пусть 2 есть ограниченная замкнутая область, определяемая неравенством U(x) ^ L (L 0), и пусть выполнены условия (а), (б) и (в) теоремы 5.25. Пусть далее для любого 8^>0 существует область, которая определяется неравенством U(x)^L — Ъ. Тогда найдется 0 такое, что ср (t; х0, tQ) -> 0 при t-+ оо для всех Хо £ 28 и всех 7V К теореме 5.26 следует добавить, что достаточное условие, при котором область 2, определяемая неравенством U(x)^L, будет ограниченной для всех L, состоит в том, что £/(jt)->oo при ||jc||-> оо. Если же lim inf U(x) = L0, II Jf fj - ос тогда область 2 будет ограниченной для всех L<^L{). Доказательство теорем 5.25 и 5.26 было получено Лассалем. Оно приведено
220 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 в работе [141. И. Г. Малкиным была доказана весьма важная теорема, устанавливающая, к какому виду может быть приведена функция Ляпунова, если уравнение (5.2.40) удовлетворяет некоторым условиям. Эта теорема изложена в работе [5] (стр. 112). Ниже приводится формулировка этой теоремы. Теорема 5.27. Условия записи функции Ляпунова в виде квадратичной формы [5]. Пусть объект описывается системой диф¬ ференциальных уравнений вида х = Ах —j- Р (ty Jt), (5.2.43) в которых А — матрица порядка п X я, элементы которой есть непрерывные ограниченные функции времени, а Р — векторная функ¬ ция t и х, координатами которой являются степенные ряды по хъ ..., хт равномерно относительно t сходящиеся при [|jc||<^£, с коэффициентами в виде непрерывных ограниченных функций времени. Пусть далее существует положительно определенная функция V(,х) такая, что V (х) отрицательно определена. Тогда существует квадра¬ тичная форма в фазовом пространстве хь ..., хП) обладающая теми же свойствами. При этом квадратичная форма удовлетворяет следую¬ щим неравенствам: V(x)^a2'^ix!> V (*)«£ — Ь^х! (5.2.44) при некоторых а, Ь^> 0. Этим заканчивается изложение теорем, посвященных разработке и обобщению прямого метода Ляпунова. Так как при нахождении и различных преобразованиях функции Ляпунова часто используются различные теоремы, относящиеся к сим¬ метрическим матрицам и квадратичным формам, ниже для удобства читателя приводится ряд таких теорем. Большая часть их взята из работы [4], однако их можно найти также в любом курсе современ¬ ной алгебры *). Определение 5.26. Матричная запись произвольной квадра¬ тичной (формы. Произвольная квадратичная форма Q от п перемен¬ ных может быть записана в виде Q (х) = х' Вху (5.2.45) где х — /i-мерный вектор-столбец (см. уравнение (5.2.2)), а хТ — век¬ тор-строка, получаемый транспонированием вектора х. В есть матрица пУ^Пу элементы которой могут быть постоянными либо зависящими от времени. Эта матрица не обязательно симметрическая, однако, всегда найдется симметрическая матрица, с помощью которой полу¬ *) См. напр. М и ш и н а А. II., П р о с к у р я к о в И. В., Высшая алгебра, «Справочная математическая библиотека», Физмаггиз, 1962. (Прим. перев.)
5.2] ТЕОРЕМЫ. ОПРЕДЕЛЕНИЯ II ОБОЗНАЧЕНИЯ 221 чается та же самая крадратичная форма. Поэтому здесь матрица В квадратичной формы всегда будет считаться симметрической. Теорема 5.28. Приведение квадратичной формы к нормальному виду [4] (стр. 271). Любая квадратичная форма Q над полем вещест¬ венных чисел может быть приведена с помощью невырожденного линейного преобразования переменных к виду Q (5) = 21 4-... z-p — 4+1 — ... — 2% (5.2.46) Теорема 5.29. Закон инерции квадратичных форм [4] (стр. 272). Число р положительных *) коэффициентов в нормальном виде данной квадратичной формы есть инвариант данной формы в том смысле, что это число зависит лишь от самой формы и не зависит от способа ее приведения. Определение 5.27. Положительно определенная матрица В. Матрица В называется положительно определенной, если квадратич¬ ная форма, соответствующая матрице (5.2.45), положительно определена, т. е. Q(jc)^>0 для всех и всех t. Теорема 5.30. Положительная определенность квадратичной формы. 1-й критерий [4] (сгр. 273). Вещественная квадратичная форма положительно определена тогда и только тогда, когда все коэффициенты ее нормального вида (5.2.46) положительны. Теорема 5.31. Положительная определенность симметричес¬ кой матрицы [4] (стр. 273). Вещественная симметрическая матрица В положительно определена тогда и только тогда, когда существует вещественная невырожденная матрица Р такая, что В = РР'. Теорема 5.32. Приведение квадратичной формы к диагональ¬ ному (каноническому) виду. Любая вещественная квадратичная форма переменных приводится в соответствующем ортонормированием **) базисе к диагональному виду. Следствие 1 (из теоремы 5.32). Любую вещественную однород¬ ную квадратичную функцию п переменных можно с помощью орто¬ гонального преобразования привести к диагональному виду. Следствие 2 (из теоремы 5.32). Для любой вещественной симметрической матрицы В существует вещественная ортогональная матрица Р такая, что РВР' = РВР~Х диагональна. Следствие 3 (из теоремы 5.32). Любая невырожденная вещест¬ венная матрица может быть представлена как произведение B = SR, где «S есть симметрическая положительно определенная матрица, a R—ортогональная матрица. Теорема 5.33. Характеристические числа или собственные значения матрицы ([21 лемма, сгр. 311). Характеристическими числами *) И г отрицательных (см. Мишина А. П. и Проскуряков И. В., Высшая алгебра, 1962, стр. 149. (Прим. перев.) **) Эта же теорема справедлива для ортогонального базиса. (Прим. перев.)
222' АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА Г ГЛ. 5 или собственными значениями матрицы В называются числа X такие, что | X/—Д | = 0. Определение 5.28. Характеристической функцией матрицы В называется функция | X/ — В |. Определение 5.29. Характеристическим уравнением матрицы В называется уравнение | X/—/?| = 0. Теорема 5.34. Корни характеристического уравнения [4] (стр. 313). Характеристические числа или собственные числа матрицы В есть корни характеристического уравнения матрицы В. Теорема 5.35. Приведение квадратичной формы к диаго¬ нальному (iканоническому) виду [4] (стр. 314). Любая квадратичная форма хгВх может быть приведена с помощью ортогонального пре¬ образования к диагональному (каноническому) виду \z\ -Xnz*, в котором коэффициенты Xf есть корни характеристического урав¬ нения |а/-В|=(Х-Х,)(Х-Х2) ... (Х-Х„) = 0 матрицы В. Следствие (из теоремы 5.35). Все характеристические числа вещественной симметрической матрицы вещественны. Теорема 5.36. Положительная определенность квадратичной формы. 2-й критерий. Произвольная вещественная квадратичная форма хгВх положительно определена, если собственные значения вещест¬ венной симметрической матрицы В положительны. Доказательство этого утверждения непосредственно следует из определения 5.26 и теоремы 5.35. Теорема 5.37. Положительная определенность квадратичной формы. 3-й критерий. Произвольная вещественная квадратичная форма х'Вх положительно определена, если определители всех главных миноров положительны. Теорема 5.38. Положительная определенность квадратичной сформы. 4-й критерий. Произвольная вещественная квадратичная форма х'Вх положительно определена, если существуют положительно оп¬ ределенные матрицы С и D такие, что bij — Cijdij для всех /, / и t. Приведенные в данном параграфе теоремы не исчерпывают всех результатов, относящихся к прямому методу Ляпунова, однако они охватывают большую часть теорем, применяемых в теории управле¬ ния. Те же самые, а также и некоторые другие теоремы встречаются в литературе в самых различных формулировках. Выше была сде¬ лана попытка представить их в возможно более одинаковой форме. Несколько дополнительных результатов будет указано в § 5.3 в связи с применением прямого метода Ляпунова и построением функций Ляпунова. Там это более уместно.
5.3] ПРЯМОЙ МНТОД И ФУНКЦИЯ ЛЯПУНОВА 223 5.3. Применение прямого метода Ляпунова и нахождение функций Ляпунова 5.3.1. Введение Основная трудность при применении прямого метода Ляпунова заключается в выборе или образовании скалярной функции V(х), которая удовлетворяла бы условиям теоремы. В большинстве анг¬ лийских публикаций возможность найти функцию Ляпунова представ¬ ляется как искусство, которое зависит от ловкости, опыта и очень часто от удачи исследователя. Одно время это было действительно так, однако теперь имеется ряд процедурных и аналитических мето¬ дов нахождения функций Ляпунова. Некоторые из наиболее употре¬ бительных приведены в настоящем параграфе. В отдельных случаях даны примеры их применения. Ниже будут изложены следующие приемы: метод канонических преобразований [8, 16, 17, 18, 22], метод Айзермана [1, 8], метод Красовского [12, 8], метод Плисса [21, 8] и метод переменного градиента [23, 24]. Перечисленные методы, по-видимому, охватывают все случаи, в которых применимы методы Ингверсона [9, 10, 24] и Сегё [24, 25, 26], и поэтому последние здесь не рассматриваются. Изложение методов ведется в том же порядке, в каком они перечислялись. 5.3.2. Канонические преобразования [8, 16, 17, 18, 22] Преобразование, приводящее систему дифференциальных уравне¬ ний к каноническому виду, называется каноническим. Для систем, которые могут быть преобразованы к одной из двух канонических форм, можно построить функцию Ляпунова. Эти канонические формы называются «первой канонической формой» и «второй канонической формой». Если система может быть представлена в виде одной из канонических форм, то можно воспользоваться некоторыми стандарт¬ ными функциями Ляпунова для того, чтобы вывести вторичные кри¬ терии устойчивости. Вторичные критерии устойчивости легко приме¬ няются и не требуют нахождения функции Ляпунова отдельно для каждой исследуемой системы. Подробно канонические формы рас¬ сматриваются ниже. В работах Лурье [17] и Летова [16] системы регулирования делятся на системы «прямого и непрямого регулиро¬ вания». В английской литературе нет эквивалентной классификации, и поэтому эта терминология здесь использоваться не будет. Системы, к которым применим рассматриваемый метод, обладают тем свойством, что их можно привести к виду, изображенному на рис. 5.4. Однако не все системы, приводимые к этому виду, можно анализировать данным методом. Ниже предполагается, что г (0 = 0 для всех t'yO. (5.3.1)
224 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 Блок-схема системы может быть представлена в виде рис. 5.5. В каче¬ стве нелинейных элементов ограничимся только такими, у которых Рис. 5.4. Блок-схема замкнутой системы с одним нелинейным элементом. зависимость между входом и выходом может быть представлена непрерывной функцией y=f{x\ П 0) = 0, (5.3.2) где х — вход элемента, .у — его выход, a f(x)— однозначная и ана¬ литическая функция в достаточно малой окрестности точки л: = 0. Следует заметить, что нелиней¬ ный элемент не имеет ни одного интегратора, дифференциатора или какого-либо накопителя энергии. Первое каноническое преобразование [8, 18] Ниже за основу взята блок-схе¬ ма рис. 5.5. Если G(s) = G1 (s)G2(s) не имеет кратных полюсов и чи¬ сло полюсов превосходит число нулей, то система может быть описана совокупностью дифферен¬ циальных уравнений, называемых первой канонической формой. В оощем случае, когда u(sj имеет п полюсов, первая каноническая форма системы уравнений имеет вид Yt = X‘z‘ + /(•*) (* = 1, 2,..., я) (5.3.3а) И п х— (5.3.36) .1=1 где X; — полюса функции G(s), а — вычеты функции G(s) в точках X Нелинейный. У элемент G(s)- Gj(s) G2(s) Рис. 5.5. Приведенная блок-схема замкнутой системы с одним нелиней¬ ным элементом.
5.3] ПРЯМОЙ МЕТОД И ФУНКЦИЯ ЛЯПУНОВА 225 А/, взятые с ооратным знаком. Zi называются каноническими пере¬ менными, а а: — по-прежнему входная величина нелинейного элемента. Нелинейный X Г А элемент а. 1 s - Я/ а1 1 s — Яг 1 s — Яп Рис. 5.6. Блок-схема, соответствующая каноническому преобразованию. Дополнительное уравнение получается дифференцированием (5.3.36) по времени и последующей подстановкой в него (5.3.3а): %=2 р***—rfw> i=i где и §i = *ih (г=1, 2,..., я) П r=— 2«i. f = i (5.3.Зв) (5.3.4) (5.3.5) Из этих уравнений система (5.3.3а) называется главной частью, а (5.3.36) и (б.З.Зв) — дополнительной. Блок-схема системы, описываемой 8 п/р Леондеса
226 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 первой канонической формой, показана на рис. 5.6. Из этой блок- схемы видно, что первое каноническое разложение есть просто главная часть разложения передаточной функции G(s) линейной части системы п 0(5) = -2^лу (5.3.6) i= 1 1 Вторичный критерий устойчивости Для систем, приводимых к первой канонической форме, можно получить вторичный критерий устойчивости, применяя теоремы пря¬ мого метода Ляпунова. К сожалению, вторичный критерий устойчи¬ вости является слишком ограничительным условием, и поэтому мно¬ гие в действительности устойчивые системы отвергаются. Преиму¬ щество его, однако, заключается в том, что он не требует нахождения в каждом отдельном случае функции Ляпунова. Для того чтобы вывести вторичный критерий устойчивости, Лурье [18] использует функцию Ляпунова в виде v=- 2 2 f+f. + (fwdx• <5-з-7> i=\j=\ 1 1 d Эта функция неотрицательна, если X а)\f(x)dx = 0, / (0) = 0; (5.3.8) о б) константы аь действительны для соответствующих действитель¬ ных и являются комплексно-сопряженными парами для соответст¬ вующих комплексно-сопряженных пар X,-; в) Re Х£0 для всех /=1,..., п. Дифференцируя по времени выражение (5.3.7) и подставляя, как обычно, (5.3.3а), (5.3.36) и (5.3.Зв), получаем Выражение (5.3.9) не положительно, если
5.3] ПРЯМОЙ МЕТОД И ФУНКЦИЯ ЛЯПУНОВА 227 Выражение (5.3.9) можно сделать отрицательно определенным, добавляя к функции (5.3.7) член вида ® = Aiz\ — A%z\-\- ... -j- Asz\ -)- C]ZS +1 zs+2 -j- "j" 0^ + 3 ZS + 4 “Г ••• 4“ Cs-n- 1 Zn— i zn, (5.3.1 Г) в котором А и С—положительные числа. Константы А соответ¬ ствуют действительным каноническим переменным zt (/=1,2,..., s), а константы Q — комплексным zt (/ = s, s 1,..., п), В приведенном выше рассуждении прямой метод Ляпунова исполь¬ зовался для вывода вторичного критерия устойчивости. Этот резуль¬ тат можно сформулировать в виде теоремы, называемой теоремой Лурье. Теорема 5.39. Вторичный критерий устойчивости 1. {Первая каноническая форма.) Система, которая может быть приведена к пер¬ вой канонической форме и для которой выполняются указанные выше условия а) — д), асимптотически устойчива в большом. С по¬ мощью этой теоремы можно найти область устойчивости переменной л: как область, которая включает точку равновесия х = 0 и на кото¬ рой удовлетворяется условие (а) равенства (5.3.8). Следует заметить, что с помощью теоремы 5.39 задача нахожде¬ ния функции Ляпунова сводится к решению системы уравнений (5.3.9) при подходящем наборе at (/=1,..., п). Вообще, этот критерий слишком ограничителен. Ряд исследователей использовали вместо функции (5.3.7) функции Ляпунова другого вида и получали другие вторичные критерии устойчивости, аналогичные условиям а) — д) [8, 16, 17, 22]. Описание и таблица этих критериев устойчивости имеются в [8] и [22], где подробно рассмотрено преобразование к первой канонической форме. Хотя модификации критерия расши¬ ряют область применимости данного метода, однако он слишком ограничителен в силу своей основной формулировки и отвергает многие системы, которые в действительности устойчивы. Довольно легко понять, когда это имеет место. Во всех вариантах данного подхода ограничения на нелинейный элемент (условие а)) имеет один из следующих двух видов: л: \f(x)dx^ 0, /(0) = 0 О ИЛИ xf{x)^ 0, /(0) = 0. Второе из этих условий более ограничительно и ему удовлетворя¬ ют лишь нелинейные элементы с характеристикой, лежащей в первом 8*
228 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 и третьем квадранте, как показано на рис. 5.7 (незаштрихован- ная часть). На этом рисунке изображены три типичные кривые не¬ линейного элемента. Линейный элемент можно рассматривать как частный случай нелинейного элемента. В случае линейного элемента у — kx для выполнения ограничений необходимо, чтобы 0 <С^к<^со. Следовательно, по этим вто¬ ричным критериям устойчиво¬ сти отвергались бы линейные системы, которые не устойчи¬ вы при всех положительных значениях коэффициента уси¬ ления разомкнутой системы. Вследствие слабости ограниче¬ ний на f(x) анализ устойчиво¬ сти одинаков для систем как с линейной, так и с нелиней¬ ной характеристикой, пока по¬ следняя не выходит из неза- штрихованной области рис. 5.7. Следовательно, этот вторичный Рис. 5.7. ^Ограничения на коэффициент критерий устойчивости будет усиления нелинейного элемента. отвергать все системы, для ко¬ торых корневой годограф G(s) лежит в правой полуплоскости. Поэтому всегда целесообразно, прежде чем пытаться применить вторичный критерий устойчивости, начертить корневой годограф для G(s). Причины, по которым система вида рис. 5.5 может быть отвергнута с помощью данного метода, формули¬ руются следующим образом: а) Некоторые полюса G (s) лежат в правой полуплоскости s. б) Некоторые нули G(s) лежат в правой полуплоскости пло¬ скости 5. в) Корневой годограф G(s) находится не только в левой, но и в правой полуплоскости. г) G(s) имеет полюса в начале координат плоскости 5. д) G(s) имеет кратные полюса. е) Разница между числом полюсов и нулей G(s) больше или равна двум (т. е. п — 2). Константа г (равенство 5.3.5.) не положительна. Ввиду всего сказанного выше большое число нужных систем отвергалось бы по вторичному критерию устойчивости, основанному на первой канонической форме. Область применимости данного метода может быть расширена, если ограничиться нелинейными элементами с характеристиками, ле¬ жащими только в первом и третьем квадрантах. Это делается с по¬ мощью метода сдвига нулей и полюсов.
5.3] ПРЯМОЙ МЕТОД И ФУНКЦИЯ ЛЯПУНОВА 229 Метод сдвига полюсов Область применимости вторичного критерия устойчивости можно расширить так, чтобы он не отвергал устойчивые системы, коэффи¬ циент усиления которых не ниже некоторой величины. Этой величи¬ ной является нижняя граница коэффициента усиления нелинейного элемента. Чтобы найти ее, повернем на угол ср против часовой стрелки ось х. х—входная величина нелинейного элемента. Эго эквивалентно преобразованию выходной величины у в новую переменную у' по формуле У = Г(х)=у — Срх, (5.3.12) в которой Ср — действительная константа. Геометрическая интерпре¬ тация дана на рис. 5.8. Угол ср нахо¬ дится из условия ср = arctg Ср. (5.3.13) Максимальное значение угла ср, а следовательно, и максимум Ср опреде¬ ляются как угол, на который можно повернуть горизонтальную ось плоско¬ сти х—у (рис. 5.8) прежде, чем она пересечет характеристику нелинейного элемента. Вторичный критерий устойчивости применяется теперь к новой перемен¬ ной У и к функции /'(х), которая долж¬ на удовлетворять вышеприведенным ус¬ ловиям для функции /(х). Если в блок- схеме рис. 5.5 заменить G(s) на G'(s), то блок, описывающий дина¬ мику системы, будет иметь передаточную функцию G'(s), которая связана с G(s) следующим образом: «-<*>-,ЛД,Г (5'ЗЛ4) Равенство (5.3.14) показывает, что с помощью корневого годо¬ графа можно легко увидеть, как метод сдвига полюсов устраняет не¬ которые трудности, связанные с преобразованием к первой канони¬ ческой форме. Оно также показывает, почему данный метод назы¬ вается методом сдвига полюсов. Метод сдвига нулей Подобным образом можно ограничить максимальное значение коэффициента усиления нелинейного элемента так, чтобы устойчивая система не отвергалась по вторичному критерию устойчивости, если Рис. 5.8. Геометрическая ин¬ терпретация метода сдвига по¬ люсов.
230 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 ее коэффициент усиления не превосходит установленного максимума. В этом случае ось у (выходной величины) характеристики нелиней¬ ного элемента поворачивается по часо¬ вой стрелке на угол 0. Геометрически эго изображено на рис. 5.9. Поворот оси эквивалентен замене входной вели¬ чины х на х\ где х' = х'—С2у, а С2 — положительная константа, опреде¬ ляемая по углу 0 как 0 = arctg Cz. (5.3.15) Максимальное значение угла 0, а следовательно, и максимальное значе¬ ние Cz определяются как максимальный угол, на который можно повернуть вертикальную ось плоскости jc —у (рис. 5.9), не пересекая кривую характе¬ рно. 5.9. Геометрическая ин- рисгики нелинейного элемента. Если пе- терпретация метода сдвига г х - нулей ременную х в олок-схеме рис. о.о за¬ менить на новую переменную х'у то блок, описывающий динамику системы, будет иметь передаточную функцию G" (s), которая связана с G(s) соотношением О" (5) = G(s) + Cz = N (s) +g«D (s), (5.3.16) в котором N(s) и. D(s) — полиномы числителя и знаменателя G(s). Из равенства (5.3.16) видно, что G" (s) имеет одинаковое число полю¬ сов и нулей. Следовательно, система не может быть приведена к пер¬ вой канонической форме с помощью метода сдвига нулей. Можно, однако, модифицировать первую каноническую форму так, чтобы учесть подобную ситуацию. В этом случае выводится вторичный кри¬ терий устойчивости для модифицированной канонической формы. Под¬ робно данный вопрос рассмотрен в работах [9] и [22]. Поскольку это приводит к дальнейшему ограничению области применимости, мы не будем подробно останавливаться на этом. Второе каноническое преобразование Второй канонической форме в литературе уделяется значительно меньше внимания, чем первой. По-видимому, она дает мало дополни¬ тельных преимуществ по сравнению с первой канонической формой, если последняя дополняется методами сдвига полюсов и нулей. Однако она прямо применима к системам вида, изображенного на рис. 5.5, в которых G(s) содержит либо кратные полюса, либо полюса в пра¬
5.3] ПРЯМОЙ МЕТОД И ФУНКЦИЯ ЛЯПУНОВА 231 вой полуплоскости s, либо то и другое вместе, и поэтому мы кратко изложим ее здесь. Для системы, которая может быть представлена в виде блок-схемы, изображенной на рис. 5.5, вторая каноническая форма системы диф¬ ференциальных уравнений имеет вид <^ = a>izi -{-х, i = 1, 2, т; (5.3.17) т Tt= 2 T**i + 8*-/(*X (5.3.18) i = 1 При ЭТОМ а) (о,- — нули G(s), б) 8= 2 2 О),-, (5.3.19) 1=1 1=1 в) X,-— полюса G(s), т — п (“<■— г) Ъ = ~^ . /=1,2, (5.3.20) 1Д К —«у) У = 1 ]ф1 Если G(s) удовлетворяет некоторым условиям, то система, пред¬ ставимая в виде блок-схемы рис. 5.5, может быть приведена к вто¬ рой канонической форме. Эти условия кратко формулируются в виде следующей теоремы. Теорема 5.40. Приведение к второй канонической форме. Система вида рис. 5.5 может быть описана дифференциальными урав¬ нениями второй канонической формы тогда и только тогда, когда имеют место следующие условия: а) все нули со,- функции G(s) простые, б) число полюсов п функции Q(s) на единицу больше, чем число нулей т, т. е. п = т -[- 1. Для второй канонической формы дифференциальных уравнений получается упрощенный критерий устойчивости, основанный на част¬ ном виде функции Ляпунова (см. [16] и [8]). Этот вопрос здесь не рассматривается, так как оказывается, что большинство систем, удовлетворяющих условиям второй канониче¬ ской формы, также легко может быть изучено с помощью преобра¬ зования к первой канонической форме вместе с методом сдвига ну¬ лей и полюсов [8].
232 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 5.S.S. Метод М. А. Айзермана Одной из простейших функций V(х\ которая может служить функцией Ляпунова для нелинейных автономных систем, является -ч&н Y А 1 s +2 Рис. 5. Ю. Блок-схема нелинейной системы в примере 5.1. обобщенная квадратичная форма. Для систем частного вида жела¬ тельно иметь процедуру выбора постоянных коэффициентов так, чтобы квадратичная форма удов¬ летворяла требованиям одной из теорем устойчивости § 5.2 и тем самым давала ответ на вопрос об устойчивости или неустойчивости системы. Один из таких методов состоит в следующем: а) нелинейные элементы ап¬ проксимируются линейными элементами, б) находятся коэффициенты квадратичной формы, так что¬ бы она была функцией Ляпунова для линеаризованной системы, в) найденную в б) функ¬ цию V(х) применяют к систе¬ ме с нелинейностями и ис¬ пользуют ограничение, нало¬ женное на dVjdt, для того чтобы определить границы линейной аппроксимации, которые не должны превышать нелинейные элементы. Этот метод называется ме¬ тодом М. А. Айзермана [8] и иллюстрируется следующим примером. Пример 5.1. Пусть нужно исследовать устойчивость системы, изображенной на рис. 5.10. Если входной сигнал равен нулю, т. е. г (0 = 0 для t^> 0, то тогда система может быть представлена уравнениями х -|— 2л* —{— у = 0, У =/(*). Рис. 5.11. Зависимость выхода от входа нелинейного элемента в примере 5.1. (5.3.21)
5.3J ПРЯМОЙ МЕТОД И ФУНКЦИЯ ЛЯПУНОВА 233 Делая замену переменных [ = ЛГ, \ 1 = Х, ) Хх=.., , (5.3.22) х2 - ' ' получаем систему дифференциальных уравнений первого порядка от¬ носительно переменных состояния xt и х2 Хх — хъ \ . " . \ (5.3.23) х<2 — — 2х.2 f(xi). J Зависимость между входом и выходом нелинейного элемента, изо¬ браженная на рис. 5.11, может быть аппроксимирована прямой ли¬ нией вида y=f(x1)^ 2хх. (5.3.24) Тогда Х\ = хъ \ \ ? (5.3.25) х2 = — 2jc.> — 2xv j Для двух переменных состояния обобщенная квадратичная форма, которая может служить функцией Ляпунова, имеет вид V(xh х2) = bnx\ -j- 2Ьпххх2 -]- ЬоЛх\. (5.3.26) Дифференцируя по времени (5.3.26) и подставляя (5.3.25), полу¬ чаем -fit — (— 4£12) х\ -(- (2Ьп — 4Ьп — 4b22) Х\Х2 -j- — 4Ь22) х\. (5.3.27) Производная по времени dVjdt будет удовлетворять условиям теоремы 5.37, если положить d^t=-x\-x\. (5.3.28) При этом постоянные Ь1Ь Ьп и Ь22 можно найти из системы урав¬ нений, которая получается приравниванием коэффициентов при соот¬ ветствующих членах в уравнениях (5.3.27) и (5.3.28). В результате получим квадратичную форму V(хь х.2) = -jj- х\ ~ XiX.2 + х\, (5.3.29) которая является положительно определенной. Вычислим dV/dt с уче¬ том равенств (5.3.29) и (5.3.23)
234 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 В этом случае условия теоремы 5.37, гарантирующие асимптотиче¬ скую устойчивость в большом, выполняются, если Эти границы возможного отклонения прямой линии, аппроксимирую¬ щей нелинейность, показаны на рис. 5.11 пунктирными линиями. Преимуществом метода Айзермана [8] являются: а) простота, б) применимость к системам, имеющим более чем один нелиней¬ ный элемент, в) возможность установить ограничения на нелинейный элемент слабо нелинейной системы, для того чтобы обосновать использование линейной аппроксимации при исследовании устойчивости. К недостаткам относятся [8]: а) применимость только к системам с нелинейностями, не слиш¬ ком сильно отличающимися от линейной аппроксимации, б) если система содержит дифференцирование (нули в передаточ¬ ной функции линейной части системы), ограничения на характери¬ стику нелинейного элемента в терминах у, dyjdt и т. д. становятся достаточно сложными. Следует заметить, что нелинейная система не обязательно устой¬ чива в большом, даже если ее линеаризованная модель (y = kx) устойчива для всех значений эквивалентного линейного коэффициента усиления k. При применении метода Айзермана ограничения на характери¬ стику нелинейных элементов будут обычно наименее жесткими, если: а) линейная аппроксимация y = kx выбирается так, что эта линия делит пополам угол между прямыми, соответствующими верхней и нижней границе изменения коэффициента усиления нелинейного эле¬ мента f(x)\ б) производная по времени от V(х) приводится к £1^1 0 или xtf (а^) Ъ> О xi (5.3.31) 0,612 <<" 6,95. х. ^ 1 (5.3.31а) П 5.3.4. Применение теоремы Н. И. Красовского [12] Вторичные критерии устойчивости можно вывести, и не прибегая к каноническим преобразованиям. Один из таких методов основан па теореме Н. Н. Красовского и применим к системам, которые
5.31 ПРЯМОЙ МЕТОД И ФУНКЦИЯ ЛЯПУНОВА 235 могут быть описаны в виде jb=Ax + f{x) = X = Хх[хи .. Х,(хь .. ■>Хп) Хп (хх,.. • > х^) (5.3.32) где Xi — должны быть непрерывными, дифференцируемыми функци¬ ями переменных состояния во всем пространстве, а положение равно¬ весия совпадает с началом координат. Теорема 5.41 [12]. Вторичный критерий устойчивости (тео¬ рема Н. И. Красовского). Достаточным условием асимптотической устойчивости в большом системы, описываемой уравнениями (5.3.32), является существование положительно определенной симметрической матрицы В такой, что корни характеристического уравнения (собст¬ венные числа) А,- (хъ ..., хп) симметрической матрицы II В/+{В1У\ удовлетворяют неравенству Х;<— 8, /= 1, 2, ..., п, где В — положительная постоянная. Матрица I является системы функций X и равна /= дХх дХ! dxt " дхп дХп дХп dxi '' дхп (5.3.33) (5.3.34) якобианом (5.3.35) Практически задача выяснения существования матрицы В> удовлет¬ воряющей условиям данной теоремы, сводится к образованию поло¬ жительной функции с помощью системы функций Xi (заметим, что это не переменные состояния). Эта функция может быть записана как V = XBX. Производная по времени функции V есть dX=X' IBI + (В Г)' || Х=Х'СХ, (5.3.36) (5.3.37) где С—симметрическая матрица, элементы которой Cij являются функ¬ циями переменных состояния системы xt. Можно показать, что если выражение (5.3.37) отрицательно определено, то система асимптоти¬ чески устойчива в большом. Следовательно, элементы матрицы В нужно выбирать так, чтобы они обращали выражение (5.3.37) в отри¬ цательно определенную форму для всех действительных значений переменных состояния хъ ..., хп.
236 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 Описанный выше метод можно считать скорее применением кри¬ терия прямого метода Ляпунова к производным по времени перемен¬ ных состояния, чем применение критерия непосредственно к перемен¬ ным состояния. Эта теорема доказывается в [12]. Данный метод иллюстрируется применительно к той же системе, которая рассматри¬ валась в примере 5.1. Пример 5.2 [8]. После замены переменных по формулам (5.3.22) система приводится к виду хг = Хх (хъ х2) = хъ х% — Х% (Х\, х%) — f {хi). (5.3.38) Для произвольных коэффициентов матрицы В матрица С после под¬ становки якобиана из (5.3.38) имеет вид с = II в/+ (Я/у || = — ж df (хх)\ 12 dxx ) bu — 2 bn — b< df (Xi) ‘ dxx (2^?12 4^22) (5.3.39) Если в (5.3.38) положить 1 df(x О 2 ' dxx 3 df (xy) C = dxA 3 # df fo) 8 dx j — 1 TO B = (5.3.39a) (5.3.40) Это есть положительно определенная матрица, что можно проверить с помощью теоремы 5.37, и, следовательно, функция I/, определяемая выражением (5.3.36), является положительной. Матрица С, а следова¬ тельно, и dVjdt отрицательно определены для функции f(x)y удов¬ летворяющей ограничениям 0,573 (5.3.41) Ограничения (5.3.41) на функцию f{x) дают достаточное (но не необ¬ ходимое) условие для устойчивости исследуемой системы. Теорема Красовского имеет приблизительно те же преимущества и недостатки, что к метод Айзермана. Следует, однако, заметить, что в тех случаях, когда нельзя определить устойчивость системы этими методами, результат все же можно получить другим способом.
5.3] ПРЯМОЙ МЕТОД И ФУНКЦИЯ ЛЯПУНОВА 237 5.3.5. Метод В. А. Плисса [21] Другой метод, использующий линейную аппроксимацию нелиней¬ ной системы для определения функции Ляпунова, из которой затем можно вывести вторичный критерий устойчивости, носит название метода В. А. Плисса. Этот метод может дать результат для систем, описываемых дифференциальными уравнениями вида п *1= 2 аПх1 + h/(z) С/ = !> 2> • • • > п)> (0.3.42) 1 = 1 где гг 2 = 2 kjxj (5.3.43) 7=1 и а,-у, hj, kj — константы. На нелинейную функцию f(z) наложены ограничения а) / (0) = 0, (5.3.44) б) ctz2 zf (z) Ccfi1. Используя линейную аппроксимацию в уравнениях (5.3.42), получаем п Xj = 2 a-jiXi -j- hjcz (/=1, 2, , n). (5.3.45) г = 1 Функцию Ляпунова берем в виде п п К=42 2 Ьчх1х1 + \*т- (5-3-46) £=1j =1 Из этой функции можно вывести вторичный критерий устойчивости, который формулируется в виде следующей теоремы. Теорема 5.42. Вторичный критерий устойчивости III. Система, описываемая уравнениями (5.3.42) и (5.3.43), асимптотически устой¬ чива в большом, если а) для всех б, = с1-}-в и с = с2 — в, где в — произвольная малая положительная константа, линейная система (5.3.45) асимптотически устойчива, б) существуют положительные числа (3 и mij = mji (/, j — = 1, 2, ... , ri), образующие положительно определенную или отри¬ цательно определенную квадратичную форму вида п п Q(xь ...,*„)= 2 2 r4xixp (5.3.47) ;=iy=i
238 АНАЛИЗ СИ СТЕЛА ПРЯМЫЛА ДАЕТОДОЛА ЛЯПУНОВА [ГЛ. 5 где коэффициенты rt*y вычисляются по формулам п п / п п \ rij— 2 2 mkjbkjJrc[aj 2 mbihk~\~ai 2 mkjhk\-\‘ k = 1 k = 1 \ k = 1 J j n n \ n + 2 a,kbkl-\-at ^ а/А;] +2 akhk, (5.3.48) \ k — 1 /г = 1 / fe=l с, < с < Следует заметить, что для нелинейной системы нельзя установить асимптотическую устойчивость в большом из того, что линейная система устойчива для всех значений с из интервала С\<^с <^с». С точки зрения практического использования недостатком данного метода является то, что он требует довольно сложных алгебраических преобразований. 5.3.6. Построение функций Ляпунова методом градиента Существует целый ряд способов, позволяющих применять на практике теоремы прямого метода Ляпунова. Среди них наиболее гибким, пожалуй, является градиентный метод построения функций Ляпунова (variable gradient method). Как уже отмечалось в предисловии к настоящей главе, этот метод, по-видимому, охватывает все случаи, к которым приложимы методы Ингверсона [9, 10, 24] и Сегё [25, 26], а также целый ряд других случаев. В силу этого два последних метода здесь рассматриваться не будут. В основе метода градиента лежит предположение о том, что изу¬ чаемая физическая система автономна и описывается уравнением вида х = Ах f(x) = X(jc), (5.3.49) где Л (0) + /(0) = Х(0) = 0. (5.3.50) Данное выражение совпадает по виду с уравнением (5.2.3). Однако здесь для удобства последующих алгебраических преобразований оказалось целесообразным объединить оба члена — линейный и нели¬ нейный — в один вектор X (л;). Пусть функция Х(х) удовлетворяет в пространстве состояний условию Липшица*). Тогда в соответствии с теоремой 5.18 она непрерывна. Следовательно, все физические системы, асимптотически *) Функция X (jc) удовлетворяет в области R условию Липшица, если имеет место следующее неравенство:
5.3] ПРЯМОЙ МЕТОД И ФУНКЦИЯ ЛЯПУНОВА 239 устойчивые в большом, нелинейности которых удовлетворяют усло¬ вию Липшица, отвечают требованиям теоремы 5.18. Этой теореме можно дать также иную формулировку. Пусть имеется некоторая физическая система, асимптотически устойчивая в большом. Пусть непрерывная нелинейность этой системы допускает дифференцирова¬ ние, а ее производная всюду ограничена. Тогда существует некото¬ рая функция V(x)f дифференцируемая бесконечное число раз и по¬ зволяющая доказать устойчивость этой системы прямым методом Ляпунова. Для того чтобы функция V (х) удовлетворяла теоремам прямого метода Ляпунова, она должна быть непрерывной вместе со своими первыми частными производными. Но из существования у скалярной функции V (X) первых частных производных по х следует существо¬ вание ее градиента VI7, т. е. я-мерного вектора единичной длины с составляющими по каждому из направлений xt. Поэтому если физическая система с непрерывными нелинейностями асимптотически устойчива в большом, то существует по крайней мере один вектор \v, который может быть найден по функции V(х) — индикатору этой устойчивости. В основе данного метода лежит предположение о том, что из¬ вестна не сама функция V, а ее градиент \7 V7. В обычных пособиях по векторному исчислению (Ласс [15], стр. 297—301) показывается, что скалярная функция V представляется единственным образом через криволинейный интеграл от векторной функции \V, если имеют место следующие (п—1)я/2 равенства: w-i.» »• <**».) Соотношения (5.3.51) представляют собой необходимое и достаточ¬ ное условие независимости вида скалярной функции V (х) от пути интегрирования. В трехмерном случае совокупность (5.3.51) эквива¬ лентна равенству нулю ротора вектора. Это составляет основное содержание теоремы Стокса, известной инженерам-электрикам по курсу теории поля. Таким образом, уравнения (5.3.51) являются ^-мер¬ ным обобщением теоремы. В дальнейшем изложении они будут назы¬ ваться уравнениями ротора. Покажем, что градиент yV функции-индикатора устойчивости в большом V(х) с необходимостью отвечает уравнениям (5.3.51). Из теоремы 5.18 следует, что из дифференцируемости функции V бесконечное число раз вытекает существование и непрерывность производных *vgL да. (5ЛШ) oxi oxj * dxj дхi v J С другой стороны, если производные (5.3.52) непрерывны во всей области определения, то в силу теоремы, приведенной в ([27], стр. 220),
240 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 в этой области справедливо равенство д*У(х) _д2У(х) d.\'i dxj dxj dxt (5.3.53) которое является просто иной записью уравнений (5.3.51). Таким образом, знание любой из двух функций V(х) либо \V позволяет единственным образом определить оставшуюся. Из всего сказанного может быть сделан вывод, который мы представим в виде теоремы. Теорема 5.43. Условие существования градиента \У функ¬ ции Ляпунова. Пусть система, описываемая уравнениями (5.3.49) и (5.3.50), удовлетворяет условию Липшица, а ее состояние равновесия, jce = 0, асимптотически устойчиво в большом. Тогда существует некоторая функция \V, криволинейный интеграл от которой равен V (jc) — функции-индикатору асимптотической устойчивости в большом. Эта теорема является весьма сильным условием существования. Если некоторая автономная система обладает нелинейностями, кото¬ рые представимы непрерывными функциями, и сама она асимптоти¬ чески устойчива в большом, то существует некоторый вектор-гра¬ диент, позволяющий установить факт этой устойчивости. Так как знание любой из функций V или yV позволяет един¬ ственным образом определить оставшуюся, то теоремы Ляпунова могут быть сформулированы также в терминах функции-градиента. В частности, теорема 5.16, справедливая для автономных систем, при¬ обретает следующий вид. Теорема 5.44. Условие асимптотической устойчивости в большом автономной системы, опирающееся на градиент у У функции Ляпунова. Пусть для уравнения (5.3.49), удовлетворяющего условию (5.3.86), определена действительная вектор-функция у У с элементами VV), отвечающая следующим требованиям: 1 dsVi_dvVj dxj dxi 2. у 1ЛАГ(л;) 0, причем тождественный нуль достигается на реше¬ нии уравнения (5.3.49) лишь в начале координат. Скалярная функ¬ ция V(х) определяется как криволинейный интеграл от yV, непре¬ рывна и имеет непрерывные первые частные производные. 3. \/(л:)^>0 при х ф 0. 4. V(jc)->co при || jc |! —оо. Если эти условия имеют место, то уравнение (5.3.49) устойчиво в большом. Данная теорема является лишь обобщением теоремы существова¬ ния. Однако в отличие от теоремы 5.16 в ее формулировке под¬ черкнута роль вектор-функции градиента. Если в теореме 5.44 не выполняется условие 4, либо условие 2 справедливо не во всем пространстве, то с ее помощью невозможно
5.3] ПРЯМОЙ МЕТОД И ФУНКПИЯ ЛЯПУНОВА 241 доказать факт асимптотической устойчивости в большом. В этом случае приходится привлекать теоремы 5.22 или 5.23 для установле¬ ния устойчивости в более узкой области. При этом особую практи¬ ческую ценность имеет теорема 5.23. Сравнивая теоремы 5.16 и 5.44, легко заметить смещение акцента. Задача нахождения функции V, удовлетворяющей теореме Ляпунова, заменилась проблемой поиска градиента \V, отвечающего уравне¬ нию (5.3.51), с нулевым /z-мерным ротором. Далее, так как обе эти теоремы эквивалентны, то функции V и clV/clt, найденные по у И, должны быть таковыми, чтобы с их помощью можно было доказать устойчивость, используя любую из двух теорем. Поэтому на первый взгляд может показаться, что задача усложнилась. В действитель¬ ности же она упростилась. Наличие вспомогательных уравнений ротора позволяет найти некоторое решение проблемы устойчивости, отталкиваясь от у И. В соответствии с термином «градиент» в условиях теоремы 5.44 фигурируют вектор у И с п неизвестными координатами. Для того чтобы этот вектор удовлетворял всем возможным решениям, каждая из его п координат ищется в форме совокупности п элементов вида dijXj. Предполагается, что коэффициенты [а] являются функ¬ циями самого общего вида от аргумента ху либо полиномами с зара¬ нее не заданным числом членов, так что В последнем случае предполагается, что коэффициенты а^ могут быть представлены в виде суммы некоторого постоянного числа и слагаемого, зависящего от фазовых координат, т. е. а\1х1 4“ а12хЪ 4“ • • • 4“ а\пхп уУ= #21-^1 “4 ^22*^2 4" • • • ап\х\ 4~ • • • 4~ аппхп V/a . (5.3.54) VV'i j Clijfc [ Clijv (x). (5.3.54) Поэтому окончательно [a\\k “f“ a\\v (X)] xl 4“ [aMk 4" anv (X)] x2 “Г • • • • • • “4 \alnk ~T alnv (-*0] xn V ^ [a.2i/j -j- a%iv (x)] Xi -j-... Wtlik 4~ ttnlv (-*0] x\ 4“ • • • 4~ Wnnk 4“ annv (*^)] xn . (5.3.55) Исследование i-й составляющей вектора градиента У Vi [dilk J- attv (X)] X1 4“ * * • “1“ [aiik 4- aiiv (X)] xi 4“ • * * . . . 4~ [aink 4- ainv 0*0] xrr
242 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 позволяет установить ряд интересных факторов. Так, при решении некоторых задач может потребоваться, чтобы координата содер¬ жала члены, в которые в качестве сомножителей входи г более чем одна фазовая координата. Очевидно, такие члены могут быть пред¬ ставлены в виде произведения aij(x)Xj. Поэтому вместо коэффи¬ циента aiiv(x) достаточно рассматривать ацъ(х{). Функция V определяется как криволинейный интеграл от гра¬ диента \V: = = J v(Ть •••> OWTi + о ТС2 КП + 5 Ъ> 0. •••. °)db-r\ V^C^i. х* •••> ■*«-!> T«)^Tn- о и ■ч 5.3.56) В соответствии с этим в результате интегрирования коэффициен¬ тов ait возникают члены вида '1 р-, ^ aliv (-[i) У; d~[i. о Будем далее предполагать, что aiiv (х) = aiiv(xi). Для положительной определенности функции V вблизи начала координат необходима положительность слагаемых аИк. Далее, для того чтобы функция V была уравнением замкнутой поверхности во всем пространстве и была к тому же всюду положительно определенной, необходима четность функции aiiv(Xi) и ее строгая положительность при больших зна¬ чениях х{. И, наконец, при aiik = 0 необходимым условием явля¬ ется четность и строгая положительность aiiv(Xi) при всех значе¬ ниях xt. Эти свойства коэффициентов ati обусловливаются требованиями, которым должна отвечать результирующая функция V для того, чтобы к ней была применима теорема 5.44. В последующих параграфах этот подход будет развит далее. По предположению, коэффициенты atjv могут быть функциями фа¬ зовых координат. Поэтому резонно ожидать, что в выражении для V встретятся весьма высокие степени фазовых координат. Поскольку это, действительно, имеет место, то вопрос о положительной опре¬ деленности результирующей функции V становится актуальным. Термин «положительная определенность» обычно используется в применении к квадратичным формам. Однако, вообще говоря, он имеет смысл для выражений любого порядка. Геометрический метод доказательства того, что равенство Г (л;) = const (где V(х) — неко¬ торая скалярная функция) описывает некоторую замкнутую поверх¬
б.З] ПРЯМОЙ МЕТОД И ФУНКЦИЯ ЛЯПУНОВА 243 ность, приведен в приложении к [24]. В соответствии с этим методом выражение для функции V строится таким образом, чтобы оно содер¬ жало одну из фазовых координат не выше чем во второй степени. Это достигается приравниванием одного из коэффициентов йц неко¬ торой постоянной величине и исключением фазовых координат Хх из оставшихся aijv. Такой выбор коэффициентов носит неоправданно ограниченный характер. Тем не менее он удовлетворяет геометри¬ ческим соображениям, с помощью которых доказывается замкнутость поверхностей V(л;) == const. В задачах автоматического управления член хп зачастую входит линейно в п уравнений первого порядка, которым- удовлетворяет движение системы. По этой причине предположения предыдущего параграфа должны быть отнесены к переменной хп. В частности, полагают, что апп = 2. Этот произвол в выборе коэффициента апп в формуле градиента эквивалентен произвольности постоянной (масш¬ табного коэффициента) в формуле для V. При апп= 2 в выражении для V появляется член х%. В силу сказанного выше градиент \V может быть представлен следующим образом: [a\\k aUv (Xl)] -Яд “b [а\Ы (Xl, -Я^2> • • • > хп-\)\ X X [а\пк “Ь a\nv (ХЬ *Я^2> •••> хп-\)]Хп [^21 k ~Г ^21т» (Xl> Х<Ь • • • > *Я^/2—l)] Х1 “Ь + [аШ X а22т» (ХО] Х2 • • • [^я1/г &n\v (х1> *Я^2> • • • > •Я'n-1)] х\ ! • • • ~\~ ^хп . (5.3.57) В ходе анализа требований к функции V наиболее общее выраже¬ ние (5.3.55) для градиента было несколько упрощено и приведено к виду (5.3.57). При этом без потери общности в качестве коэффи¬ циентов йц были выбраны функции лишь переменной ац. С неболь¬ шой потерей общности один из этих aih в частнссти апп, был выбран равным произвольной постоянной и, кроме того, было принято, что a.ijV = aijv{x\1 хь ..., хп_А). Все это было сделано в связи с после¬ дующими требованиями к функции V'. Дальнейшее определение неизвестных коэффициентов в формуле для \V связано с анализом обобщенных уравнений ротора (5.3.51). Рассмотрим расширенную форму уравнений (5.3.51):
244 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 И dyVj dajLv(xlt ха, ..., х^) х{ dajikXi dxi dxi dajiv (xl9 *2l ... , xn_i) Xi dfijnv (x 1» '^2» Xn-l)-Xn dx'i dxi равнивая постоянные члены одного знака, стоящие в обеих частях этих равенств, находим Таким образом, с помощью уравнений ротора была осуществлена дальнейшая детализация формулы градиента. Совместный анализ обобщенных уравнений ротора и dVjdt позволяет найти остальные неизвестные члены. Производная dVjdt связана с градиентом соотношением вида Для того чтобы функция dV/dt удовлетворяла каждой из теорем 5.16 или 5.44, она должна быть по крайней мере отрицательно полуоп- ределенной. В общем случае отрицательно полуопределенная форма dVjdt строится возможно более простым способом. В частности, можно положить, что где коэффициент k выбирается первоначально постоянным. Если производная dVjdt ищется в форме (5.3.60), то остальные члены в ее выражении должны быть равны нулю. Этого молено достичь, группируя члены с одинаковыми фазовыми переменными и полагая коэффициенты atj при них равными нулю. Предполагается, что коэф¬ фициенты dij—постоянные величины, ибо в противном случае для их сокращения потребовались бы обобщенные уравнения ротора более сложного вида. Возможности группирования членов определяются ограничениями, наложенными выше на коэффициенты агу*. Пусть, например, форма dVfdt третьего порядка содержит члены вида апхххъ апх\, —ххх\. Неопре¬ деленный член — x^xl не может быть сгруппирован со слагаемым апхгх^ так как коэффициент ап может быть функцией лишь переменной Х\. Однако если бы член —Х\х\ был сгруппирован с anxl, то его можно 'было бы исключить, полагая ап — х^х^. &i jk &jiff ^ = vV'x=W'X. (5.3.59) ^r = -kx! (£>0), (5.3.60)
5.3] ПРЯМОЙ МЕТОД И ФУН1ШИЯ ЛЯПУНОВА 245 Значения коэффициентов atj не могут быть выбраны произвольно, ибо они должны удовлетворять также обобщенным уравнениям ротора. В действительности, если один из коэффициентов выбирается с целью сокращения нежелательных членов в dV/dt, то остальные один или более коэффициентов зачастую могут быть найдены непосредственно из обобщенных уравнений ротора. Таким образом, форма dVjdt должна быть по крайней мере отрицательно полуопределенной и, кроме того, должна удовлетворять требованиям к обобщенным уравнениям ротора (5.3.51). Возможно, что функцию dVjdt не удается представить в виде (5.3.60). Тогда необходимо попытаться представить ее как функцию двух фазовых переменных, затем трех и т. д. до тех пор, пока dV/dt не станет отрицательно определенной формой. Если решение на этом пути все же найти не удается, то, возможно, надо вернуться к функ¬ ции градиента (5.3.55) более общего вида, либо попытаться доказать неустойчивость системы. Рис. 5.12. Блок-схема системы управления примера 5.3. В заключение мы предлагаем следующую схему формального при¬ менения метода градиента: 1. Ищем градиент в виде (5.3.57). 2. Зная выражение для градиента, строим производную \ Vrx (см. уравнение 5.3.59). 3. Образуем из dVjdt по крайней мере отрицательно полуопре- деленную форму и подчиняем ее требованиям, наложенным на обоб¬ щенные уравнения ротора (5.3.51). 4. Зная градиент, определяем функцию V и область замкнуто¬ сти ее. 5. С помощью соответствующей теоремы проверяем условие устой¬ чивости. Проиллюстрируем эту процедуру примером. Пример 5.3. Рассмотрим систему, блок-схема которой изображена на рис. 5.12. Пусть ее движение в фазовом пространстве задается совокупностью
уравнений хх = хь сй = ЧУГХ = Х\ХЪ (аП _ а'2\ — 2х1) ~Ь х\ (fl12 ““ 2) — a'2\XV III этап. Если система устойчива, то существует большое или даже бес¬ конечное число функций V и соответствующее число производных dV/dt. Таким образом, одному-единственному решению исходного не¬ линейного дифференциального уравнения соответствует множество функций Ляпунова. Именно в этом и состоит преимущество метода Ляпунова по сравнению с классическими способами определения устой¬ чивости. Соответственно существует и большое число ограничений, которым должна удовлетворять производная dV/dt, для того чтобы она могла быть индикатором устойчивости. Однако оказывается, что если dV/dt по крайней мере отрицательно полуопределенная функция, то этого уже достаточно для установления псех свойств устойчивости. В рассматриваемом примере такую функцию можно построить, если положить коэффициент при ххх.г равным нулю, а коэффициенты при xl и х\ сделать отрицательными или нулевыми. Последнее имеет место, если ап равно любому положительному числу между 0 и 2, а коэф¬ фициент а21 — произвольному положительному числу. В силу этого можно принять, что а21 = а12. Полагая коэффициент при х^х2 равным нулю, находим Коэффициент при члене Х\Х^ обращается в нуль, если имеет место равенство -ГГ = — -V5 (2 — а,2) — апх\. <2ц — я12 -j- 2х\. С учетом всего этого можно записать JV этап.
6.31 ПРЯМОЙ МЕТОД И ФУНКЦИЯ ЛЯПУНОВА 247 Вычисляя криволинейный интеграл (5.3.56), находим V=\yV'dx = \ (owl!-f 2f>) dft -j-1 (a^xi 4- 2Ti!)d-(.2 — 0 0 0 = Y -j- -j- а^х{х<2 0 al2 ^ 2. V этап. Таким образом, функция V является положительно определенной формой, причем при ||л;||—>*00 liml/->oo, и, следовательно, уравне¬ ние для V описывает во всем пространстве некоторую замкнутую поверхность. Так как производная dVjdt также во всем пространстве является по крайней мере отрицательно полуопределенной функцией, то в соответствии с любой из теорем 5.16 или 5.44 система, изоб¬ раженная на рис. 5.12, асимптотически устойчива в большом. Хотя этот иллюстративный пример достаточно прост, однако ис¬ пользованный метод анализа имеет весьма широкое применение. В ра¬ боте [24] приведен целый ряд более сложных примеров, в том числе анализ системы, обладающей предельным циклом. По-видимому, основ¬ ной сферой приложения этого метола служат автономные системы. Ими и ограничено настоящее изложение. В работе [24] обсуждаются вопросы применения метода градиента к неавтономным системам. Од¬ нако полученные здесь результаты выражены не так четко и не имеют такой общности, как в случае автономных систем. Результаты приложения метода градиента к автономным системам могут быть подытожены следующим образом: 1. Метод применим к системам, в которых однозначная, непре¬ рывная нелинейность задается в виде полинома либо иной функции х, либо в виде экспериментальной кривой. 2. Область приложения метода не зависит от выбора вида системы координат. 3. Метод позволяет строить функции, доставляющие решение по¬ ставленной задачи. При этом возможен синтез функций, включающих члены высшего порядка, интегралы и произведения трех фазовых координат. Может возникнуть следующий вопрос: какие преимущества имеет метод обобщенного градиента перед методом поиска функции V. Смысл ответа состоит в том, что если некоторая функция V имеет достаточно общий вид, то число членов в произвольной dVjdt ста¬ новится недопустимо большим для целей анализа. 5.S.7. Некоторые применения теорем устойчивости Проиллюстрируем теорему 5.26 на примере адаптивной системы [7], изображенной на рис. 5.13. Предположим, что в момент £ = 0 на вход системы подается скачок амплитуды R0, причем при t<^0 си¬
248 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА ГГЛ. 5 стема находилась в состоянии покоя. Поведение системы при описывается следующей системой дифференциальных уравнений: •Р + во.У = Ко, (5.3.61) с -j- ачс = (ao = go-rlh) (5.3.62) И щ-\-а,оЩ = — у у (5.3.63) а0 = — q0c + qxc -f- q0u0 -f q{ii0. (5.3.64) Выражение (5.3.61) представляет собой дифференциальное уравнение Физический процесс Рис. 5.13. Блок-схема адаптивной системы управления. с постоянными коэффициентами и правей частью, допускающей пре¬ образование Лапласа. Решая его и подставляя полученное решение в уравнение (5.3.63), находим также щ. Предполагая, что начальные условия нулевые, находим следующие выражения для у и п0 и их
6.3] ПРЯМОЙ МЕТОД II ФУНКЦИЯ ЛЯПУНОВА производных по времени: у = (5.3.65) ао у = R0e- <4 (5.3.66) н0 = -^-[1_(1 -L-a0t)e-°o‘] (5.3.67) И щ = — R{)te~ а<>(. (5.3.68) Приведем уравнения (5.3.62) и (5.3.64) к виду, удобному для применения теоремы 5.26. Для этого сделаем следующую замену переменных: с = х1-\~у (5.3.69) и a0 = x2Jra0. (5.3.70) Подставляя уравнения (5.3.69) и (5.3.70) в (5.3.62) и выражая (5.3.68) через (5.3.65), находим х{ = — а0хх — — (1 — е~ а«О х2 — хгх2 (5.3.71) ап и где Xz = M(qо — qta„) — MqiR° (1 — е-а^)хъ — Mqxxxxb (5.3.72) М=-Цг {Чй—[%-\-(Яо — Я\ао)аоЩе-а<>‘. (5.3.73) ио Потенциальная функция Ляпунова может быть записана в виде V (х, t) = x'Bx, (5.3.74; где х — вектор-столбец, составленный из фазовых координат хх и х2, а В — симметрическая матрица второго порядка. Выбор элементов матрицы В составляет основную тему последующего анализа. Пусть некоторая квадратичная форма вида (5.3.74) положительно определена, а ее производная по времени — отрицательно определенная функция. Тогда эта квадратичная форма удовлетворяет всем требованиям к функции Ляпунова, и потому изучаемая система асимптотически устойчива в большом. Эта форма является весьма заманчивой целью, ради достижения которой стоит затратить усилия, поскольку ее суще¬ ствование гарантирует устойчивость решения рассматриваемой системы дифференциальных уравнений. Существует, однако, множество систем, для которых эта цель не достижима. В частности, забегая вперед, можно отметить, что к этой категории относится и исследуемая сис¬ тема. Однако легко показать, что для весьма широкого множества
250 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 амплитуд скачкообразного входного сигнала и большого числа зна¬ чений <7i и в (5.3.73) данная система устойчива в малом. Возникает вопрос о том, каковы размеры области устойчивости вблизи начала координат. Ответ на него может быть получен с по¬ мощью теоремы 5.26. Причина, по которой с помощью прямого метода Ляпунова нельзя доказать устойчивость этой системы в большом, станет очевидной из дальнейшего изложения и будет обсуждена. При выборе элементов матрицы В Ляпунова используются два критерия. В соответствии с первым из них элементы выбираются так, чтобы матрица В была положительно определенной. Смысл вто¬ рого критерия сводится к тому, чтобы при выбранных по первому критерию элементах В область вблизи начала координат, в пределах которой функция— U^(jc) = lim V(x, t) отрицательна, была как можно t -*■ со шире. Для удобства применения теоремы 5.26 также желательно, чтобы эллипс, задаваемый уравнением [J(x) = Um V(x, t) = L, не имел t со значительного эксцентриситета (здесь L — некоторая постоянная). Перейдем к выбору элементов матрицы В. Для того чтобы мат¬ рица В была положительно определенной, достаточно выполнения следующих условий: 6И> 0 (5.3.75) и ЬпЬш — ЬЪ > 0 (5.3.76) для всех t ^ Т0. Заметим, что в качестве элементов матрицы В могут быть выбраны и функции времени, если только этот выбор дает какой-либо выигрыш. Производная формы V(x) по времени может быть записана следующим образом: V(x) = 2 х'Вх + х'Вх. (5.3.77) Подставляя правые части уравнений (5.3.70) и (5.3.72)" в (5.3.77) и производя необходимые вычисления, находим следующее выражение: V(x) = спх\ -|- 2спххх<2 + сшх\ + стх\хъ — cmXix\, (5.3.78) где сп = — 2bna^ -j- 2bl2M (<7о — ^i^o) ~г (5.3.79) ^ и ^0 Л -a0t\ MqiRo ( ~a0t\ Ca— — bu—[\—e ) — bl4a9—bn——\\—e ~\- b<^N[ (<7o — <7i^o) (5.3.80) = - 2ba a°‘) - 2b„ {l-e~ °°') + bn, (5.3.81) cm — — 2 {bn -)- b^Mqi) (5.3.82)
5.3] ПРЯМОЙ МЕТОД И ФУНКЦИЯ ЛЯПУНОВА 251 ст = — 2 (bn + b.nMqi). (5.3.83) Если положить = <5А84> то коэффициент с]12, стоящий в уравнении (5.3.78) при члене х\х^ обращается в нуль. Далее для удовлетворения условия (5.3.76) необ¬ ходимо выполнение равенства = <5-3-85» где 7i 0 при всех значениях t. С учетом этого коэффициенты (5.3.79) —(5.3.83) приобретают следующий вид: си = -2-%-Ьи + Ьи, (5.3.86) 41 Си = Ь-щ; - «'“•» + Ь■» (5'3'87' = + (5'388) И ст = — 2 -д7~ • (5-3.89) Выберем далее коэффициенты ^ и Ьп следующим образом: Ъ = ^МЧ1 (5.3.90) и bn = b*nMqv (5.3.91) где сомножители 7 и Ь*г — некоторые положительные постоянные. Ограничим отношение <7i/<70 областью значений, при которых величина М ^ 0 для всех t^O. Тогда условие (5.3.72) имеет место, и для всех элементов матрицы В и их производных справедливы соотно¬ шения bu = bu -^-{<70 — [<?о + 07о — qxa^a^\e “Д (5.3.92) - CLqt toi + too — ?ia0K] е , (5.3.93) *„= — **, (5.3.94) bn= 0, (5.3.95) bn = (1^а“ Wo — [?o + too — ?i*o) *o<] <?" “° V (5.3.96) = ^11(* ^ a'‘ l?o — [<?o -r (go — <7i«о) Доt] e Д 2X — ant X [Q\ 4“ too — #iao) 4 e • (5.3.97)
‘252 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 С учетом этого коэффициенты уравнения (5.3.78) могут быть запи¬ саны следующим образом: Так как величина Ь*^ является общим сомножителем во всех выра¬ жениях, то ее выбор не влияет на дальнейший анализ. Положим ее равной, например, единице. сделана отрицательно определенной. Действительно, первые три члена в уравнении (5.3.78) образуют квадратичную форму. Четвертый член, равен нулю в силу выбора элементов матрицы В. И, наконец, послед¬ нее слагаемое есть член, зависящий от третьей степени фазовых координат. Если квадратичная форма, образованная первыми тремя членами, отрицательно определена, то в некоторой области вблизи начала координат функция V(x,t) отрицательна. Эго следует из того, что при малых значениях фазовых координат вторая степень их стре¬ мится к нулю медленнее, чем третья. Далее в силу уравнения (5.3.101) и выбора значения 7^>0 коэффициент при пятом слагаемом в урав¬ нении (5.3.78) не может быть обращен в нуль. Поэтому, начиная с некоторых значений фазовых координат, этот член третьего порядка начнет превалировать над квадратичной формой, причем в зависимо¬ сти от направления движения в фазовом пространстве он может иметь любой знак. Следовательно, существует некоторая область фазового пространства вблизи начала координат, в пределах которой функция V(x,t) положительна. В соответствии с этим последующий анализ будет связан с применением теоремы 5.26. Прежде чем продолжать дальнейший анализ, дадим некоторые конкретные значения параметрам R0, qb q0, а0 системы и остановимся на выборе коэффициента у. Пусть ■1^°' {ЗД — [2<7о + 9i<*o — ОоД T- ао(^Яо Я1ао)(Яь— 9iao)t]e Ь (5.3.98) Сп = bti [«о— (1 j~(д<> — <7ia0)]> 41 (5.3.99) -\-(Яо — Я\а-о)а<>*е ^1} \_Я\ + (<?о — <7i«o)t ] е ^ (5.3.100) И (5.3.101) Теперь можно пояснить, почему функция V(x,t) не может быть Ко =ю, я0 = 0,1, Я\= 1 (5.3.102) (5.3.103) (5.3.104)
5.3] ПРЯМОЙ МЕТОД И ФУНКЦИЯ ЛЯПУНОВА 253 <7о=1. (5.3.105) Эти значения выбраны не произвольно, однако причина такого выбора здесь освещена не будет (см. [7]). С учетом этого коэффициенты (5.3.74) приобретают следующий вид: си = — 10 {200 —[201 -[- 18,9#] (5.3.106) с,* = (0,8 + 0,9т), (5.3.107) ,e==_[2T+10«(l-rftl<)-(l+T).10-5{l-[l + 4- 0,09#] 4°'T2[l-f 0,9# ] е~°’U] (5.3.108) И с122 = — 2Т. (5.3.109) Выбор численного значения коэффициента у зависит от поведения системы при t—►оо. В данном случае для коэффициентов уравнения (5.3.78) имеем сп = — 2. 103, (5.3.110) с12 = 0,8 + 0,9Т, (5.3.111) сп= — 2Т.103, (5.3.112) ст = — 2Т. (5.3.113) Пусть Т=Ю8. (5.3.114) Тогда при элементы матрицы В приобретают следующий вид: Ьп = Ю3, (5.3.115) bn = — 1, (5.3.116) &й= Ю'2. (5.3.117) Подставляя эти коэффициенты в правую часть уравнения (5.3.74), видим, что они удовлетворяют условию а) теоремы 5.25, и поэтому U(jc) удовлетворяет условию в) той же теоремы для произвольного Q. Более того, в этом случае эллипсы, описываемые уравнением U (д;) = const, имеют незначительный эксцентриситет. Подставляя последовательно уравнение (5.3.114) в (5.3.111) — (5.3.113) и используя (5.3.78), находим lim V{x,t) = — W(x)= — [2 • 10:,jq— 1,8- IO^jc2-)- 4-2.1 0”x2 -[-2.1 05ataj4 (5.3.118)
254 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. Г, Функция W(x) в (5.3.118) и есть та самая функция, которая фигурирует в условиях б) и в) теоремы 5.25. Если удастся теперь определить область 2, то W(x) будет отвечать этим условиям. Квад¬ ратичная часть уравнения (5.3.78) отрицательно определена. Поэтому в некоторой области вблизи начала координат функция— W{x) отри¬ цательна. Геометрическое место точек, разделяющее фазовую плос¬ кость на две области, в одной из которых—W(x) положительна, а в другой отрицательна, может быть найдено, если положить — U7(a:) = 0 и построить кривую, отвечающую этому уравнению. Рас¬ четы упрощаются при переходе к полярным координатам. Пусть Подставляя (5.3.119) и (5.3.120) в уравнение (5.3.118), находим — Щг, 0) = — 2 • 103r2 [cos2 б — 0,9 • 102 sin б cos б -ф- -f- Ю4 sin2 б -|- 102r sin2 0 cos б]. (5.3.121) Приравнивая это выражение нулю и разрешая его относительно г, Отрицательные значения г смысла не имеют и полагаются равными бесконечности. Поэтому искомая кривая лежит лишь во втором и третьем квадрантах фазовой плоскости и не проходит через первый и четвертый. Рис. 5.14, на котором выделены области положительных и отрицательных значений функции—W(x;), иллюстрирует эти рас¬ суждения. Теперь можно применять теорему 5.26. Сначала определяется чис¬ ленное значение величины L. Для этого выражения (5.3.119) и (5.3.120) подставляются в уравнение (5.3.74), а численные значения коэффици¬ ентов (5.3.115) — (5.3.117) — в элементы матрицы В. Функция U(x) или U(r,0) приравнивается L, и в результате находится следующее выражение, связывающее г, 0 и Г: Это уравнение позволяет провести на фазовой плоскости предвари¬ тельный анализ и определить наибольшее значение Г, которое еще обеспечивает отрицательность функции — W(x) в пределах области U(x)—L. В данном случае xY = r cos б (5.3.119) и х2 = г sin б. (5.3.120) получаем г cos2 0 — 0,9 • 102 sin 0 cos 0 -j- 104 sin2 О (5.3.122) 102 sin2 0 cosO 10:5 cos2 G — 2 sin 0 cos G 102 sin2 G L (5.3.123) L = 6,24 • 106. (5.3.124)
5.3] ПРЯМОЙ МЕТОД И ФУНКЦИЯ ЛЯПУНОВА 255 Область Q, определяемая неравенством U(x)^L, отмечена на рис. 5.14 штриховкой. Внутри этой области удовлетворяются условия а), б), в) теоремы 5.25, а потому здесь справедлива и теорема 5.26. Введем области Qs, задаваемые неравенством (J(x)=L — 8, и выберем зна¬ чение 7's таким образом, чтобы каждая траектория x(t, t(b х0) стремилась к нулю при t—► оо при всех х и t > Т* 1о^ 1 <>• Для понимания пре¬ дыдущего анализа необ¬ ходимо дать некоторые комментарии. Рассматри¬ валась относительно про¬ стая система нелинейных дифференциальных урав¬ нений, описывающих по¬ ведение адаптивной си¬ стемы управления. Устой¬ чивость этой системы изучалась с помощью скачкообразного входно¬ го сигнала амплитуды RQ, подаваемого в момент времени t — 0. Преобра¬ зованием переменных бы¬ ла найдена совокупность уравнений, которая опи¬ сывала реакцию системы на возмущение, отклоняющее ее от заданной траектории. Эта система была одновременно нестационарной и нелинейной. Основная цель ана¬ лиза состояла в приведении системы к виду, пригодному для приме¬ нения теоремы 5.26. В ходе анализа были выбраны соответствующие значения амплитуды входного сигнала и параметры системы. Анализ был доведен до этапа, на котором теорема 5.26 может быть приме¬ нима. Для моментов времени, больших чем время установления эта¬ лонной модели (при скачкообразном сигнале это составляет примерно 30 сек), величина Ь может быть сделана достаточно малой. Это в свою очередь означает, что область близка по своим размерам к Q, и потому время может быть выбрано порядка 30 сек. Пусть до момента времени 7'8 система не испытывала возмущений, откло¬ няющих ее от заданной траектории. Тогда в соответствии с теоре¬ мой 5.26 при любом будущем возмущении, не выходящем из области Qe (почти совпадающей с £2), система асимптотически устойчиво стре¬ мится к началу координат. Физически это означает, что даже в том случае, когда величина g меняется скачком более чем в 200 раз, то НриваЯ W(X)=0 ддо 150 -W(x) положительна. 135‘ 195 -W(x) положительна 210 ш] ж Кривая W(x) = 0 270° Рис. 5.14. Фазовая плоскость: область устой¬ чивости адаптивной системы управления.
‘256 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 и тогда управляющее устройство исходной системы устойчиво изме¬ няет характеристику //0 с целью ликвидации этого возмущения. Так как номинальное значение параметра а0 равно лишь 0,1, то это— довольно сильное условие устойчивости системы. Все это, конечно, справедливо лишь спустя 20 или 30 сек после приложения скачкооб¬ разного входного сигнала. Более ранним возмущениям (т. е. меньшим Т и соответственно меньшим 75) соответствуют большие значения 5 и меньшие по размерам области гарантированной устойчивости. Вид области устойчивости сохраняется, однако, неизменным. Следует отме¬ тить, что отсюда еще не вытекает обязательная расходимость траек¬ торий, начинающихся за пределами этой области, даже если они исходят из точек, где функция— W(x) положительна. Это является следствием того, что теоремы Ляпунова дают только достаточные, но не необходимые условия устойчивости. Таким образом, анализ показывает, что при заданном входном сигнале рассматриваемая система управления асимптотически устойчиво адаптируется к изменениям ее параметров всегда, за исключением, может быть, больших возмущений, возникающих спустя короткое время после приложения скачка на входе. Моделирование этой адаптивной системы на аналоговой машине дало почти те же самые результаты. Итак, данная система обладает хорошими способностями адаптации к изменениям параметра go всюду, за исключением, возможно, боль¬ ших возмущений, возникающих вскоре после подачи входного сигнала. Обобщение процедуры Использованный ранее метод нахождения величины L в теореме 5.26 требует графического построения кривой— W(x)= 0. В фазовом пространстве трех и более изменений такая процедура уже не приме¬ нима. Ниже кратко излагается общая методика применения теоремы 5.26 к системам, поведение которых описывается уравнением (5.2.3) и которые удовлетворяют уравнению (5.2.43) при квадратичных функ¬ циях Ляпунова. Применение этой методики к теореме 5.23 рассмат¬ ривается в конце раздела. Потенциальная функция Ляпунова может быть представлена в следующем виде: V(x,t) = xrBx, (5.3.125) где В — некоторая симметрическая матрица, а х—вектор-столбец фазовых координат. В качестве элементов матрицы В могут быть выбраны функции времени. Производная функции Ляпунова имеет вид V (х, t) = — хг С х + хг В f(x\ (5.3.126) где С—симметричная матрица, определяемая равенством С = — [ВА + {ВА') + В]. (5.3.127)
5.31 ПРЯМОЙ МЕТОД И ФУНКЦИЯ ЛЯПУНОВА 257 При исследовании устойчивости необходимо, чтобы матрица А была невырожденной. В противном случае оказывается чрезвычайно труд¬ ным подобрать элементы В так, чтобы С была положительно опре¬ деленной матрицей. Следующим шагом является выбор элементов В. В общем случае этот выбор должен удовлетворять четырем критериям. Первые два требуют положительной определенности обеих матриц В и С. Осталь¬ ные два критерия подчинены этим требованиям, но тем не менее также важны. В соответствии с первым из них собственные значения матрицы В не должны отличаться друг от друга более чем в 10— 20 раз. В соответствии со вторым не должны быть слишком малыми собственные значения матрицы С. Все эти предложения достаточно естественны. Тем не менее они могут по крайней мере служить руко¬ водством к выбору элементов матрицы В. Некоторую помощь в опе¬ рациях с собственными значениями матриц В и С как функций элементов могут оказать характеристические уравнения В и С. Для этого их надо привести к такому виду, чтобы собственные зна¬ чения лежали на некотором корневом годографе, отвечающем разомк¬ нутой системе, полюса, нули и коэффициент усиления которой являются функциями элементов матрицы В. Эта процедура описана достаточно широко и может быть найдена, например, в [7]. После того как элементы В выбраны, возникает вопрос о раз¬ мере области асимптотической устойчивости, которую гарантирует теорема 5.26. Этот размер в свою очередь зависит от величины наи¬ большего значения Z,, для которого еще справедливо ограничение U7(jc)^>0 в пределах области U{x)^L. Один из наиболее легких путей вычисления состоит в преобразовании переменных по формуле U{x) — x'Dx = zrlz (D = \imB), (5.3.128) t -*■ оо где 1 — единичная матрица. Это преобразование удобно производить в два этапа. Ыа первом этапе определяется ортогональное преобразо¬ вание, позволяющее представить U (х) в виде if (х)= U (v) — v'Ay, (5.3.129) где А — некоторая диагональная матрица. Элементы А совпадают с собственными значениями матрицы D, а переменные v и х связаны соотношением <v = Px, (5.3.130) где Р — матрица ортогонального преобразования. Элементы Р могут быть найдены в результате решения системы линейно независимых равенств вида РР’ = 1 (5.3.131) и PD = АР. (5.3.132) 9 п/р Леондеса
258 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 Зная матрицу Р, нетрудно найти дополнительное преобразование переменных, позволяющее представить U в виде U = x'Dx = v'Av = z'lz (5.3.133) Зависимость между векторами ю и z может быть представлена в виде z = Qv, (5.3.134) где 0 — диагональная матрица. Элементы матрицы 0-легко находятся из равенств 02 = А. (5.3.135) Зависимость между х и z имеет вид следующего соотношения: x = P'0'z. (5.3.136) С учетом этого находим выражение для функции — W(x): — W(x) = — W(z) = —zr [Я'О-1 ] Е [РЪ~1 \ z + + 2Г [/>'0-'] D (f(x)!= g w) (5.3.137) (где Е = lim С). [ —*■ СО В терминах ^-переменных граница области, заданной неравенством U^ L, представляет собой гиперсферу в (т -j- я)-мерном простран¬ стве. Максимально допустимое значение L равно квадрату расстояния от начала 0-системы координат до ближайшей точки, лежащей на одном из листов поверхности, заданной уравнением W(z) = 0. Рас¬ стояние задается в евклидовой метрике. Эту точку легко найти, если перейти к гиперсферической полярной системе координат. Основными переменными в новой системе служат радиус г и (т-\-п—1) угло¬ вых координат. Подстановка этих переменных в уравнение W= 0 позволяет найти радиус г как функцию (т-\-п—1) угловых коор¬ динат. Эту функцию можно ввести в быстродействующее цифровое вычислительное устройство, и далее методами спуска или квантова¬ ния пространства (totalspace sampling) найти наименьшее значение г. Здесь следует сделать оговорку. Каждый лист поверхности, заданной уравнением W=0, содержит точку минимума. Поэтому в качестве значения L выбирается наименьший из этих локальных минимумов. Пусть наименьшее значение г равняется г0. В гиперсферических поляр¬ ных координатах функция U имеет следующий вид: U=r\ (5.3.138) Соответственно L = rl (5.3.139) В процессе применения теоремы 5.26 это значение L может быть использовано вместе с функцией U(x) для построения двумерных
5.31 ПРЯМОЙ МЕТОД И ФУНКЦИЯ ЛЯПУНОВА 259 сечений области 2. Аналогично легко построить двумерные сечения областей 2S, заданных неравенством LJ(x)^lL — Ъ. Этот метод может быть использован для определения области 2, фигурирующей в теореме 5.23. В последнем случае задача упрощается, ибо для автономных систем при всех 1В = D и С — Е. В противном случае процедура остается неизменной. 5.3.8. Определение верхней границы для переходной характеристики Предположим, что функция Ляпунова — индикатор асимптотиче¬ ской устойчивости системы — найдена. Если производная V(x,t) в этом случае является отрицательно определенной функцией, то можно найти верхнюю границу для переходной характеристики системы. Этот факт легче всего понять, если вспомнить весьма упрощенную аналогию между прямым методом Ляпунова и реакцией линейной системы пер¬ вого порядка, проведенную в § 5.1. Поведение линейной системы первого порядка при нулевом входном сигнале (г (0 = 0) может быть описано уравнением вида х = —ах, (5.3.140) где а — некоторая положительная константа, или, что то же самое, уравнением а = (5.3.141) При начальном условии х = х0 переходная характеристика системы при t^>0 имеет следующий вид: x(t) = xQe~at, *> 0. (5.3.142) В данном случае величина jc есть мера отклонения выходного сигнала системы от точки равновесия х — 0. Уравнение (5.3.142) описывает траекторию движения ас к положению равновесия во временной области. Положительная константа а равна времени, которое необхо¬ димо выходному сигналу для достижения уровня лс0/£, и поэтому она имеет смысл постоянной времени системы. Примем, что V(x,t) есть мера расстояния от точки равновесия до некоторой заданной точки какой-либо траектории решения. Введем величину —ЫШ (53j43) и будем ее рассматривать в интересующем нас интервале времени и области, где гарантируется асимптотическая устойчивость. В этом случае имеет место следующее неравенство: V(ф (t; Хо, t0)> t)$£V(Jfib (q) e -i - 4 (5.3.144) 9*
260 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 В случае автономных систем иногда не требуется знания переходной характеристики во всей области асимптотической устойчивости. В этом случае уравнение (5.3.143) можно оценить в более узких областях 2, заданных неравенством V(X)^L, (5.3.145) где L — некоторая положительная константа. Данная процедура неприменима, если V не является отрицательно определенной функцией. Это легко усмотреть, например, из следую¬ щего примера. Пусть производная V' отрицательно полуопределена. Тогда т] равно нулю, и окончательное неравенство (5.3.144) теряет смысл. Следует также отметить, что величина у\ зависит от выбора вида функции Ляпунова. В частности, для некоторых систем значения т], отвечающие двум различным функциям Ляпунова, могут отличаться по величине на порядок. Тем не менее неравенство (5.3.144) во всех случаях остается справедливым, хотя одна из систем имеет переходную характеристику более быструю, нежели другая. В силу этого данный метод не пригоден для сравнения переходных характеристик двух систем, но может быть использован для оценки верхней грани переходной характеристики. 5.4. Заключение Предыдущие разделы представляют собой попытку краткого, хотя и весьма строгого изложения прямого (второго) метода Ляпу¬ нова. Материал излагался применительно к системам автоматического управления. Некоторые из теорем § 5.2 были изложены в виде, несколько отличном от того, как они сформулированы в первоисточ¬ никах. Эго сделано с целью унификации обозначений и описания физических систем на протяжении всего изложения. Был сформули¬ рован ряд теорем устойчивости в произвольной малой области вблизи положения равновесия, и с их помощью было исследовано значитель¬ ное число нелинейных систем. Эти теоремы зачастую служат пред¬ варительным этапом исследования устойчивости системы, поскольку в свою очередь они облегчают выбор теорем, необходимых для дока¬ зательства устойчивости в большом, устойчивости в некоторой задан¬ ной области или же вообще неустойчивости системы. Определение устойчивости нелинейных систем — автономных или неавтономных — требует гораздо большего труда, чем линейных. Некоторые примеры уровней устойчивости нелинейных систем приведены в § 5.2. Хотя эти разбиения области устойчивости и существуют в действитель¬ ности, однако подавляющее число специалистов в области управле¬ ния интересуется, по-видимому, лишь асимптотической, в том или ином смысле, устойчивостью, и не нуждается в дальнейшей детализации.
5.4] ЗАКЛЮЧЕНИЕ 261 Наибольшая трудность, которая встречается на пути применения прямого метода Ляпунова, есть построение некоторой функции 1/, отвечающей условиям одной из теорем. В § 5.3 приведен целый ряд прямых и косвенных методов, позволяющих определить эту функцию для некоторых систем. Ни один из этих методов не является уни¬ версальным, и более того, любой из них может оказаться полезным там, где отказывают остальные. В применении к нелинейным авто¬ номным системам прямой метод Ляпунова обладает большими потен¬ циальными возможностями. Это наглядно показывает метод градиента. Однако применение его к неавтономным системам весьма ограниченно. Так как теоремы Ляпунова дают лишь достаточные, но не необхо¬ димые условия устойчивости системы, то невозможность построения функции V—индикатора устойчивости или неустойчивости — еще ни о чем не говорит. Из того, что система не удовлетворяет этим условиям.устойчивости, не следует ее неустойчивость, и наоборот. Не¬ обходимо также отметить, что функция Ляпунова — индикатор устойчи¬ вости или неустойчивости — определяется не единственным образом. Более того, можно показать, что из существования одной такой функ¬ ции V следует существование бесконечного числа их. Остановимся теперь вкратце на вопросе о том, какую информацию несет прямой метод Ляпунова. Если этот метод применим, то с его помощью можно определить, устойчива или же неустойчива система. Это — ценная информация. Однако специалиста в области управления зачастую ин¬ тересует тенденция к перерегулированию и время установления системы под действием возмущения. Желательно также иметь возможность использовать критерий устойчивости для выбора коэффициента уси¬ ления системы и параметров компенсирующего устройства. Хотя эти возможности и обсуждались в литературе [11], однако в настоящее время они носят весьма ограниченный характер. В частности, в раз¬ деле 5.3.8 отмечалось, что с помощью производной dVjdt можно оценить время установления системы. Однако любая такая оценка зависит не только от характеристик рассматриваемой системы, но также и от вида и параметров выбранной функции \/. Поэтому по¬ добная оценка не может служить истинной характеристикой системы. В зависимости от вида V эта сценка может сказаться весьма завы¬ шенной. Однако данный метод позволяет сцепить время установления сверху, и в этом смысле он представляет ценность. Аналогичные трудности возникают при нахождении параметров системы с помощью критериев Ляпунова — здесь также оказывают существенное влияние вид и параметры выбранной функции Ляпунова. В общем случае критерии Ляпунова не являются таким универ¬ сальным методом анализа и синтеза нелинейных систем, как метод корневого годографа —для линейных. Эго и не удивительно, поскольку класс задач, к которым они приложимы, гораздо шире. По-видимому, эффективность критериев Ляпунова резко повысилась, если бы
262 АНАЛИЗ СИСТЕМ ПРЯМЫМ МЕТОДОМ ЛЯПУНОВА [ГЛ. 5 был предложен некоторый метод построения функций Ляпунова, не только удовлетворяющих условиям теорем, но и «адекватных« (в не¬ котором смысле) рассматриваемой системе. Такой метод, вероятно, был бы настолько сложен, что для его применения потребовались бы высокоскоростные вычислительные устройства. Однако он мог бы по¬ мочь исследователю найти точную верхнюю грань времени установ¬ ления системы. ЛИТЕРАТУРА 1. Айзерман М. А., Теория автоматического регулирования двигателей, Гостехиздат, М., 1952. 2. Beckenbach Е. F., Modern Mathematics lor the Engineer, McGraw- Hill, N. Y., 1956. [Русский перевод: Бсккенбах Э. Ф., Современная математика для инженеров, ИЛ, М., 1958. 3. Bellman R., Stability Theory of Differential Equations, McGraw-Hill, N. Y., 1953. (Русский перевод: Белл м а и Р., Теория устойчивости решений дифференциальных уравнений, ИЛ, М., 1957.] 4. Birkhoff G. and MacLane S., A Survev of Modern Algebra, Revised Edition, MacMillan Co., N. Y., 1953. 5. С e s a г i L., Asymptotic and Static Problems in Ordinary Differential Equations, Ergebnisse der Mathematik und Threr Grenzgcbiete, Neue Folge—Heft 16, Springer—Verlag, Berlin, 1959. [Русский перевод: Ч e- з a p и Л., Асимптотическое поведение и устойчивость решений обыкно¬ венных дифференциальных уравнений, «Мир», М., 1964]. 6. С о d d i n g t о n E. A. and Levinson N., Theory of Ordinary Differential Equations, McGraw-Hill, N. Y., 1955. [Русский перевод: Коддинг- тон Э. А., Левинсон Н., Теория обыкновенных дифференциальных уравнений, ИЛ, М., 1958]. 7. D о n а 1 s о n D. D., The Theory and Stability Analysis of a Model Refe¬ renced Parameter Tracking Technique for Adaptive Automatic Control System, Ph. D. Thesis, UCLA, May, 1961. 8. Gibson J. E. et al., Stability of Nonlinear Control Systems by the Second Method of Lyapunov, Purdue School of Electrical Engineering Report No. EE 61-5, Lafayette, Indiana, May, 1961. 9. I n g w e r s о n D. R., A Modified Lyapunov Method for Nonlinear Stability Problems, Ph. D. The