Текст
                    УЧЕБНОЕ ПОСОБИЕ
И. В. Мирошник
ТЕОРИЯ
АВТОМАТИЧЕСКОГО
УПРАВЛЕНИЯ
Нелинейные и оптимальные
системы
С&ППТЕР


'ш°дш-вю©@ // и ©.©©в и в ' И. В. Мирошник ТЕОРИЯ АВТОМАТИЧЕСКОГО УПРАВЛЕНИЯ Нелинейные и оптимальные системы Рекомендовано Учебно-методическим объединением по университетскому политехническому образованию в качестве учебного пособия для студентов высших учебных заведений, обучающихся по группе направлений подготовки бакалавров и магистров 550000 — «Технические науки» и дипломированных специалистов 650000 — «Техника и технологии» дисциплине «Теория автоматического управления' 300.piter.com Издательская программа 300 лучших учебников для высшей школы в честь 300-летия Санкт-Петербурга осуществляется при поддержке Министерства образования РФ Москва • Санкт-Петербург • Нижний Новгород • Воронеж Ростов-на-Дону • Екатеринбург ■ Самара - Новосибирск Киев • Харьков • Минск 2006
ББК 32.965-01 я7 УДК 681.5.01(075) М64 Рецензенты: Андриевский Б. Р., кандидат технических наук, доцент Балтийского государственного технического университета «ВОЕНМЕХ» Путов В. В., доктор технических наук, профессор, заведующий кафедрой Систем автоматического управления Санкт-Петербургского государственного электротехнического университета «ЛЭТИ» Мирошник И. В. М64 Теория автоматического управления. Нелинейные и оптимальные системы. — СПб.: Питер, 2006. — 272 с.: ил. — (Серия «Учебное пособие»). ISBN 5-469-00351-5 В учебном пособии приведены современные методы анализа и проектирования нелинейных систем автоматического управления. Основное внимание уделяется теории гладких систем и ее разделов, ориен¬ тированных на решение задач синтеза и недостаточно представленных в существующей литературе. Изучаются особенности нелинейной динамики, понятия и методы современной теории устойчивости. Обсуждаются вопросы преобразования нелинейных систем, точной линеаризации и аппроксимации, а также подходы к решению задач анализа и проектирования нелинейных систем с помощью методов ли¬ нейной теории. Вводятся понятия управляемости и изучаются методы локальной стабилизации нелиней¬ ных объектов, а также вопросы управления каскадными системами. Рассматриваются методы согласован¬ ного управления многоканальными системами и решения траекторных задач, проблемы оптимизации и методы синтеза оптимальных систем управления. В книгу включен цикл практических занятий — прак¬ тикум, основное содержание которого составляют модельные (компьютерные) эксперименты, ориентиро¬ ванные на наглядное подтверждение изучаемых концепций и приобретение навыков синтеза нелинейных и оптимальных систем. Пособие предназначено как для начального ознакомления с предметом, аппаратом и языком совре¬ менной теории нелинейных систем, так и для углубленной подготовки. Может быть использовано сту¬ дентами технических университетов при освоении соответствующих разделов теории автоматического управления, а также аспирантами и научными работниками, специализирующимися в области нелинейной динамики. ББК 32.965-01 я7 УДК 681.5.01(075) Все прааа защищены. Никакая часть данной книги не может быть воспроизаедена в какой бы то ни было форме без письменного разрешения владельцев авторских праа. ISBN 5-469-00351-5 © ЗАО Издательский дом «Питер», 2006
Содержание Предисловие 6 Список сокращений и обозначений 9 Глава 1. Основные понятия и математические модели 11 1.1. Нелинейные функции и отображения 11 1.1.1. Отображения и операторы 11 1.1.2. Функции 14 1.1.3. Векторные поля и распределения 21 1.1.4. Гиперповерхности, поверхности и кривые 23 1.2. Модели нелинейных систем 26 1.2.1. Нелинейные звенья 26 1.2.2. Соединение нелинейных звеньев 30 1.2.3. Основные динамические модели 33 Глава 2. Переходные процессы и особенности нелинейной динамики 36 2.1. Интегральные кривые и фазовые траектории 36 2.1.1. Основные понятия 36 2.1.2. Построение фазовых траекторий: метод припасовывания и метод изоклин 40 2.1.3. Инвариантные множества и аттракторы 46 2.2. Особенности нелинейной динамики 49 2.2.1. Существование решений 50 2.2.2. Единственность решений 52 2.2.3. Продолжимость решений и полнота системы 53 2.2.4. Стационарные решения 55 2.2.5. Инвариантною множества, локальные и глобальные свойства .. 57 Глава 3. Устойчивость нелинейных систем 61 3.1. Основные понятия теории устойчивости 61 3.1.1. Равновесные состояния и устойчивость 61 3.1.2. Первый метод Ляпунова 68 3.1.3. Второй метод Ляпунова 69 3.1.4. Устойчивость линейных и линеаризованных систем 76
4 Содержание 3.2. Частичная устойчивость и устойчивость по выходу 78 3.2.1. Устойчивость по части переменных 79 3.2.2. Частичная устойчивость (устойчивость по функции) 83 3.2.3. Устойчивость по выходу 88 3.3. Пассивность и устойчивость по входу 91 3.3.1. Пассивные системы 91 3.3.2. Устойчивость по входу 96 Глава 4. Методы управления гладкими системами 99 4.1. Эквивалентные формы, линеаризация и стабилизация состояния 99 4.1.1. Преобразование автономных систем 100 4.1.2. Преобразования объекта управления и канонические формы ... 105 4.1.3. Управляемость нелинейных систем 110 4.1.4. Методы линеаризации и алгоритмы локальной стабилизации ... 112 4.2. Канонические формы вход-выход и стабилизация выхода 117 4.2.1. Относительная степень и основное преобразование 118 4.2.2. Нуль-динамика и нормальная форма 122 4.2.3. Точная линеаризация и стабилизация выхода 125 4.3. Управление каскадными системами 128 Глава 5. Согласованное управление и траекторные задачи 131 5.1. Задачи согласования и траекторного управления 131 5.2. Управление кинематической моделью 134 5.3. Управление динамической моделью 136 5.4. Управление движением по поверхности 142 Глава 6. Релейные системы 147 6.1. Релейные системы с нелинейным объектом управления 147 6.2. Скользящий режим 151 6.3. Релейные системы с линейным объектом управления 156 6.3.1. Условия устойчивости 157 6.3.2. Скользящий режим и эквивалентное управление 160 6.3.3. Скользящий режим возмущенной системы 163 Глава 7. Оптимальное управление и классические методы оптимизации. .165 7.1. Задачи оптимального управления 166 7.2. Экстремумы функций 169 7.2.1. Основная задача 169 7.2.2. Задачи на условный экстремум 173 7.3. Простейшая задача вариационного исчисления 176 7.3.1. Вариации функционалов и основные теоремы 178 7.3.2. Параметризация задачи и уравнение Эйлера-Лагранжа 180 7.3.3. Частные случая и обобщения 183 7.3.4. Задача с подвижными концами 186 7.4. Задачи на условный экстремум 189 7.4.1. Задача Лагранжа 189 7.4.2. Синтез оптимального управления 195
Содержание 5 7.5. Теория Гамильтона 198 7.5.1. Каноническая модель в гамильтоновой форме 198 7.5.2. Синтез оптимального управления 200 Глава 8. Методы оптимального управления 202 8.1. Квадратичные функционалы и линейные регуляторы 202 8.1.1. Квадратичные функционалы, задачи оптимизации, линейные обратные связи 203 8.1.2. Решение общей задачи ЛКР 208 8.1.3. Задача оптимизации на бесконечном интервале 216 8.1.4. Асимптотические свойства задачи ЛКР 221 8.2. Принцип максимума 225 8.2.1. Функция Гамильтона и основная теорема 225 8.2.2. Оптимальные управляющие воздействия (частные случаи) 229 8.2.3. Оптимальное быстродействие линейных объектов 235 8.3. Принцип оптимальности и уравнение Беллмана 239 Глава 9. Практикум 245 9.1. Анализ нелинейных систем 245 9.2. Синтез нелинейных систем 251 9.3. Согласованное управление и траекторные задачи 254 9.4. Релейные системы 258 9.5. Оптимальное управление 259 Литература.. 265 Предметный указатель 268
Предисловие Вторая половина XX века характеризуется существенным развитием большинства разделов теории автоматического управления, изменением подходов к изучению динамических процессов, появлением целого ряда новых классов систем и направ¬ лений научных исследований, что и определило общий облик теории начала нового тысячелетия. Наиболее значимые изменения претерпела теория нелинейных систем. Это связано как с использованием метода пространства состояний, так и с внедрением аппарата дифференциальной геометрии, функционального анализа, теории оптимальности, новыми трактовками концепций линеаризации, инвариантности и устойчивости, а также с активным изучением таких «экзотических» явлений, как самоорганизация, бифуркации и динамический хаос. Широкие возможности современной вычислительной техники и методов математи¬ ческого моделирования позволили практически исключить необходимость в трудо¬ емких процедурах нахождения аналитических решений нелинейных дифференци¬ альных уравнений и специальных методах графического построения переходных процессов. Как и в линейной теории, определяющее значение приобрели мате¬ матические методы анализа обобщенных показателей — динамических, точност¬ ных и комбинированных оценок качества системы. Расширилось понимание целей управления — от традиционных задач стабилизации и слежения к задачам частич¬ ной стабилизации, инвариантности и аттрактивности множеств, от использования функций Ляпунова для анализа свойств устойчивости до исследования с их по¬ мощью качественных показателей системы и решения задач синтеза управления. Синтетический характер многих подходов, их очевидная направленность на по¬ строение регуляторов и решение прикладных задач автоматического управления являются одними из отличительных особенностей современной теории нелиней¬ ных систем. Новая интерпретация теории нелинейных систем нашла отражение в монографиях и учебниках, изданных в последние годы за рубежом (см., например, [46]—[49], [52]), а также в ряде отечественных монографий [2, 11, 16, 20, 26, 40]. В то же время соответствующая учебная литература на русском языке практически
Предисловие 7 отсутствует, что вызывает опасность утраты передовых позиций, традиционно за¬ нимаемых отечественной наукой в области нелинейной теории управления. Данная книга призвана внести определенный вклад в заполнение указанного пробела. В учебном пособии рассматриваются базовые концепции и методологии совре¬ менной теории автоматического управления в области линейных систем (Часть 1. Линейные системы) и нелинейных систем (Часть 2. Нелинейные и оптимальные системы). В первой части книги [24] изучаются основные положения теории линейных систем управления и метода пространства состояний. Во второй части представлены современные методы анализа нелинейных процес¬ сов, синтеза нелинейных систем, оптимизации и построения оптимальных систем управления. Приведены необходимые теоретические сведения из функциональ¬ ного анализа и дифференциальной геометрии (глава 1), изучаются особенности нелинейной динамики (глава 2). Вводятся основные понятия современной тео¬ рии устойчивости и рассматриваются методы анализа устойчивости, пассивности и частичной устойчивости нелинейных систем (глава 3). Обсуждаются проблемы преобразования координат, позволяющие в целом ряде случаев решить задачи ана¬ лиза и проектирования нелинейной системы с помощью хорошо изученных методов линейной теории. Вводятся понятия управляемости, изучаются методы линеариза¬ ции и локальной стабилизации нелинейных систем, а также вопросы управления каскадными системами (глава 4). Рассмотрены методы согласованного управления многоканальными системами и решения задач управления движением по заданным кривым и поверхностям (глава 5). Глава 6 посвящена свойствам релейных систем и их поведению в скользящих режимах. В главе 7 изучаются классические методы оптимизации, а в главе 8 — основы современной теории оптимального управления. В книгу включен цикл практических занятий — практикум (глава 9). Основное содержание цикла составляют расчеты и модельные эксперименты, выполняемые с использованием известных программных средств (см., например, [2, 10]). Прак¬ тикум ориентирован на наглядное подтверждение изучаемых концепций и при¬ обретение навыков исследования нелинейных и оптимальных систем различного типа. Книга предполагает знакомство читателя с базовыми понятиями теории линей¬ ных систем (см. [1, 2, 24, 31, 36]), а также теории дифференциальных уравнений и линейной алгебры в пределах стандартных курсов технических университетов. Желательно также знание основных понятий теории множеств, вариационного ис¬ числения и дифференциальной геометрии (см. [7, 28]). Основное внимание в книге уделяется теории гладких систем и ее разделов, ори¬ ентированных на решение задач синтеза, недостаточно представленных в суще¬ ствующей литературе. Целый ряд важных вопросов нелинейной теории управле¬ ния остается за рамками данной книги и может быть изучен с помощью других литературных источников (см. литературу). Так, методы анализа периодических режимов нелинейных систем изучаются в работах [4, 31, 34, 36, 37], проблемы аб¬
8 Предисловие солютной устойчивости изложены в [2, 37], нелинейные стохастические системы рассмотрены в работах [4, 36, 37], а адаптивные и робастные системы — в [29, 30]. Для знакомства с более сложными разделами нелинейной динамики, посвященны¬ ми анализу хаотических систем, методам синергетики и кибернетической физики, можно обратиться к монографиям [2, 16, 20, 40]. В основу учебного пособия положены курсы лекций «Нелинейные системы» и «Ос¬ новы теории оптимального управления», читаемые автором в Санкт-Петербургском государственном университете информационнных технологий, механики и оптики (СПбГУ ИТМО) для студентов, обучающихся по специализации Автоматизация и управление, а также цикл практических занятий (компьютерный практикум). При подготовке и дальнейшем развитии курса максимально учитывался многолет¬ ний опыт теоретических, методических и прикладных разработок кафедры систем управления и информатики (автоматики и телемеханики) СПбГУ ИТМО, а также материал изданных в последние годы монографий и учебных пособий по теории автоматического управления. Книга содержит результаты научных исследований, выполненных при поддержке Российского фонда фундаментальных исследований и программы фундаменталь¬ ных исследований №19 Президиума Российской академии наук. Учебное пособие предназначено как для начального ознакомления с предметом, аппаратом и языком современной теории нелинейных систем, так и для более углубленной подготовки к самостоятельным исследованиям нелинейных процессов и решения прикладных задач. Может быть использовано студентами технических университетов при освоении соответствующих разделов теории автоматического управления, выполнения практических занятий, а также аспирантами и научными работниками, специализирующимися в области нелинейных систем. Автор выражает свою признательность коллегам и сотрудникам кафедры Систем управления и информатики СПбГУ ИТМО и лаборатории «Управление сложными системами» ИПМаш РАН, а также благодарит доцента К. А. Сергеева и инженера Екатерину Ольховскую за помощь в подготовке рукописи. Автор искренне благодарен Виктору Владимировичу Путову и Борису Ростисаво- вичу Андриевскому за полезные замечания и ценные рекомендации, способство¬ вавшие улучшению содержания учебного пособия.
Список сокращений и обозначений ОУ — объект управления Р — регулятор ЛКР — линейное квадратичное регулирование x(t) = {ж4(£)} = (xi,ar2,... ,хп) — вектор состояния; х0 = ж(0) — вектор началь¬ ных значений (начальных условий) y(t) — выходная (регулируемая) переменная и — входное (управляющее) воздействие x*(t), u*(t) — оптимальные процессы А(£) — вектор состояния сопряженной системы (вектор множителей Лагранжа) e(t) — отклонение, ошибка /, д, h — вектор-функции нелинейной модели ОУ А, Ъ, с — матрицы одноканальной линейной модели ОУ; Aq, b0, cq — матрицы канонической формы ОУ А, В, С — матрицы многоканальной линейной модели ОУ Аг{А} — собственные числа матрицы А к = {&г-} — матрица-строка коэффициентов обратной связи К — прямоугольная матрица обратной связи Rn — пространство состояний (n-мерное линейное пространство); R = R1 — мно¬ жество вещественных чисел, R+ с!1 - множество неотрицательных чисел X с Rn, У С Rw — области соответствующих пространств
10 Список сокращений и обозначений х* — положение равновесия (равновесное состояние); £(ж*) — открытая окрест¬ ность точки х* X* — инвариантное множество; £(Х*) — открытая окрестность множества X* S* — инвариантная гиперповерхность / кривая, подмногообразие; £(S*) — откры¬ тая окрестность S* Z* — множество (подмногообразие) нуль-динамики tn — время переходного процесса tf — время окончания процесса р = d/dt — оператор дифференцирования Cf9 = [f,g\ — производная Ли от вектора д вдоль векторного поля / (скобка Ли) s — комплексная переменная
Глава 1. Основные понятия и математические модели Для исследования свойств динамических систем и синтеза алгоритмов управле¬ ния необходимо иметь адекватные математические модели, т. е. аналитическое описание интересующих нас явлений и процессов. Наиболее распространенные модели динамических систем — это обыкновенные дифференциальные уравнения. Характерной чертой нелинейных систем является использование для их описания нелинейных операторов (отображений). В этой главе приводятся основные поня¬ тия, связанные с различными типами отображений, рассматриваются нелинейные блоки и модели нелинейных динамических систем. 1.1. Нелинейные функции и отображения К нелинейным относятся динамические системы, которые описываются с помощью нелинейных функций и операторов. Необходимость получения математических мо¬ делей нелинейных систем, их преобразования и анализа определяет важность рас¬ сматриваемых в этом разделе понятий функционального анализа и дифференци¬ альной геометрии (см. также [7, 11, 17, 26, 28]). 1.1.1. Отображения и операторы Рассмотрим множества X и У с элементами х е X и у е У (рис. 1.1). Определение 1.1. Отображением (операцией, преобразованием) называется пра¬ вило (оператор) Т\ х^у, в соответствии с которым каждому элементу х е X ставится в соответствие эле¬ мент у е У, т. е. У = Нх)'
12 Глава 1. Основные понятия и математические модели Рис. 1.1. Отображение Представляют интерес следующие частные случаи отображений. 1. Скалярная функция / — отображение числового пространства Ж в числовое пространство Ж f : Ж I—► Ж по правилу У = /0*0, где ж называется аргументом, а у — функцией (см. 1.1.2). 2. Матричная (линейная) операция, оператором которой является матрица А — отображение векторного пространства Жп в векторное пространство Жт (Жп Жт) по правилу У = Ах, где х е Жп, у е Жт. 3. Скалярное произведение < x,z > векторов х = {ж*} € Жп и 2 = {2^} G Жп — билинейное отображение Ж” хЖ^К1, которое (по определенным правилам, см. [17]) паре векторов из пространства Жп ставит в соответствие вещественное число (скаляр). К таким отображениям отно¬ сится операция умножения вещественных чисел и более общая билинейная функ¬ ция < ж, 2 > = жTQz = zTQx , где Q - симметрическая матрица: Q = QT. В частном случае при Q = I получаем < Ж, 2 > = ЖТZ — X\Z\ + Ж222 + ... + ЖnZn. Особое место среди преобразований рассматриваемого класса занимают функ¬ циональные отображения, т. е. отображения функций (функциональных про¬ странств). К функциональным отображениям относятся функционалы и обратные функционалы.
1.1. Нелинейные функции и отображения 13 Функционал — это правило, по которому каждой функции х ставится в соответ¬ ствие число J(x) е R (см. также п. 7.1). Например, квадратичный функционал ji J(x) = f x2(t)dt, Jo определенный на множестве функций времени x(t) (t е [О, Г]), функции x(t) ставит в соответствие значение интегральной квадратичной оценки J, а оператор tn = F(x(t)) переходной функции x(t) (t е [0, оо]) ставит в соответствие значение времени переходного процесса tn. К функционалам относятся также функциональные нормы — отображение функ¬ ций времени f(t) (t е [0, оо)) на множество положительных чисел R+: а 00 \ 1/р т г dt) , 1 < р < оо (см. также 1.1.2). Отметим, что ll/Wlloo = sup 1/(01, t т. е. эта норма существует для ограниченных функций и соответствует верхней границе абсолютного значения функции: |/(i)| < ||/(£)||оо- Обратные функционалы каждому числу ставят в соответствие функцию. Так, решения дифференциального уравнения первого порядка являются отображением начальных значений (чисел) жо G R на множество функций x(t,xо). Например, ре¬ шение линейного дифференциального уравнения х = ах является обратным функ¬ ционалом: x(t,x о) = eatxo. К более общему классу функциональных операторов относятся операторы Лапласа С: X{s) = С{х(£)), которые функции времени x(t) ставят в соответствие функцию комплексного пере¬ менного X(s), и интегро-дифференциальные операторы (передаточные функции) W(p) = а(р) ъ{Ру которые функции x(t) ставят в соответствие функцию y(t): y(t) = W(p) x(t)
14 Глава 1. Основные понятия и математические модели (последнее подразумевает, что y(t) является решением соответствующего диффе¬ ренциального уравнения). В частности, оператор дифференцирования р устанав¬ ливает правило y(t) = px(t) = а оператор интегрирования 1 /р — правило y(t) = - x(t) = 2/(0) + [ x(t)dt. V J о Определение 1.2. Отображение называется линейным, когда для любых х\, х2 оно удовлетворяет свойству линейности, т. е. подчиняется следующим условиям: 3=r(xi+x2) = F{xi) + Т(х2), F(ot жх) = аТ{х\)^ где а — произвольное вещественное число. Отображение называется нелинейным, когда оно не удовлетворяет свойству ли¬ нейности. К линейным относится функция у = Кх, оператор дифференцирования, оператор интегрирования, передаточная функция, оператор Лапласа, а типичным предста¬ вителем нелинейного отображения является нелинейная функция. 1.1.2. Функции Рассмотрим векторы х = {ж*} € X, у = {yj} е У, где X с Шп, У С Rm, и отображения линейных пространств (рис. 1.2, а). Определение 1.3. Функцией называется правило (отображение) /: Х~У, в соответствии с которым каждому элементу х € X (аргументу) ставится в соот¬ ветствие элемент (функция) у € У: У = /(я), или, в развернутом виде, У\ = f\(xi,x2,...xn), У2 /2(^1) Х2, ...Жп), У та — /гтг(*^1) %2i ••••£«)•
1.1. Нелинейные функции и отображения 15 Рис. 1.2. Векторная (а) и скалярная (б) функции Множество X называется множеством определения функции, а множество У — множеством значений функции. Такого рода функцию обычно называют вектор-функцией. Частным случаем вектор-функции является скалярная функция чисел у е Ш1 и скалярная функция многих переменных (аргументов) У — fl (*^1 > *^2) • • • > З'п) (рис. 1.2, б). Замечание 1.1. В общем случае функция определена на ограниченном множестве X. Так, вещественная функция у = фс определяется лишь для х > 0, функция у = 1/х — для х е (—оо, 0) и (0, оо), а функция у = Arcsin х — для х е [-1,1]. □ Определение 1.4. Функция называется линейной функцией, когда для любых х, zeR", она удовлетворяет свойству линейности: f{x + z) = f{x) + f{z), f{a ж) = af(x), где а е К — произвольное число. Функция называется нелинейной, когда она не удовлетворяет свойству линей¬ ности. Представляют интерес следующие частные случаи функций. 1. Функция 1^1 У = К х, где К — вещественное число, с очевидностью является линейной.
16 Глава 1. Основные понятия и математические модели 2. Матричная операция Кп Rm У = Ах, где х е Кп, у 6 Rm, также является линейной. 3. Квадратичная функция Rn R 2 = хт Q х, где х е Rn, 2 е R, Q = QT, является нелинейной функцией многих переменных. 4. Евклидова норма вектора х, которая вектору из пространства Rn ставит в соот¬ ветствие неотрицательное число: Nq = (xTQx)1/2, где Q = QT > 0 (положительно определенная матрица), также является нелиней¬ ной функцией. В частном случае при Q = I, где I - единичная матрица, получаем единичную норму М = (Л)1/2 = \/xl + xl + ... +xl- Определение 1.5. Обратной функцией (рис. 1.3, а) называется правило (отобра¬ жение) Г1: У i-t X ИЛИ X = г1(у), которое удовлетворяет условию / о /_1 = 1, т. е. / (/_1(у)) = У- Рис. 1.3. Функция и обратная функция
1.1. Нелинейные функции и отображения 17 Замечание 1.2. Функция (а также обратная функция) может иметь не единствен¬ ные значения, т. е. быть неоднозначной. Так, функция у = Arcsin х имеет бесчисленное множество значений для любого х е [—1,1]; для функции у = sin х обратная функция х = Arcsin у имеет бесчис¬ ленное множество значений, а для функции у = х2 обратная функция х = ±у/у (при х ^0) имеет два значения (рис. 1.3, б). □ Определение 1.6. Функция / : X \-* У называется взаимно однозначной функ¬ цией, или биекцией, когда для любых х € X и у е У прямое / и обратное f~l отображения единственны (однозначны), т. е. каждому значению х е X соответ¬ ствует единственное значение у е У, и наоборот. Замечание 1.3. Необходимым условием взаимной однозначности является является равенство размерностей соответствующих пространств: т = п. □ Замечание 1.4. Вопросы существования и единственности функции и обратной функции зависят от области значений. Так, вещественная функция у = х2 опре¬ делена и является взаимно однозначной только при х > 0, а функция у = arcsin х («главное значение») определена и взаимно однозначна для х е [-1,1]. □ Введем классификацию функций, связанную со свойствами непрерывности и гладкости. Сначала рассмотрим скалярные функции многих переменных у = f(x 1,ж2,... ,хп), определенные на множестве X с Rn. Определение 1.7. Скалярная функция у = f(x) называется: функцией класса С°, если при х £ X она непрерывна; функцией класса С1, или (простейшей) гладкой функцией, если при х е X она непрерывна и дифференцируема по всем переменным х* (имеет первые частные производные df/dxi); функцией класса Ск, если при х е X она непрерывна и к раз дифференцируема (имеет к частных производных); функцией класса С°°, или (бесконечно) гладкой функцией, если при х е X она имеет частные производные сколь угодно высокого порядка. Запись /(*) е с\ где к принимает значения от 0 до оо, означает принадлежность функции f(x) од¬ ному из рассмотренных классов гладкости. Функции f(x), допускающие разрывы (только) первого рода, образуют более широкий класс С кусочно-непрерывных функций: f(x) £ С. Градиентом гладкой функции f(x\,Х2,...хп) называется вектор-строка частных производных df df df df
18 Глава 1. Основные понятия и математические модели либо столбцовая вектор-функция т Градиент служит представителем математических объектов, называемых ковекто- рамих и являющихся элементами сопряженного пространства R”. Рассмотрим векторные функции многих переменных у = f(x) = {fj(x)} (отобра¬ жения / : X у-*У С Мт). Определение 1.8. Векторная функция у = /(х) называется функцией класса С0, С1, Ск или С°°, если на множестве X все скалярные функции fj принадлежат классам С°, С1, Ск или С°° соответственно. Функция является «достаточно» гладкой, если она удовлетворяет условию Лип¬ шица. Определение 1.9. Векторная функция у = f(x) называется (локально) липшице- вой в точке х е X, если найдутся числа 5 > 0 и L = L(S) (постоянная Липшица) такие, что для любых х*: \х — х*\ <6 выполняется Векторная функция у = f(x) называется глобально липшицевой на множестве X, если для любых х, х* е X найдется не зависящая от х, х* постоянная Липшица L. Отметим, что условие локальной липшицевости в точках области X предусматри¬ вает по меньшей мере равномерную непрерывность функции f(x) и всегда выпол¬ няется для функций класса С2, имеющих во всех точках X непрерывные частные производные dfjfdxi [31]. Глобальное условие требует еще и ограниченности про¬ изводных dfj/dxi на множестве X или (при X = Rn) во всем пространстве Rn. Матрицей Якоби гладкой вектор-функции f(x) = (/i(x), /2(2),..., fm(x)) назы¬ вается функциональная матрица частных производных размера т х п: Пусть т < п. *В дифференциальной геометрии вектор и ковектор относятся к простейшим тензорам, определения которых даются с помощью правила их преобразования при изменении системы координат [7, 28]. !/(*)-/(**)! < Цх — х*|. (1.1) dfi/dxi dfi/dx2 ... dfi/dxn df _ 9f2/dxi df2/dx2 ... df2/dxn dx '• • : dfm/dx 1 dfm/dx2 ... dfmjdxn
1.1. Нелинейные функции и отображения 19 Определение 1.10. Векторная функция у = f(x) в точке х = х* е X называется отображением ранга р <т (обозначается rank f{x*) = р), если rank df дх = V, X* и регулярным (невырожденным) отображением, если rank f(x*) = га. Если m = гг, то определитель матрицы Якоби называется якобианом, и отображе¬ ние / не вырождено в точке х = х*, когда det df дх Ф 0. Пусть т — п. Определение 1.11. Векторная функция у = f(x) (отображение / : X У) назы¬ вается диффеоморфизмом, если: 1) функция / гладкая: / € С°°; 2) отображение взаимно однозначно (биективно); 3) обратная функция х = f~1{y) (отображение /-1 : У X) существует и глад¬ кая: /_1 € С°°. Важным свойством диффеоморфизма является сохранение гладкости кривых при отображениях / и /-1 (см. рис. 1.3, а, кривые S е X и Z € 30- Различают локальный и глобальный диффеоморфизмы. Понятие глобального диф¬ феоморфизма подразумевает, что функция / определена на всем пространстве Rn (/ : Rn 30 и указанные свойства отображения имеют место для любых значений х е Rn, т. е. глобально. Для локального диффеоморфизма указанные свойства отображения / имеют место в некоторой окрестности точки х* е X, т. е. локально. Рассмотрим следующие примеры. 1. Функция у = 1/х при х € (—оо,оо) не является гладкой (претерпевает разрыв в точке х = 0). Тем не менее в области х е (0,оо) отображение — гладкое, взаимно однозначное и имеет гладкое обратное отображение. 2. Функция у = х2 при х е (—оо, оо) является гладкой, однако не взаимно одно¬ значна (рис. 1.3, б). Тем не менее в области х 6 (0, оо) отображение — гладкое, взаимно однозначное, и обратное отображение х = у/у также является гладким. 3. Функция у = х3 при х € (—оо,оо) является гладкой и взаимно однозначной. Обратное отображение х = ^/у является непрерывной функцией. Однако произ¬ водная от обратной функции х' = 1/(3у2/3) претерпевает разрыв в точке у = 0, и следовательно, обратная функция не является гладкой.
20 Глава 1. Основные понятия и математические модели 4. Функция у = sin гс при х £ (—оо, оо) является гладкой, но не взаимно однознач¬ ной. Тем не менее в области (—7г/2,7г/2) отображение является гладким, взаимно однозначным и имеет гладкое обратное отображение х — arcsin у. Основная сложность установления свойства диффеоморфизма произвольной функ¬ ции связана с нахождением обратного отображения. Для случая локального диф¬ феоморфизма эта проблема разрешается с помощью следующей теоремы. Теорема об обратной функции. Гладкое отображение локальным диффеоморфизмом в окрестности точки х* £ когда rank f(x*) = п, т. е. det дI дх ± 0. f(x) : X У является X тогда и только тогда, Рассмотрим следующие примеры. 1. Для функции у = х3 в точке х* = 0 найдем £/ дх о 0. Это сразу же показывает, что функция не является диффеоморфизмом в любой области, содержащей точку 0. 2. Для функции у = х + х3 в точке х* = 0 найдем д£ дх о 1 + Зх2 о = 1, поэтому функция является локальным диффеоморфизмом. Нетрудно показать, что в данном случае свойства гладкости прямой и обратной функции, а также взаимной однозначности отображения сохраняются на всем множестве R, т. е. рассматрива¬ емая функция является глобальным диффеоморфизмом. 3. Для функции у = since при х £ (—7г/2,тг/2) найдем df — = cos ж > 0, дх т. е. в окрестности любой точки указанной области функция является локальным диффеоморфизмом. Введем классификацию функций времени /(£), связанную с существованием тех или иных функциональных норм ||/(£)||р (см. 1.1.1). Определение 1.11а. Функция у = f{t) (t £ [0,со)) называется функцией класса £Р (1 < Р < оо), когда существует неотрицательное число 1Р такое, что II/WIIp < Ip-
1.1. Нелинейные функции и отображения 21 Функции f(t) е £ь для которых норма JpOO ' \m\dt о ограничена, называются интегрально ограниченными, а функции f(t) € £оо. Для которых \\т\\оо = supi/(oi < i°c, — просто ограниченными функциями. Непрерывная функция f(t) € С° (t € [0, оо)), имеющая ограниченную производ¬ ную /(£) е Соо, называется равномерно непрерывной. Интегрально ограниченные равномерно непрерывные функции обладают следующим свойством. Лемма Барбалата. Если функция /(£) (t € [0, оо)) удовлетворяет условиям f(t) € С°, f(t) G Coo, f(t) € Ci, то lim f(t) = 0. С—►ОО 1.1.3. Векторные поля и распределения Важным представителем гладких отображений является векторное поле (рис. 1.4, а). Определение 1.12. Гладкое отображение f(x) : X Мп, которое каждой точке х е X С Rn ставит в соответствие вектор / = {/*} е Rn, называется гладким векторным полем. Примером векторного поля может служить поле скоростей множества кривых (линий потока, фазовых траекторий), заданных в пространстве Шп (см. 2.1.1 и рис. 2.1, в). Рис. 1.4. Векторное поле (а) и распределение (б)
22 Глава 1. Основные понятия и математические модели Пусть <р(х) — гладкая функция* и f{x) — гладкое векторное поле на множестве С Скалярная функция, определенная как СМх) = ^ f{x), называется производной Ли от скалярной функции <р вдоль векторного поля /. Пусть f(x) и д(х) — гладкие векторные поля на множестве X. Векторное поле, определенное как Cf9(*) = - §£«(*), называется производной Ли от вектора g вдоль векторного поля /, или скобкой Ли: [f(x),g(x)] = Cfg(x). Вводится также понятие производной нулевого порядка C°fg(x) = g{x), а также сложные производные Ли CgCf = £,(£/), С) = С,{С)-1), * = 2,3,... . Пусть Д(х), /2(х),..., Д(х) — гладкие векторные поля на множестве Afcl”. Определение 1.13. Отображение Л(х) : X i—>• Мп, которое каждой точке х е X ставит в соответствие подпространство (гиперплоскость) Л(х) = span{/i(x),/2(x),..., Д} еШп, называется гладким распределением на множестве X. Таким образом, распределение Л{х) в каждой точке х определяет гиперплоскость, натянутую на векторы Д(х),/2(х),..., Д(х) (рис. 1.4, б). В частном случае при к = 1 распределение вырождается в векторное поле. Гладкое распределение на X называется невырожденным {регулярным) распре¬ делением, если для любых х € X с подпространство Т{х) имеет постоянную размерность: dim Л{х) = и = const (к < и < 0). Регулярное распределение Л{х) на множестве X называется инволютивным, если для любых х € X и произвольных векторов Д(х),/2(х) е Л(х) выполняется [fl{x),f2(x)] еТ{х).
1.1. Нелинейные функции и отображения 23 1.1.4. Гиперповерхности, поверхности и кривые Введем в рассмотрение (п — и)-мерную гладкую в области X вектор-функцию <р = — {^г}. г = 1,2,..., п — и, и < п. Нелинейное уравнение Ф) = 0. (1.2) определяет (в неявной форме) многомерный геометрический объект (рис. 1.5) S* = {хеХ: ф)=0}. Если вектор-функция <р удовлетворяет условию регулярности: rank <р (х) = п — и, (1.3) то уравнения системы (1.2) независимы, и множество S* относится к классу глад¬ ких гиперповерхностей (многообразий) размерности и. В частном случае при v = п — 1, т. е. когда множество S* описывается скаляр¬ ным уравнением (1.2), соответствующий геометрический объект называется просто поверхностью. При наличии большего числа линейно независимых уравнений и и < п — 1 множество является пересечением нескольких поверхностей. При и = 1, когда «S* описывается системой п — 1 уравнения (1.2) и, следовательно, является пересечением п — 1 поверхности, рассматриваемое множество является кривой (см. рис. 1.6, б). Наконец, при наличии п уравнений и и = 0 множество S* вырождается в точку (множество размерности 0). Примерами гиперповерхностей служат следующие геометрические объекты:
24 Глава 1. Основные понятия и математические модели 1. Кривые на плоскости: парабола xl+X2 = О и окружность х\ + х2 ~~ Ё2 = 0. 2. Поверхности в трехмерном пространстве: плоскость а0 + а\Х\ + а,2Х2 + а2хз = 0, сфера х i + х\ + х\ — R2 = 0 и круговой цилиндр Xl+X2~R2 = О, Xz € К. 3. Эллипс в трехмерном пространстве и другие типы пространственных кривых (конических сечений), задаваемых уравнениями х\ + х\ — R2 = 0, ао + aiX\ + 02X2 + а3х3 = 0. В окрестности произвольной точки х* е S* можно ввести систему локальных координат гиперповерхности {s*} (г = 1,2,..., и) и вектор локальных координат s = {si} € cS, заданный в некоторой области 5 С 1" (см. рис. 1.5). Локальные координаты определяются с помощью выражения где ф = {ф{} (г = 1,2,..., и) - гладкая вектор-функция. Область S с IR1' вместе с координатной системой называется картой гиперповерхности (многообразия) S*. В окрестности произвольной точки х* гладкая гиперповерхность S* может быть описана также в параметрической форме (т. е. как подмногообразие) s = Ф(х) (1.4) X = rs(s) (1.5) где для всех s е S имеет место rank rs(s) = v и (р о г = 0, т. е. (1.6) Отметим, что в общем случае для полного описания поверхности нужно задать несколько координатных систем и несколько карт (атлас), каждая из которых
1.1. Нелинейные функции и отображения 25 Рис. 1.6. Градиент и касательный вектор соответствует определенному куску множества S*. Так, для описания окружности и сферы требуется как минимум две карты (см. [7, 28]). Векторы drs/dsi для любых точек х е S* касательны к поверхности S*, а вектор- строки dcpi/dx (ковекторы, или градиенты, см. 1.1.2) для х € S* ортогональны к S* (рис. 1.6). Пример 1.1. Рассмотрим окружность радиуса R (см. также пример 5.2): х\ + ~ -R2 = О- (1.7) Для проверки свойства регулярности найдем градиент dip др dxi 8x2 2|ж1 х2\ . Последнее выражение в каждой точке (xi,x2) е $* определяет нормаль к окружно¬ сти и (в этих точках) не обращается в нуль. Следовательно, окружность является регулярной кривой (гладкой гиперповерхностью размерности 1). В окрестности точки (R, 0) можно ввести локальную координату s — R Arctg— Xi (1.8) Координата s е (—irR, itR) определяет путь («длину» дуги) во всех точках S* кроме (—R,0). Переменная s используется также как окружности = R cos —, н «параметр» параметрического описания х2 = R sin . Xi (1.9)
26 Глава 1. Основные понятия и математические модели Касательные векторы находятся как drsi/ds — sin (s/R) drs2/ds cos(s/R) □ Простейшими многомерными геометрическими объектами рассмотренного типа яв¬ ляются центральные гиперплоскости, которые могут быть заданы в виде S* : Ф0х = 0, (1.11) где Ф0 = {ФоЛ — п х (п — ^-матрица полного ранга со строками Ф^. Последние являются градиентами функции Ф0я = 0 и, следовательно, ортогональны плоско¬ сти. В частном случае при и = п-1 рассматриваемый объект является плоскостью, а при v = 1 — прямой, проходящей через точку 0. Параметрическая форма гиперплоскости имеет вид х = R3s, (1.12) где s е Ш", Rs = {Rsi} — п х ^-матрица полного ранга со столбцами Rsi, удовле¬ творяющая уравнению Фо Rs = 0. Последнее выражение показывает, что столбцовые векторы Rsi ортогональны гра¬ диентам Ф0г и, следовательно, принадлежат рассматриваемой плоскости. Тогда плоскость может быть определена как ^-мерное подпространство, натянутое на векторы Rsi: = span{Rsi}. 1.2. Модели нелинейных систем Динамическая система называется нелинейной, если ее математическая модель содержит нелинейные операторы (отображения, функции). Линейная система, яв¬ ляясь частным случаем нелинейных систем, описывается с помощью операторов, обладающих свойством линейности (см. определение 1.4), и может быть представ¬ лена в виде совокупности простейших линейных блоков, называемых звеньями [4, 24]. Естественно, что модель нелинейной системы содержит как типовые ли¬ нейные звенья, так и специальные блоки, описываемые с помощью нелинейных функций или операторов. 1.2.1. Нелинейные звенья В зависимости от свойств математической модели различают статические и дина¬ мические, а также гладкие и негладкие блоки нелинейной системы.
1.2. Модели нелинейных систем 27 Рис. 1.7. Канонические нелинейные блоки (статические) Статические звенья описываются алгебраическим или трансцендентным уравне¬ нием Х1 = fix2), (1-13) где / — нелинейная функция. Для гладких блоков функция / достаточно гладкая: / е (С1, С2...) (рис. 1.7, а), в то время как негладкие блоки описываются либо с помощью разрывной, либо — непрерывной, но не гладкой функции, т. е. / € (С, С°). Канонические (приведенные) негладкие блоки описываются уравнением вида Х1 = f°{x 2)- (1-14) В зависимости от /° различают: • звено с насыщением (ограничением) xi = sat х2 (рис. 1.7, б); • релейное звено х\ - sign хч (рис. 1.7, в)\ • звено с зоной нечувствительности (рис. 1.7, г); • звено с насыщением и зоной нечувствительности (рис. 1.7, д); • релейное звено с зоной нечувствительности xi = dez х2 (рис. 1.7, е). Для канонических звеньев предполагается, что линейный участок характеристики имеет единичный наклон, а уровни насыщения, границы линейной области или
28 Глава 1. Основные понятия и математические модели хи А -6 6 х2 -А Рис. 1.8. Статические блоки — общий случай зоны нечувствительности равны +1 и -1. В общем случае негладкие звенья могут быть описаны выражением *1 = А f°(j), (1.15) где А — параметр, характеризующий уровень насыщения, a S — параметр, ха¬ рактеризующий величину зоны нечувствительности или линейной зоны (рис. 1.8). Определение 1.14. Статический нелинейный блок называется положительным, если для любых входных сигналов х2 произведение вход-выход положительно, т. е. Х\ х2 > 0. Очевидно, что последнему условию удовлетворяют блоки, характеристика кото¬ рых расположена в I и III квадрантах. К положительным относятся все блоки, представленные на рис. 1.7, а блок х2 = sin х\ с очевидностью не удовлетворяет указанному условию. Динамические звенья описываются дифференциальными уравнениями первого или второго порядка a(ari,xi,aji) = Ь( х2,х2), (1.16) где а(-), Ь(-) — нелинейные функции. В некоторых широко распространенных част¬ ных случаях уравнение (1.16) приводится к виду xi = c(rr2,sign х2), (1.17) где с(-) — нелинейная функция. С помощью такого уравнения часто описываются гладкие динамические блоки (рис. 1.9, а) и негладкие звенья типа • люфт (рис. 1.9, б); • гистерезис (рис. 1.9, в - 1.9, г): xi = hys(ar2,sign х2),
1.2. Модели нелинейных систем 29 Рис. 1.9. Динамические нелинейные блоки в которых выбор той или иной ветви характеристики определяется направлением изменения входной переменной Х2, т. е. знаком функции Х2-1 Определение 1.15. Динамический нелинейный блок называется положительным, если для любых входных сигналов X2{t) и t > 0 показатель В. М. Попова rj(t) = 2 [ xi(г) х2{т) dr Jo удовлетворяет следующему условию (неравенству В. М. Попова): Ф) > ~Vo, (1.18) где V0 > 0. Очевидно, что неравенству В. М. Попова удовлетворяют статические положитель¬ ные блоки, для которых подынтегральное выражение положительно и, следова¬ тельно, интеграл всегда больше нуля. Положительным блоком является также апериодическое звено и интегратор. Пример 1.2. Рассмотрим блок (интегрирующее звено) Х\ = К Х2- Строго говоря, поведение нелинейных блоков с неоднозначными петлевыми характеристиками как правило зависит от предыстории сигнала xi(t), что также следует учитывать при построении их моде¬ лей.
30 Глава 1. Основные понятия и математические модели Находим: 2 J хг(т)х2(т)(1т = ~ J Xi(T)xi(r)dT ^ = 1 Г к L х\ dx 1 = —ref xi(0 1 .n. > —^Si(O)- xi(0) Таким образом, звено удовлетворяет неравенству (1.18), где Vo = *io/К > о, и, следовательно, относится к положительным блокам. Примером более сложного положительного блока является нестационарная систе¬ ма вида Х\ = r(t) в, в = r(t) Х2, где r(t) — произвольная функция времени. □ 1.2.2. Соединение нелинейных звеньев Сначала рассмотрим различные варианты соединения статических нелинейных звеньев. Рис. 1.10. Соединения нелинейных блоков Последовательное соединение (рис. 1.10, а) описывается системой уравнений Б1 : xi = fi(x2), (1.19) Б2: х2 = f2(x3). (1-20) После подстановки (1.19) в (1.20) получим уравнение связи выходной переменной xi с входом х3: XI = fl(f2(x 3)) (1.21) х\ = /(а*), (1.22) где /(•) — сложная функция: f = h о f2 = /i(/2).
1.2. Модели нелинейных систем 31 В частном случае, когда /2 = Д \ получаем простейшую линейную зависимость xi = х3. Параллельное соединение (рис. 1.10, б) описывается системой уравнений XI = х2+ Х3, (1.23) Б1 : х2 = Д(х4), (1.24) Б2: х3 = /2(х4). (1.25) Связь выходной переменной х\ с входом х4 определяется как Х\ = fl(xt) + f2(x4). (1.26) В частном случае, когда Д = /2, получаем х\ = 2 Д(х4). Подключение в (отрицательную) обратную связь (рис. 1.10, в) описывается си¬ стемой уравнений Б1 : xi = Д(х2), (1.27) Б2 : х4 = f2(xi), (1.28) х2 = х3 х4. (1.29) После подстановок находим £1 = h(x3-f2(xi)^ (1.30) или Л 4*1) + Д(*l) - *3 (1.31) Из последнего выражения следует попытаться найти явное выражение вида (1.22). В частном случае, когда Д = кх2, получаем xi/k + f2(xi) = х3. (1.32) При к -+ оо последнее выражение принимает вид f2(xi) = х3 и, следовательно, *1 = /2 Ч*з), т. е. подключение нелинейного звена в отрицательную обратную связь к про¬ порциональному звену с достаточно большим коэффициентом усиления позволяет получить обратную функцию.
32 Глава 1. Основные понятия и математические модели Аналогичный результат (для некоторой ограниченной области изменения ж3) мо¬ жет быть получен при Д = sign х2. Нетрудно показать, что в другом частном случае, когда Д = кх2, a f2 = (1 /р)ж4, т. е. если в обратную связь подключается интегратор, уравнение связи входных и выходных переменных при к —► оо принимает вид 1 -XI Р хз или Х\ = Х3. Таким образом, такое подключение интегратора позволяет получить идеальное дифференцирующее звено. Теперь проанализируем свойства соединений положительных динамических бло¬ ков (см. определение 1.15). Рассмотрим параллельное соединение (рис. 1.10, б): x\ = Х2+Хз, (1.33) Б1 : x2 = JF1(^4), (1.34) Б2 : X3 = F2{x±), (1.35) — операторы, удовлетворяющие условию Попова, т. e. 771 (t) = 2 / x2 ж4 dr > Jo -Vi, r}2{t) = 2 / X3 ж4 dr > -V2, Jo (1.36) Vi,V2 — неотрицательные числа. Найдем показатель Попова для системы с входом ж4 и выходом Х\\ pt pt pt pt r](t) = 2 / x\ x± dr = 2 / (x2 + X3) x± dr = 2 x2 x± dr + 2 X3 x4 dr. Jo Jo Jo Jo Принимая во внимание (1.36), получаем неравенство Попова V(t) > -Vo, (1.37) где Vo = V\ + V2 > 0. Таким образом, параллельное соединение положительных блоков является положительным блоком. Рассмотрим подключение в обратную связь (рис. 1.10, в): Б1 Xl = F\{x2), (1.38) X4 = F2{x{), (1.39) X2 = X3- x4, (1.40) где J~i — операторы, удовлетворяющие условию Попова, т. е. Viifi) = 2 / xi х2 Jo dr > —Vi, r]2(t) — 2 / ж4 xi dr > —V2, Jo (1.41)
1.2. Модели нелинейных систем 33 и Vi,V2 — неотрицательные числа. Найдем показатель Попова для системы с входом хз и выходом xi: х\ Х2 dr + 2 / xi Х4 dr. Jo Принимая во внимание (1.41), получаем неравенство Попова (1.37), где VQ = Vi + +V2 > 0. Таким образом, подключение положительных блоков в отрицательную обратную связь также дает положительный блок. Примером рассмотренного соединения служит подключение пропорционального звена в отрицательную обратную связь к интегрирующему звену. При условии прложительности коэффициентов обоих звеньев получающееся при этом аперио¬ дическое звено с очевидностью является положительным. T](t) = 2 / Х\ Х3 dr = 2 f xi(x2 + Х4) dr = 2 / Jo Jo Jo 1.2.3. Основные динамические модели Соединение линейных и нелинейных звеньев, обычно характеризующих реальные физические процессы, позволяет получить полное описание (модель) рассматрива¬ емой динамической системы. Наиболее распространенные модели нелинейных си¬ стем представлены системой обыкновенных дифференциальных уравнений в форме Коши или соответствующим векторным уравнением. Автономная система с одним выходом может быть описана п уравнениями со¬ стояния х\ = fi{xi,x2,...xn), (1.42) Х2 - f2(xi,x2,...xn), (1.43) Хп = fn(x !,х2,...хп) (1.44) и скалярным уравнением выхода у = h(xi,x 2,...,хп), (1.45) где Xi — переменные состояния, у — выходная переменная, /*(•) и h(-) — функции, определенные на соответствующих множествах. Введем в рассмотрение п-мер- ный вектор состояния системы х = {х*}, определенный на множестве X с Rn, и n-мерную вектор-функцию / = {/*} : X —► Мп. Перепишем уравнения (1.42)— (1.45) в векторной форме: х = /(х), (1.46) У = Л(х). (1.47) В частном случае уравнения (1.46)—(1.47) принимают вид х = Ах, 2 Зяк. 281 У сх. (1.48) (1.49)
34 Глава 1. Основные понятия и математические'Модели где А, с — матрицы соответствующих размерностей. Здесь f(x) — Ах и h(x) = = сх — линейные отображения, и поэтому система (1.48)—(1.40) является линей¬ ной. Рис. 1.11. Нелинейная система (аффинная) Управляемая одноканальная система (объект управления с одним входом и од¬ ним выходом) может быть описана п уравнениями состояния Х\ = fi{xi,X2,...xn) + gi{xi,x2,...,xn)u, (1.50) Х2 - h{xi, х2,:.хп) + g2{xi, ж2,..., жп)м, (1.51) Хп = fn{xi,X2,...xn) + gn(xi,x2,-.;Xn)u (1.52) и уравнением выхода (1.45), где и — входное (управляющее) воздействие, #(•) — функции, определенные на множестве X. Отметим, что система является линейной по управлению и, или аффинной. Введем в рассмотрение n-мерную вектор-функцию g = {gi} : X —► Мп. Перепишем уравнения (1.50)—(1.52), (1.45) в векторной форме (рис. 1.11): х = f(x)+g(x)u, (1.53) У = Кх). (1.54) В большинстве практических случаев работа объекта управления происходит в условиях действия целого ряда возмущающих факторов (возмущений). Модель нелинейного объекта с аддитивным скалярным возмущением w(t) описывается уравнениями х = f{x) + g{x)u + d{x)w (1.55) и (1.54), где d = {di} — n-мерная вектор-функция. Система (1.55),(1.54) является аффинной как по отношению к управлению и, так и возмущению w. Частным случаем рассмотренной выше системы является возмущенный линейный объект управления вида х = Ах + bu + dw, У сх (1.56) (1-57)
1.2. Модели нелинейных систем 35 где Ъ, d — постоянные (не зависящие от х) столбцовые матрицы. Более общий класс нелинейных систем составляют системы, для которых уравне¬ ния состояния содержат нелинейные функции управления и, т. е. х = f(x) + g(x)fu(u), (1.58) где /п(-) — скалярная функция. Наконец, наиболее общее представление однока¬ нальной нелинейной системы дается уравнениями вида х = f(x,-u,w), (1.59) у = h(x,u,uj). (1.60) Определение 1.16. Нелинейная динамическая система называется гладкой си¬ стемой, если соответствующие функции f,g,h являются гладкими во всех точках множества X.
Глава 2. Переходные процессы и особенности нелинейной динамики Нахождение переходного процесса требует решения дифференциального уравне¬ ния — математической модели системы. Для линейных стационарных систем такие решения известны и легко могут быть получены в аналитической или графической форме (см., например, [1, 2, 8, 17, 24]). Общая процедура решения (интегриро¬ вания) нелинейных дифференциальных уравнений отсутствует. Это определяет необходимость изучения приближенных методов построения переходных процес¬ сов и привлечения численных методов интегрирования. С другой стороны, сама задача построения единичного переходного процесса и нахождения соответству¬ ющего частного решения нелинейного дифференциального уравнения обычно не имеет определяющего значения для анализа сложной системы и выбора алгорит¬ мов управления. Наибольший интерес представляют общие (групповые) свойства динамических моделей, общие закономерности и особенности их поведения, поз¬ воляющие выявить нежелательные режимы работы и выработать наилучшую стра¬ тегию управления. 2.1. Интегральные кривые и фазовые траектории 2.1.1. Основные понятия Рассмотрим автономную динамическую систему, описываемую уравнением х = /(*). (2.1) Будем полагать, что х е X с Кп, где X — открытое множество, и х0 = х(0) — вектор начальных состояний (начальных значений).
2.1. Интегральные кривые и фазовые траектории 37 Дифференциальное уравнение (2.1) каждой точке х € X ставит в соответствие вектор скорости системы х = f е Кп, а каждому начальному значению ж0 — функцию x(t), являющуюся частным решением уравнения. Определение 2.1. Векторным полем динамической системы (2.1) называется отображение / : X Rn, которое каждой точке х е X ставит в соответствие вектор f еШп (см. 1.1.3). Решением динамической системы (2.1) (дифференциального уравнения) с началь¬ ными значениями х = хо, или интегральной кривой, называется непрерывная функция x(t) = x(t,x о,), (2.2) определенная на некотором интервале времени [О,Т), где Г > 0, и удовлетворяю¬ щая условиям: 1) ж(0,жо) = ж0; 2) dt x(t,x о) f(x(t,x0)). Для линейной системы х = Ах решением является функция x(t) = eAtXQ. Действительно, еА0х0 = хо и ^eAtxo = AeAtx0 = Ax(t). Пример 2.1. Рассмотрим нелинейную систему (2.3) (2.4) х = -- , (2.5) х определенную в открытом множестве X = (0, сю). Нетрудно показать, что решени¬ ями уравнения (2.5) являются функции x(t) = signxo — 2t, (2.6) определенные на временном интервале [0, xq/2) (см. рис. 2.9, а). □ Пример 2.2. Рассмотрим систему х (2.7)
38 Глава 2. Переходные процессы и особенности нелинейной динамики определенную на множестве X = К1. Нетрудно показать, что решениями уравне¬ ния (2.7) являются функции x{t) хр 1 -I- Хр t' и они определены на временном интервале [0, -1/х0) при хр < 0 или на интервале t е [0,оо) при ж0 > 0 (см. рис. 2.9, б). □ Решение x(t, х0) характеризует переходный процесс системы и может быть пред¬ ставлено в аналитическом виде или графически — в виде функции времени (кривой переходного процесса х = x(t)) или фазовой траектории ф(х,х о) = О (2.8) в пространстве Rn (рис. 2.1). Фазовые траектории образуют фазовый портрет си¬ стемы. Рис. 2.1. Фазовые траектории и векторное поле Определение 2.2. Фазовой траекторией динамической системы (2.1) из точки ж0, или линией потока векторного поля /, называется кривая (2.8), описываемая в пространстве Кп вектором х = x(t,x0), т. е. годограф х при изменении t е [О, Г). Фазовым портретом динамической системы (2.1), или потоком векторного по¬ ля /, называется множество фазовых траекторий, соответствующих различным значениям хр е X. При условии, что функция f(x) является гладкой во всех точках множества X, система (2.1) относится к гладким системам (см. определение 1.16). Ее решения (кривые переходного процесса) и фазовые траектории в области X также оказы¬ ваются гладкими. Определение 2.3. Стационарным решением (стационарной точкой) динамиче¬ ской системы (дифференциального уравнения (2.1)) называется точка х = х* е X, для которой при всех t > 0 выполняется x(t, х*) = х*.
2.1. Интегральные кривые и фазовые траектории 39 Как следует из определения, необходимым и достаточным признаком стационар¬ ности точки х* служит отсутствие движения системы, т. е. x(t,x*) = 0. Следовательно, критерием стационарности является условие /(**) = 0. (2.9) Отметим также, что в общем случае динамическая система может иметь неедин¬ ственное стационарное решение. Так, для линейной системы (2.3) при условии det Аф 0 из равенства Ах — 0 находим единственную стационарную точку х = 0. Если же det А = 0, т. е. матрица вырождена, равенству Ах = 0 соответствует множество стационарных точек (центральная гиперплоскость). Пример 2.3. Рассмотрим линейную систему х = ах. Из условия ах* = 0 находим, что при а ф 0 стационарной будет точка х = 0, а при а = 0 любая точка х является стационарной. □ Пример 2.4. Рассмотрим нелинейную систему х = —sin х. (2.10) Из условия sin х* = 0 находим множество изолированных стационарных точек х* — кж, где к — произвольное целое число (рис. 2.2). □ Замечание 2.1. Понятие стационарной точки дифференциального уравнения в точ¬ ности соответствует определению положения равновесия динамической системы (см. 3.1.1). □ 0 2 4 6 8 t, с Рис. 2.2. Переходные процессы системы (2.10)
40 Глава 2. Переходные процессы и особенности нелинейной динамики 2.1.2. Построение фазовых траекторий: метод припасовывания и метод изоклин Теоретически для построения фазовых траекторий нужно: 1) найти решения (2.2) системы (2.1) в виде п функций xi(t) = х^,х0), x2(t) = x2(t,:r0), xn(t) = Xn(t)X о), 2) исключить время t и получить п — 1 уравнение ф\{х,х о) = 0, ф2(х,х о) = о, (2.11) 0П_ 1(х,ж0) = 0, которые и составляют описание фазовой траектории (2.8). Пример 2.5. Простейшая система ±1 = х2, х2 = U, (2.12) при и = const имеет решение: x2(t) = х2о + ut, x\(t) = х\о + x2$t + —t2. I Из первого выражения при иф 0 находим t = х2 ~ Х20 и и, подставляя во второе, получаем искомое уравнение фазовой траектории х\ = хю +—(х2 - х20) + ~(х2 - х20)2. (2.13) и 2.U На рис. 2.3 представлены фазовые траектории системы (2.12) для значений и = = +1,-1. □ Метод припасовывания. В общем случае как задача 1 нахождения в аналитиче¬ ской форме решений Xi(t) = Xi(t, ж0,), так и задача 2 исключения времени пред¬ ставляют значительные трудности. Ситуация несколько упрощается для линейных
2.1. Интегральные кривые и фазовые траектории 41 Рис. 2.3 Фазовые траектории системы (2.12) систем, решения которых всегда известны, и ряда нелинейных систем с кусочно¬ постоянными параметрами, к которым относятся многие системы с негладкими нелинейными звеньями (см. 1.2.2). Для таких систем при построении фазовых тра¬ екторий может быть использован метод припасовывания [4, 37], который преду¬ сматривает замену первоначальной нелинейной системы более простой моделью с переменной структурой — линейной моделью с переключающимися параметрами. В соотвествии с указанным методом процедура построения фазовых траекторий включает следующие этапы: а) представление нелинейной системы в виде набора линейных моделей, соотвест- вующих линейным участкам нелинейных звеньев; б) разбиение пространства (плоскости) на области, в которых система описывается линейными уравнениями; в) последовательное получение участков фазовых траекторий указанного набора линейных систем и их объединение в единую траекторию нелинейной системы («припасовывание»). Метод иллюстрируется следующим примером. Пример 2.6. Рассмотрим релейную систему, представленную линейной моделью (2.12) с обратной связью (регулятором): и = sign v, (2.14) v = —a\Xi—(i2X2- (2.15) Так как функция sign принимает два постоянных значения 1 и -1, то на интер¬ валах знакопостоянства система линейна (см. пример 2.5). Фазовые траектории такой линейной модели получены в форме (2.13) и представлены на рис. 2.3. Для рассматриваемой релейной системы значение и и, следовательно, выбор того или
42 Глава 2. Переходные процессы и особенности нелинейной динамики иного участка фазовой траектории определяется знаком сигнала v(t). Выделим полуплоскости (области знакопостоянства) R+ : v = — а\Х\ — <12X2 > О, R~ : v = —a\Xi — 0,2X2 < О и запишем: и— 1 при х £ Д+, и — —1 при х £ R . (2.16) Таким образом, знак и, а следовательно, и тип участка фазовой траектории, за¬ висят от области фазовой плоскости Ж2, которой принадлежит текущее состояние системы. Изменение знака (и типа траектории) происходит при условии v = 0, т. е. на прямой S : а\Х\ 4- 02X2 = О, которая называется линией переключения (см. п. 6.1-6.2). Фазовую траекторию системы из любой начальной точки х0 можно построить как непрерывную кривую, состоящую из отрезков типовых фазовых траекторий, полученных в примере 2.5 (см. рис. 2.3). Траектории приведены на рис. 2.4, а. □ Рис. 2.4. Фазовые траектории релейных систем Пример 2.7. Рассмотрим релейную систему с гистерезисом, представленную ли¬ нейной моделью (2.12) с обратной связью и = hys ^ , (2.17) где функция v определяется выражением (2.15). Функция hys принимает два по¬ стоянных значения 1 и -1 (см. 1.2.2 и рис. 1.9, г), и следовательно, фазовые тра¬ ектории рассматриваемой релейной системы могут быть составлены из участков траекторий линейной модели (2.12) (см. рис. 2.3). Выбор того или иного участка
43 2.1. Интегральные кривые и фазовые траектории определяется знаком сигнала v(t) и, следовательно, областью, которой принадле¬ жит текущее состояние системы. Для нахождения линий переключения и областей знакопостоянства запишем урав¬ нение нелинейного динамического блока hys в виде: и = sign (v — 8) при v > 0, (2.18) и — sign (v + S) при v < 0. (2.19) Найдем две линии переключения (рис. 2.4, б) S\ : —a\Xi — <12X2 — <5 = 0, при v > 0, S2 : —aiXi — <12X2 + 6 = 0, при v < 0, каждая из которых делит плоскость R2 на две полуплоскости (области знакопо- стоянства управления). Для прямой Si — это области R+: и = 1, R~ : и = —1, а для прямой S2 — области Д+: и = 1, Д2 : и = —1. Фазовая траектория системы из любой начальной точки хо строится как непре¬ рывная кривая, состоящая из отрезков типовых фазовых траекторий (см. рис. 2.3), «переключающихся» на линиях Si и S2. Выбор той или иной линии переключения определяется знаком сигнала V = — CliXi — CL2X2 = —CL1X2 — CL2U- Фазовый портрет релейной системы с гистерезисом приведен на рис. 2.4, б. □ Свойства траекторий (частный случай). Ввиду сложности построения фазовых траекторий нелинейных систем полезно установить их общие свойства. Рассмотрим систему второго порядка х\ = х2, Х2 - f2(xi,X2). (2.20) (2.21) Для систем данного вида иногда удается упростить процедуру построения фазовой траектории. Для упрощения представим уравнения (2.20)—(2.21) в виде dx 1 dt = ^2, dx2 dt = f2(xi,X2) и найдем, что при Х2 ф 0 dx 2 f2(xi,X2) dx 1 X2 (2.22)
44 Глава 2. Переходные процессы и особенности нелинейной динамики Решение полученного уравнения £2 = Ф2{р^\ 1 2-105 £20 ) в явном виде описывает искомую фазовую траекторию. Принимая во внимание, что для системы (2.20)—(2.21) хг = Х2, можно заключить, что в верхней полуплоскости плоскости R2, где х2 > О, переменная х\ возрастает, а в нижней полуплоскости — убывает, т. е. фазовые траектории данной системы направлены по часовой стрелке (рис. 2.5, а). Рис. 2.5. Свойства фазовых траекторий При х2 — 0 и /2 ф 0 из уравнений (2.20)—(2.21) получаем р- = ,,Х2 ,=0. (2.23) ах2 /2 (£1,2:2) Следовательно, угол наклона фазовых траекторий на оси х\ равен 7г/2 (см. рис. 2.5, б). Стационарные точки х* системы (2.20)—(2.21) определяются из уравнений £2 = 0, /2(£i,0) = 0, (2.24) т. е. всегда расположены на оси х\. При этом в зависимости от функции f2 система может иметь единственную стационарную точку, множество изолированных точек, а также кривую или отрезок кривой, соответствующие стационарным решениям (см. 2.2.4 и пример 2.27). Векторное поле системы и метод изоклин. В произвольной точке х € X вектор скорости х — f{x) системы (2.1) направлен по касательной к фазовой траектории, т. е. векторное поле динамической системы является касательным к своему потоку. Это важное свойство позволяет осуществить приближенное построение фазовых траекторий для систем 2-го и 3-го порядка по следующей схеме: а) в каждой точке х пространства состояний найти значения вектора f{x)\ б) провести фазовую траекторию из начальной точки х0 как кривую, для которой векторы f(x) во всех точках пространства направлены по касательным (рис. 2.6).
2.1. Интегральные кривые и фазовые траектории 45 Рис. 2.6. Векторное поле (а) и изоклины (б) Пример 2.8. Рассмотрим систему х1 = Х2, Х2 = —sin(a1x1 + (12X2), (2.25) где аь а2 — положительные коэффициенты. В произвольной точке (жь^г) пло¬ скости R2 вектор / имеет значение / = Х2 - sin(aixi + а2х2) Векторное поле и фазовые траектории системы представлены на рис. 2.6, а (см. также пример 2.26 и рис. 2.12, б). □ Указанная процедура аналогична известному методу изоклин [4, 37]. Рассмотрим систему второго порядка (2.20)-(2.21), для которой при Х2 ф 0 фазовые траектории удовлетворяют дифференциальному уравнению (2.22), а при Х2 — 0 — уравнению (2.24). Напомним, что йХ2 dx 1 = tg а, где а — угол наклона касательной к фазовой траектории, или наклона векторного поля системы. Следовательно, на некоторой кривой, описываемой уравнением МХ1±?31 = с, (2.26) Х2 где С = tg а — const, касательные к фазовым траекториям имеют одинаковый наклон а (при х2 = 0 фазовые траектории имеют наклон 7г/2). Определение 2.4. Кривые (2.26) равного наклона касательных к фазовым траек¬ ториям (или равного наклона векторного поля) системы называются изоклинами.
46 Глава 2. Переходные процессы и особенности нелинейной динамит В соответствии с методом изоклин построение фазовых траекторий для систем 2-го порядка осуществляется по следующей схеме: 1) на плоскости К2 проводятся изоклины для различных значений параметра С\ 2) на каждой изоклине строятся отрезки прямых с соответствующим наклоном а — Arctg С\ 3) фазовая траектория из начальной точки х0 проводится так, чтобы на изоклинах указанные отрезки были ее касательными. Пример 2.9. Рассмотрим систему Xi = Х2, Х2 = —а\Х\ — CL2X2- (2.27) Уравнение изоклины с наклоном касательных а = Arctg С ф к/2 имеет вид aiXi + (С + а2) Х2 = О, а уравнение изоклины для а = 7г/2 — х2 = 0. Изоклины, касательные и фазовые траектории системы представлены на рис. 2.6, б. □ 2.1.3. Инвариантные множества и аттракторы Инвариантные множества. В соответствии с определением в стационарных точ¬ ках (или множествах) система неподвижна (£ = 0) и, следовательно, ее фазовая траектория, начинающаяся из стационарной точки х*, целиком принадлежит х*, что является признаком инвариантности (т. е. неизменности). Более общий слу¬ чай инвариантного множества определяется следующим образом. Определение 2.5. Множество X* с X называется инвариантным множеством системы (2.1), когда для любых начальных значений xq £ X* и всех t > 0 выпол¬ няется x(t,xо) £ X*. Как следует из определения, все траектории, начинающиеся в инвариантном мно¬ жестве, целиком принадлежат этому множеству. Тривиальным частным случаем инвариантного множества являются стационарные точки, а также образуемые ими множества. Больший интерес представляет рассмотрение открытых инвариантных множеств X* (областей объемлющего пространства Шп) и инвариантных поверх¬ ностей S* (см. 2.1.4) — геометрических объектов размерности меньше п. При этом
47 2.1. Интегральные кривые и фазовые траектории пространство Шп может рассматриваться как тривиальный частный случай откры¬ того множества, а точка х* — как частный случай поверхности размерности 0. К открытым инвариантным множествам относятся области притяжения (см. ниже и 3.1.1). Рис. 2.7. Инвариантная поверхность и собственные подпространства Важным частным случаем инвариантного множества является инвариантная ги¬ перповерхность (подмногообразие, см. 1.1.4). Рассмотрим регулярную ^-мерную гиперповерхность S* С X (рис. 2.7, а), описываемую векторным уравнением р{х) = 0, (2.28) где р(х) = {^(ж)} (г = 1,гг — и) — гладкая вектор-функция. Для инвариантной поверхности при условии £0 £ S* для всех t > 0 имеет место x(t,x*) £ S*. Так как по определению выражение (2.28) выполняется тождественно для всех t, то можно записать ... dip. ф) = ^ = 0. Отсюда после подстановки (2.1) получаем необходимое и достаточное условие инвариантности гладкой гиперповерхности S*: д<р dx f{*) x€<S* 0. (2.29) Напомним, что выражение dipifdx описывает градиент функции <pit т. е. вектор, направленный ортогонально по отношению к поверхности <р%{х) — 0 (см. рис. 2.7, а), и следовательно, выражение (2.29) показывает, что на инвариантной ги¬ перповерхности S* векторное поле / ортогонально градиентам или касательно к самой поверхности. Рассмотрим линейную систему (2.3) и ^-мерную плоскость (линейное подпростран¬ ство), заданную в неявном виде (1.11) или в параметрической форме (1.12). Условие инвариантности (2.29) принимает вид Ф0Да;|хе5* = 0, или, в силу (1.12), — Фо ARS = 0.
48 Глава 2. Переходные процессы и особенности нелинейной динамики К инвариантным гиперповерхностям линейных систем относятся собственные под¬ пространства (центральные гиперплоскости) и, в частности, одномерные собствен¬ ные подпространства (прямые). Пусть Л* ф 0 — вещественное собственное число матрицы А, и по определению det(A*/-A) = 0. Рассмотрим геометрический объект пространства Rn (А *1-А)х = 0. (2.30) Так как матрица А*1 - А вырождена, выражение (2.30) содержит только n- 1 ли¬ нейно независимое уравнение. Последние и определяют неявную форму искомого собственного подпространства (прямой). Пример 2.10. Рассмотрим линейную систему второго порядка (2.27) с ненулевыми коэффициентами ai, а2. Здесь А = вид 0 -«1 1 -а2 А* -1 Xi ai А* -Г а2 %2 , и выражение (2.30) принимает = 0. После элементарных преобразований получим \*х\ — Х2 — 0, (А*2 4- а2А* + а\) х\ — 0. Так как А* — собственное число системы, второе выражение является тожде¬ ством, а первое выражение дает искомое неявное уравнение прямой (одномерного собственного подпространства): Rs : I А* -1 х\ %2 0. Для случая неравных вещественных чисел Х\ ф А^ найдем два собственных под¬ пространства Rl и R2S (см. рис. 2.7, б). □ Притягивающие множества — аттракторы. Наибольший интерес представляют инвариантные множества, обладающие свойством аттрактивности, т. е. притяги¬ вающие к себе фазовые траектории системы (рис. 2.8). К таким геометрическим объектам относятся многие стационарные точки (или образуемые ими множества), собственные подпространства линейных систем (центральные прямые, плоскости, гиперплоскости), орбиты (замкнутые траектории) колебательных систем и другие виды инвариантных гиперповерхностей. Определение 2.6. Гладкая инвариантная гиперповерхность S* называется ат¬ трактором (притягивающим множеством) системы (2.1), если для xq € £(S*) выполняется условие аттрактивности lim dist(а;(/:),5*) = 0. (2.31) t—>oo Множество £(S*) называется областью притяжения аттрактора S*.
2.2. Особенности нелинейной динамики 49 Рис. 2.8. Точечный аттрактор (а) и притягивающая поверхность (б) В частном случае, когда инвариантным множеством является стационарная точка х*, ее окрестность определяется как открытое множество £{х*), а расстояние — \х — х* |. Условие аттрактивности (2.31) принимает вид lim \x(t) — ж* | = О, (2.32) и стационарная точка х* называется точечным аттрактором (рис. 2.8, а). Отметим, что понятие аттрактора связано с вопросами устойчивости динамиче¬ ских систем (см. 3.1.1), причем области притяжения часто являются открытыми инвариантными множествами системы. 2.2. Особенности нелинейной динамики Рассмотрим свойства решений нелинейных систем вида (2.1) и некоторые особен¬ ности, отличающие их поведение от линейных систем (2.3). К важнейшим вопро¬ сам, затрагивающим фундаментальные свойства нелинейных динамических систем (дифференциальных уравнений), относятся проблемы существования, единствен¬ ности и продолжимости их решений. В технике управления принято полагать, что по «физическим соображениям» для любых начальных условий xq найдется инте¬ гральная кривая (2.2), она единственна и определена на полубесконечном интерва¬ ле времени [0,оо) (бесконечно продолжима). Это действительно так, если система является линейной или правая часть уравнения (2.1) представлена достаточно глад¬ кой и ограниченной функцией (см. теорему 2.3). Тем не менее возможны случаи, когда для некоторых начальных условий нелинейная система не имеет решений, или ее решения определены на ограниченном интервале времени, а также случаи получения нескольких решений, соотвествующих одному начальному состоянию.
50 Глава 2. Переходные процессы и особенности нелинейной динамики, 2.2.1. Существование решений Следующий пример иллюстрирует случай отсутствия регулярных решений простой нелинейной модели. Пример 2.11. Рассмотрим систему (2.5) (см. пример 2.1), где х е X = R1. Так как функция f(x) = — 1/х имеет разрыв в точке х = 0, система не имеет решений с начальным значением х0 = 0 (рис. 2.9, а). □ Рис. 2.9. Переходные процессы: а — системы (2.5), б — системы (2.7) Точки и множества, в которых система не имеет решений, называются сингуляр¬ ными. Достаточные условия существования решений нелинейного дифференци¬ ального уравнения и отсутствия сингулярных точек даются известной теоремой Пеано. Теорема 2.1. Если функция f(x) непрерывна в открытой области X, то для любых начальных условий хо G X существует решение x(t) = x(t,xо), определенное на некотором интервале t е[0,Т), Т > 0. Пример 2.12. Рассмотрим систему (2.5), определенную в открытом множестве X = (0, оо). Функция f(x) = —1/х непрерывна на рассматриваемом множе¬ стве, и в соответствии с теоремой 2.1 для любых х0 е X решения существуют. Действительно, как показано в примере 2.1, искомые решения находятся в виде (2.6) и определены на конечном временном интервале [0, Г), где Т = х%/2 (см. рис. 2.9, а). □ Пример 2.13. Рассмотрим систему (2.7) (см. также пример 2.2). Здесь функция х2 непрерывна. Следовательно, искомые решения существуют. Как показано в при¬ мере 2.2, решения определены на временном интервале [0,-1/жо) при х0 < 0 или на интервале t е [С^оо) при х0 > 0. Графики переходных процессов показаны на рис. 2.9, б. □
2.2. Особенности нелинейной динамики 51 Отметим, что теорема 2.1 предлагает лишь достаточные условия существова¬ ния, которые в ряде случаев оказываются излишне жесткими. С другой стороны, выполнение ее условий еще не гарантирует единственности решений (2.2). Для иллюстрации приведем следующие примеры. Пример 2.14. Рассмотрим систему х = — sign х, (2.33) полагая sign 0 — 0. Система не удовлетворяет условию непрерывности теоремы 2.1, однако для любых начальных значений xq решение существует и определяется выражениями x(t) = xq — (sign хо) t при t € [0, |х0|), (2.34) x(t) = 0 при t > |хо|. (2.35) □ Пример 2.15. Рассмотрим систему х = \/х, (2.36) где х £ X = М1. Так как функция f(x) = tfx непрерывна, то по теореме 2.1 решение системы существует. Более того, для начального значения xq = 0 можно отыскать три решения (рис. 2.10): /2 \3/2 /О \3/2 x{t) = О, x(t) = 1J , x{t) = -(з*) □ Рис. 2.10. Неединственность решений системы (2.36)
52 Глава 2. Переходные процессы и особенности нелинейной динамики, 2.2.2. Единственность решений Как показывает анализ примера 2.15 (см. пример 2.16), причиной существования нескольких решений дифференциального уравнения может служить разрыв произ¬ водной dfjdx, и поэтому условие единственности решений обычно формулируется как требование «достаточной» гладкости функции./(ж), например, в форме усло¬ вия Липшица (см. 1.1.2) [17, 26]. Теорема 2.2. Если функция f(x) локально липшицева во всех точках области X (см. определение 1.9), т. е. для любых ж* из достаточно малой ^-окрестности точки х е X найдется постоянная Липшица L = L{6): \f(x)-f(x*)\ < L \х — ж*|, (2.37) то для любых начальных условий хо £ X система (2.1) имеет единственное (непро- должаемое) решение (2.2). Пример 2.16. Нетрудно показать, что функция /(ж) = tyx, имеющая бесконечно большое значение производной в точке ж = 0, не является (локально) липшицевой на множестве X = (-оо,оо), но является локально липшицевой при X = (0, оо). Следовательно, по теореме 2.2 система (2.36) имеет единственное решение для любых ж0 > 0. □ Пример 2.17. Рассмотрим систему ж = |ж|, (2.38) где ж £ X = М1. Здесь производная д\х\/дх не определена в точке ж = 0, и поэтому функция /(ж) = |ж| не является гладкой в R1. Тем не менее, функ¬ ция |жJ непрерывна и удовлетворяет условию Липшица (2.37) с константой L = 1. Поэтому для любых жо € М1 система имеет одно решение. □ Как и при рассмотрении вопроса существования решений, отметим, что приведен¬ ная теорема дает лишь достаточные условия, которые в некоторых случаях могут оказаться излишне жесткими. Пример 2.18. Система (2.33) для любых областей X, включающих точку ж = 0, не удовлетворяет условию Липшица. Однако ее решения оказываются единствен¬ ными. □ Замечание 2.2. Нетрудно показать, что условиям теорем 2.1 и 2.2 удовлетворяют системы, в которых функция / имеет непрерывные частные производные по ж, а также все гладкие нелинейные системы (см. определение 1.16). Так, в систе¬ ме (2.7) функция /(ж) = -ж2 гладкая, и, следовательно, для любых начальных условий существует единственное решение. □
2,2. Особенности нелинейной динамики 53 2.2.3. Продолжимость решений и полнота системы Как показывают определение 2.1 и приведенные выше примеры, существование ре- Р%щт случае на ограни¬ ченном временном интервале. Рассматриваемые в следующей главе вопросы устой¬ чивости связаны с поведением системы на полубесконечном интервале, что вызы¬ вает необходимость дальнейшего сужения класса систем и допустимых функций До¬ определение 2.7. Система (2.1) (векторное поле f{x)) называется полной на мно¬ жестве X, если для всех xQ € X ее решения (2.2) определены на полубесконечном интервале t € [0, оо) и x(t) = x(t,x0) £ X. Определение полной системы предусматривает, что все ее интегральные кривые при любых сколь угодно больших t не покидают множества X, т. е. поток систе¬ мы принадлежит множеству X. Если система определена во всем пространстве, т. е. X = Мп, то свойство полноты означает отсутствие траекторий, стремящихся к бесконечности в конечные моменты времени. Пример 2.19. Рассмотрим систему х = —х — гг2, (2.39) где х е X = (—1, оо). Как показывает рис. 2.11, а, все траектории системы, на¬ чинающиеся из области X, принадлежат этой области, и следовательно, система является полной в X. Рис. 2.11. Переходные процессы: (а) системы (2.39), (б) системы (2.40) С другой стороны, если система (2.39) задана во всем пространстве JR1 = = (-оо, +оо), то ее решения, соответствующие начальным значениям х0 < -1, определены только на ограниченном временном интервале [0,Г) (см. рис. 2.11, а). Следовательно, в М1 система не является полной. □
54 Глава 2. Переходные процессы и особенности нелинейной динамики Пример 2.20. Рассмотрим систему х = —х3, (2.40) определенную в пространстве Ж1. Система является полной в Ж1, так как все ее решения x(t) хр y/x%t + 1 (2.41) определены для любых t > 0 (рис. 2.11, б). □ Простые достаточные условия существования решений и полноты системы в про¬ странстве Ж" устанавливаются следующей теоремой (см., например, [12]). Теорема 2.3. Пусть X — Жп. Если функция /(х) в Жп непрерывна, локально липшицева и ограничена, т. е. для всех t > 0 найдется число М такое, что 1/0*01 < М, (2.42) то для любых начальных условий хр е X система (2.1) имеет единственное реше¬ ние (2.2), определенное на интервале t е [0,оо), и следовательно, является полной в Жп. Как показывает анализ линейных систем (всегда являющихся полными в Жп), а также следующий пример нелинейной системы, требование ограниченности пра¬ вой части уравнения (2.1) часто оказывается избыточным. Пример 2.21. Функция |х| не является ограниченной. Тем не менее решения си¬ стемы (2.38) x(t) = е^1&пх°^хру (2.43) где sign 0 = 0, определены для любых х0 и t > 0. Следовательно, система — полная в Ж1. Отметим, что функция |х| является непрерывной и глобально липшицевой, что (в соответствии с приведенной далее теоремой 2.4) позволяет сделать вывод о полноте рассматриваемой системы. □ Менее жесткие условия полноты динамических систем предусмотрены в следую¬ щем утверждении [48]. Теорема 2.4. Пусть X = Жп. Если функция /(х) непрерывна и глобально липши¬ цева в Жп, т. е. в выражении (2.37) постоянная Липшица не зависит от х и х* (см. определение 1.8), то для любых начальных условий хо G Жп система (2.1) имеет единственное решение (2.2) и является полной в Жп. Для гладких систем (2.1) глобальное условие Липшица можно заменить неравен¬ ством (2.37), проверяемым в произвольной точке х е Ж", например, в точке х = 0: 1/(0) -/(**)| < ь\х*\. (2.44)
2.2. Особенности нелинейной динамики 55 В то же время для целого ряда систем решения на полубесконечном интервале времени имеют место несмотря на нарушение условия Липшица или даже условия непрерывности функции f(x). Пример 2.22. Функция /(х) = —х3 гладкой системы (2.40) (см. пример 2.20) не удовлетворяет глобальному условию Липшица. Тем не менее система является полной в R1, что устанавливается непосредственной проверкой - все ее решения (2.41) определены для любых t > 0 (см. также рис. 2.11, б). □ Пример 2.23. Функция sign х разрывна и не удовлетворяет условию Липшица. Однако решения системы (2.33) при t > 0 определяются выражениями (2.34)- (2.35), что показывает, что система является полной в R1. □ Свойство полноты системы в некоторой области или во всем пространстве состоя¬ ний является безусловным требованием при рассмотрении вопросов устойчивости (см. п. 3.1). Оно связано также с понятиями инвариантности. 2.2.4. Стационарные решения Линейная система (2.3) в зависимости от матрицы А может иметь единственную стационарную точку х = 0 или множество стационарных точек (плоскость, пря¬ мую), описываемое уравнением Ах = 0. Пример 2.24. Рассмотрим линейную систему Xl = Х2, Х2 = —CL2X2- (2.45) Следуя правилу (2.9), находим линейно зависимые решения х\ = 0, <22X2 = 0, т. е. стационарными являются все точки, лежащие на прямой х2 = 0 (оси xi). □ К изолированным стационарным точкам линейных систем относятся узлы, седла, фокусы и центры (см. [4, 24, 37]). Нелинейная система (2.1) кроме тривиального случая, когда стационарным реше¬ нием является единственная точка, удовлетворяющая условию (2.9), может также иметь множество стационарных точек различного типа. Это множество может быть представлено набором изолированных положений равновесия (см. пример 2.4), ги¬ перповерхностью, кривой или их участками. Поведение нелинейной системы в окрестности изолированной стационарной точки оказывается существенно слож¬ нее поведения линейной системы, что обусловливает появление комбинированных типов стационарных точек [2, 11].
Глава 2. Переходные процессы и особенности нелинейной динамики 5в Пример 2.25. Рассмотрим нелинейную систему i,\ = Х2, &2 = —х2 — 25(xi — 1.4xf + 0.27xi). (2.46) По правилу (2.9) находим, что стационарными являются точки, удовлетворяющие условиям х2 =0, Xi- 1.4arf + 0.27x1 = 0. Фазовые траектории системы приведены на рис. 2.12, а и показывают наличие 5-ти стационарных точек типа устойчивый фокус и седло. □ Рис. 2.12. Фазовые траектории систем (2.46) и (2.25) Пример 2.26. Рассмотрим нелинейную систему (2.25), где а\ ф 0. По правилу (2,9) находим Х2 = 0, sin(airr* + 02^2) = 0, и следовательно, стационарными являются все точки с координатами х\ = = 0, х\ = for/ai, где к — произвольное целое число (рис. 2.12, б). □ Пример 2.27. Рассмотрим нелинейную (негладкую) систему xi = х2, х2 = —ж2 — dez(aixi + a2x2), (2.47) где ai ф 0. По правилу (2.9) находим х<2 = 0, dez(aiXi) = 0, и следовательно, стационарные точки образуют отрезок прямой (рис. 2.13, а) X* : хХ — 0, х\ € —— ,-^*1. L ai aiJ □ Напомним, что стационарные точки и образуемые ими множества относятся к простейшему типу инвариантных множеств и могут обладать свойством аттрак- тивности (см. 2.1.3).
2.2. Особенности нелинейной динамики 57 Рис. 2.13. Фазовые траектории систем (2.47) и (2.48) 2.2.5. Инвариантные множества, локальные и глобальные свойства Рассмотрим поведение нелинейной системы на некотором множестве Л'* с Л' с С Rn, полагая, что система в X удовлетворяет условиям существования и един¬ ственности, а также является полной. Инвариантные множества и аттракторы. Понятие инвариантного множества (определение 2.5) предусматривает, что траектории системы, начинающиеся в X*, целиком лежат в его пределах. Наибольший интерес обычно представляет изучение стационарных точек х* и ин¬ вариантных поверхностей S*, обладающих свойством аттрактивности (притяжения фазовых траекторий, см. 2.1.3), а также рассмотрение открытых инвариантных множеств (окрестностей £(х*) или £(£*)) — областей притяжения указанных ат¬ тракторов. Для линейных систем к числу притягивающих относятся изолированные точки ти¬ на устойчивых узлов и фокусов, гиперплоскости (подпространства), состоящие из стационарных точек (см. пример 2.24), и собственные подпространства различной размерности (см. 2.1.3 и пример 2.10). При этом области притяжения точечных, а часто и многомерных линейных аттракторов неограничены и представлены всем пространством Шп. Нелинейная система (2.1), кроме тривиального случая, когда аттрактором является единственная точка (см. примеры 2.21 и 2.24), может иметь множество притягива¬ ющих стационарных точек различного типа. Это множество может быть представ¬ лено набором изолированных точек (см. пример 2.4), гиперповерхностями, кривы¬ ми, а также их участками. Инвариантные гиперповерхности нелинейных систем, не являющиеся стационарными множествами, также часто являются аттракторами.
58 Глава 2. Переходные процессы и особенности нелинейной динамики Области притяжения (открытые окрестности некоторых притягивающих множеств) относятся к инвариантным множествам нелинейной системы. Пример 2.28. Рассмотрим нелинейную систему (2.10) (см. пример 2.4 и рис. 2.2). Стационарные точки х* = 2ктс, где к — произвольное целое число, являются точечными аттракторами. Их области притяжения определяются выражениями х* е ((2к - 1)7г, (2к + 1)7г) и являются инвариантными множествами. □ Пример 2.29. Рассмотрим нелинейную систему (2.25) (см. пример 2.26). Стаци¬ онарные точки х\ = 0, xj = 2for, где к — произвольное целое число, являются точечными аттракторами. Последние представлены на рис 2.12, б, причем область притяжения точки (0,0) выделена. □ Пример 2.30. Рассмотрим негладкую нелинейную систему (2.47) (см. пример 2.27). Отрезок прямой х% =0, х\ Е [—1/аь 1/а\), который образуют стационарные точки, является кусочным аттрактором системы, причем областью притяжения является все пространство Rn (см. рис. 2.13, а). □ Пример 2.31. Рассмотрим нелинейную систему х\ = х2, х2 = - (a\xi + а2х2)3, (2.48) где «1, а2 — положительные коэффициенты. Система имеет единственную стаци¬ онарную точку (0,0). Траектории системы показаны на рис. 2.13, б. Как видно из рисунка, аттракторами системы являются как стационарная точка, так и кривая (подмногообразие) S*. При этом областью притяжения является все пространство Rn. □ Линейные системы могут иметь замкнутые инвариантные гиперповерхности и в частности инвариантные кривые — орбиты. Однако они не являются притягиваю¬ щими множествами. Наличие замкнутых аттракторов — характерная особенность многих нелинейных систем (см. рис. 2.14, а также главу 5). Рис. 2.14. Устойчивый (а) и неустойчивый (б) предельные циклы
2.2. Особенности нелинейной динамики 59 Определение 2.8. Замкнутые инвариантные кривые (замкнутые гиперповерхности размерности 1, орбиты) называются предельными циклами системы. Замкнутые орбиты, удовлетворяющие условию аттрактивности (2.31), называются устойчивыми предельными циклами. Рис. 2.15. Предельный цикл и автоколебания Режим движения системы по орбите называется автоколебанием, что обусловлено незатухающими колебаниями переменных состояния (рис. 2.15). При этом устойчи¬ вые автоколебания соответствуют устойчивым предельным циклам системы (рис. 2.14, а). Понятия неустойчивого предельного цикла и неустойчивых автоколебаний связывают с отражением потока системы от рассматриваемой орбиты (рис. 2.14, б). В общем случае нелинейные системы могут иметь несколько предельных циклов [2]. Если при этом имеют место соосные орбиты движения, то среди них обычно чередуются устойчивые и неустойчивые циклы. Локальные и глобальные свойства. Для линейных стационарных систем поведе¬ ние системы в достаточно малой окрестности некоторой (например, стационарной) точки в определенном масштабе повторяет динамику движения в пространстве Шп, и поэтому все ее свойства носят глобальный характер. Свойства нелиней¬ ной системы в различных областях пространства состояний могут существенно различаться, что определяет необходимость указания области, в которой имеет место то или иное явление, или по крайней мере предупреждения о ее возможной ограниченности. Свойства динамической системы, которые имеют место в некотором открытом под¬ множестве X* пространства Rn («в малом»), называются локальными. В качестве указанного подмножества может выступать окрестность некоторой точки £(х*) или окрестность гладкой поверхности £(S*). Свойства, справедливые во всем про¬ странстве Шп («в целом»), называются глобальными. Замечание 2.3. Термин «в малом» обычно не связан с размером области X*, в которой данное свойство справедливо, а лишь указывает на факт существо-
60 Глава 2. Переходные процессы и особенности нелинейной динамики вания такой области. В одних случаях область оказывается достаточно малым ограниченным множеством (окрестностью некоторой точки), а в других — охваты¬ вает все пространство Rn. □ Если для линейных систем все свойства являются глобальными, то для нелиней¬ ных систем наличие глобальных свойств является скорее приятным исключением. Обычно такие свойства нелинейной системы, как единственности и существова¬ ния решений, полноты, а также устойчивости и управляемости (см. 3.1.1 и 4.1.3), справедливы только локально, причем поведение нелинейной системы в малом часто напоминает поведение линейной системы. Различие свойств нелинейной си¬ стемы в различных областях пространства состояний, наличие сингулярных точек, неединственность стационарных состояний и проч. обусловливают необходимость указания области X*, в которой то или иное свойство системы справедливо. Поверхности или кривые, отделяющие области с различными свойствами нелиней¬ ной системы, называются сепаратрисами. Примерами сепаратрис могут служить поверхности ограничивающих области притяжения стационарных точек. К ним, в частности, относятся прямые на рис. 2.12, б и неустойчивый предельный цикл на рис. 2.14, б.
Глава 3. Устойчивость нелинейных систем Устойчивость относится к основным свойствам динамической системы, определя¬ ющим ее общую работоспособность. В линейной теории понятия устойчивости достаточно просты — система всегда является полной, обычно содержит одно положение равновесия, областью притяжения является все пространство и т. д. Рассмотренные в п. 2.2 особенности нелинейной динамики указывают на необхо¬ димость более подробного изучения концепций устойчивости нелинейных систем, а также свойств систем, подверженных действию возмущений (устойчивости по входу). В то же время появление целого ряда новых задач управления, таких как задачи согласования и управления траекторным движением, а также изучение более сложных явлений нелинейной динамики, связанных с инвариантностью и ат- трактивностью многомерных геометрических объектов (см. главу 5), определяют интерес к специальным свойствам динамических систем — частичной устойчиво¬ сти движения и устойчивости по выходным переменным. 3.1. Основные понятия теории устойчивости К наиболее распространенным концепциям классической теории устойчивости от¬ носится устойчивость по Ляпунову, асимптотическая и экспоненциальная устой¬ чивость. Для исследования устойчивости применяются 1-й и 2-й (прямой) методы А. М. Ляпунова, а также целый ряд подходов, построенных на их основе. 3.1.1. Равновесные состояния и устойчивость Будем рассматривать поведение динамической системы х = f{x) (3.1)
62 Глава 3. Устойчивость нелинейных систем определенной на открытом множестве X, относительно ее равновесных состояний, которые соответствуют стационарным решениям дифференциального уравнения (3.1). Определение 3.1. Точка х = х* € X называется равновесным состоянием (поло¬ жением равновесия) системы (3.1), если для всех t > О выполняется x(t, X*) = X*. Как следует из определения, необходимым и достаточным условием равновесия системы в точке х* является выполнение равенства f(x*,t) = О для всех t > 0. Определим окрестность £(х*) точки х* как открытое связное подмножество обла¬ сти X, содержащее х*. Приведем следующие понятия, относящиеся к локальному поведению системы, т. е. справедливые в некоторой окрестности положения равно¬ весия. При этом будем полагать, что всегда найдется окрестность £{х*), в которой рассматриваемая динамическая система является полной (см. определение 2.7), и следовательно, ее решения х = x(t,x о) (3.2) определены на полубесконечном интервале времени t. Понятия иллюстрируются рис. 3.1, где х* = 0. Определение 3.2. Равновесное состояние х* (или система (3.1) в точке х*) на¬ зывается устойчивым по Ляпунову, если отображение xq x(t,xо), где t > 0, равномерно непрерывно в точке х0 = х*. Равновесное состояние х* (или система (3.1) в точке х*) называется неустойчи¬ вым, если отображение х0 ж(£,жо), где t > 0, допускает разрыв в точке х0 = х*. Рис. 3.1. Устойчивость по Ляпунува (а), неустойчивость (б) и асимптотическая устойчивость (в)
3.1. Основные понятия теории устойчивости 63 Существование соответствующего отображения множества начальных значений хо е X в множество непрерывных функций x(t, х0) в некоторой окрестности поло¬ жения равновесия обеспечивается при условии полноты рассматриваемой системы. Тогда под непрерывностью отображения подразумевается «близость» интегральных кривых (3.2), порождаемых близкими значениями х0. Требование непрерывности может быть сформулировано также классическим образом (см. рис. 3.1, а): для любых £ > 0 найдется S = 6(e) > 0 такое, что для всех начальных значений xq, удовлетворяющих условию |х0 — х*| < 5, (3.3) и всех t > 0 выполняется jx(t,x0) - x*j < £. (3.4) Разрывность отображения, определяющая неустойчивость системы, подразумевает, что даже для близких к положению равновесия начальных значений х0 возможно получение траекторий x(t,x0), значительно удаляющихся от положения равновесия (см. рис. 3.1, б), т. е. для некоторого значения е > 0 не существует числа S > 0, для которого выполняются неравенства (3.3)-(3.4). Замечание 3.1. Неограниченный рост |ж(£,хо)-£*| является признаком неустойчи¬ вости системы. Тем не менее ограниченность решений — необходимое условие до¬ стижения всех видов устойчивости точечных положений равновесия — не служит достаточным основанием для вывода об устойчивости по Ляпунову нелинейной системы. □ Пример 3.1. Рассмотрим систему х — х — ж3, (3.5) определенную в пространстве Ж1. Система имеет 3 положения равновесия: 0, 1 и -1. Для начальных значений |х0| < 1 выполняется: lim t—*oo ПрИ Xq > ПрИ Xq < о, о, и |x(i)| < 1. Следовательно, решения системы ограничены. Несмотря на это поло¬ жение равновесия х = 0 неустойчиво (рис. 3.2). □ Аналогичные примеры дают нелинейные системы, имеющие неустойчивые поло¬ жения равновесия и устойчивые предельные циклы, которые и обеспечивают огра¬ ниченность траекторий, начинающихся из начальных точек, близких к положению равновесия.
64 Гпава 3. Устойчивость нелинейных систем Следующее понятие связано с асимптотическими свойствами решений x(t,x0) при t —> оо и сходимостью траекторий системы к устойчивому положению равновесия (см. рис. 3.1, в). Определение 3.3. Равновесное состояние х* (или система (3.1) в точке х*) назы¬ вается асимптотически устойчивым, если это состояние а) устойчиво по Ляпунову; б) является аттрактором, т. е. для любых х0 е £°(х*) удовлетворяет условию ат- трактивности (притяжения) lim x(t,xо) = х*. (3.6) t—*oо Окрестность £°(х*) называется областью притяжения. В соответствии с определением предела заметим, что свойство притяжения (am- трактивности) указанного состояния х* означает, что существует 5° > 0, и для любых е > 0 и всех начальных значений xq, удовлетворяющих условию \хо-х*\ < 6°, - (3.7) найдется Д(е,жо) > 0 такое, что для всех t > Д(£,жо) выполняется |ж(£,жо) — я*| < е. (3.8) Пример 3.2. Рассмотрим систему (2.39), определенную во всем пространстве R1 = (—оо, +оо). Система имеет два равновесных состояния х* = -1 и х* = 0. Последнее асимптотически устойчиво (см. рис. 2.11, а) с областью притяжения £°(0) = (-1,оо). Положение равновесия х* = -1 неустойчиво уже потому, что система не является полной ни в какой из его окрестностей. □
ЗИ'. Основные понятия теории устойчивости 65 Пример 3.3. Рассмотрим систему (2.5), определенную во всем пространстве R1 (см. примеры 2.1 и 2.11, рис. 2.9, а). Несмотря на приближение кривых переход¬ ных процессов к точке 0, система не является асимптотически устойчивой ввиду отсутствия положения равновесия (точка х = 0 является сингулярной) и неполно¬ ты системы. □ В общем случае само свойство притяжения (3.6) еще не гарантирует асимптотиче¬ ской устойчивости системы, так как из аттрактивности положения равновесия не всегда следует его устойчивость по Ляпунову (см. определение 3.3, а). Пример 3.4. Рассмотрим систему Х\ = х\—х\, X2 = 2X1^2, (3.9) где х е X = Ж1. Ее положение равновесия х = 0 является точечным аттракто¬ ром (рис. 3.3), однако не устойчиво по Ляпунову и, следовательно, не является асимптотически устойчивым. Действительно, траектории, выходящие из точек с координатами (xi,0), где х\ > 0, сколь угодно близких к равновесному состоянию, со временем уходят в бесконечность (т. е. покидают любую е-окрестность), а затем возвращаются из правой полуплоскости. □ Рис. 3.3. Неустойчивость системы с аттрактивным положением равновесия Важной особенностью нелинейных систем является зависимость их поведения от начальных значений хо- Если характеристики системы при вариации начальных значений не изменяются, то соответствующее свойство устойчивости называется равномерным. Так, для' обеспечения устойчивости, а следовательно, и асимптотической устой¬ чивости системы, обладающей притягивающим положением равновесия, требуется выполнение условия равномерной аттрактивности, которое (в отличие от стан¬ дартного условия (3.6)) означает, что предельное соотношение (3.6) выполняется 3 Зак. 281
66 Глава 3. Устойчивость нелинейных систем равномерно по начальным значениям х0 [17], и в неравенстве (3.8) число Д можно выбрать независимо от xq. Теорема 3.1. Равновесное состояние х* системы (3.1) асимптотически устойчиво, если оно является равномерно притягивающим, т. е. для всех начальных значений xq е £°(х*) условие аттрактивности (3.6) выполняется равномерно по х0 е £°(х*). Отметим, что для рассматриваемых здесь стационарных систем (3.1) равновесное состояние х* всегда равномерно устойчиво по Ляпунову, если оно устойчиво. Определение 3.4. Равновесное состояние х* (или система (3.1) в точке х*) на¬ зывается равномерно асимптотически устойчивым в области £°(х*), если на множестве £°(х*) оно является равномерно притягивающим по х0, т. е. для всех xq € £°(х*) предельное соотношение (3.6) выполняется равномерно по х0 е £°(х*), или в неравенстве (3.8) число Д не зависит от х0. Нетрудно показать, что система (2.40) (см. пример 2.20 и рис. 2.11, б) является равномерно асимптотически устойчивой по х с областью равномерного притяжения R1. В то же время переходные процессы асимптотически устойчивой в точке х = О системы (2.39) (см. пример 2.19 и рис. 2.11, а) в области притяжения (—1,оо) не удовлетворяют условию равномерной сходимости, так как при х0 —► — 1 Д —> оо. Тем не менее (см. примеры 3.5 и 3.11) эта система является равномерно устойчивой в любой области (а - 1, оо), где 0 < а < 1. Наиболее сильные притягивающие свойства положения равновесия нелинейной системы обеспечиваются при условии экспоненциального затухания переходных процессов, которое фигурирует в следующем понятии. Определение 3.5. Равновесное состояние х* (или система (3.1) в точке х*) назы¬ вается экспоненциально устойчивым, если для всех xq € £°(х*) найдутся (3 > О и а > 0 такие, что при t > 0 выполняется |x(t,x0) — х*| < (3e~at \хо — х*\. (3.10) Окрестность £°(х*) называется областью экспоненциального притяжения систе¬ мы. Неравенство (3.10) устанавливает экспоненциальную мажоранту процессов из об¬ ласти £°(ж*) с параметрами (3, а, которая может служить для оценки качества системы в некоторой окрестности ее положения равновесия. Так как из усло¬ вия экспоненциальной устойчивости всегда следует равномерная асимптотическая устойчивость системы, то неравенство (3.10) часто используется для проверки рав¬ номерной сходимости. Напомним, что для линейных систем экспоненциальная устойчивость является также и необходимым условием равномерной асимптотической устойчивости, т. е. здесь указанные понятия эквивалентны.
3.1. Основные понятия теории устойчивости Рис. 3.4. Экспоненциальная устойчивость системы (2.39) Пример 3.5. Рассмотрим нелинейную систему (2.39), определенную в области X = (—1,+оо), и положение равновесия х* = 0 (см. пример 2.16). Пусть xq € (—1 4- а, оо), где 0 < а < 1, Нетрудно показать (см. пример 3.11 и рис. 3.4), что переходные процессы системы удовлетворяют неравенству \х\ < e~at\x0\. (3.11) По определению система является экспоненциально устойчивой с областью притя¬ жения (—1 + а,оо), а следовательно, и равномерно устойчивой по хо. □ Приведенные выше определения устойчивости носят локальный характер, так как устанавливают свойства системы лишь в некоторой окрестности равновесного со¬ стояния х*. Это обусловлено естественными особенностями нелинейных систем» поведение которых в разных областях пространства Мп может существенно раз¬ личаться (см. примеры 2.4, 2.20, 3.1 и др.). В то же время для линейных и целого ряда нелинейных систем положение равновесия единственно, и свойства устой¬ чивости приобретают глобальный характер, т. е. могут быть распространены на пространство состояний в целом (см. систему (2.40), пример 2.20). Определение 3.6. Пусть X — Rn, система (3.1) является полной в Жп и имеет единственное равновесное состояние х = х*. Система называется глобально асимптотически устойчивой, или асимптотиче¬ ски устойчивой в целом, если равновесное состояние х* является устойчивым по Ляпунову и глобально притягивающим, т. е. £°(ж*) = Шп. Система называется равномерно глобально асимптотически устойчивой, если равновесное состояние х* равномерно устойчиво по Ляпунову и является равно¬ мерно глобально притягивающим, т. е. £°(ж*) = Мп, и предельное соотношение (3.6) выполняется равномерно по х0 е Шп. Система называется глобально экспоненциально устойчивой, если для всех на¬ чальных значений х0 е Мп выполняется неравенство (3.10).
68 Глава 3. Устойчивость нелинейных систем 3.1.2. Первый метод Ляпунова Одним из эффективных й простых методов анализа локальных свойств гладкой системы (3.1) является первый метод Ляпунова, который предусматривает иссле¬ дование поведения системы по аппроксимированной (линеаризованной) модели. Для получения такой модели введем в рассмотрение га-мерный вектор х — х — х*, характеризующий отклонение текущего состояния от положения равновесия х*. Полагая, что функция f(x) в точке х = х* гладкая, представим ее разложение в ряд Тейлора: f(x) = f(x*) + Fx + о(х), где матрица F = df дх называется матрицей Якоби нелинейной системы, а вектор-функция о(х) пред¬ ставляет остаточный член разложения. Если отклонение х достаточно мало, оста¬ точным членом о(х) обычно можно пренебречь и записать линеаризованную мо¬ дель нелинейной системы х = Fx, (3.12) положением равновесия которой является точка х* = 0. В соответствии с линей¬ ной теорией такая модель асимптотически устойчива тогда и только тогда, когда матрица F гурвицева (устойчива), т. е. ее собственные числа Xi{F} расположены в левой полуплоскости комплексной плоскости: Re A* {F} < 0, г = 1,2,...,п. (3.13) Однако в общем случае свойства основной системы (3.1) и линеаризованной модели (3.12) все-таки не совпадают, и поэтому возникает необходимость привлечения до¬ полнительного условия и следующей формулировки теоремы Ляпунова-Пуанкаре. Теорема 3.2. Пусть f(x) — достаточно гладкая функция, удовлетворяющая усло¬ вию _ lim = °- (зл4) х—►О |3£| Тогда равновесное состояние х* е X нелинейной системы (3.1) асимптотически устойчиво, если матрица Якоби системы гурвицева. Пример 3.6. Рассмотрим систему (3.5) (см. пример 3.1), которая имеет три равно¬ весных состояния х* = —1,0,1. Найдем F = df дх ■ X* 1 - 3z*2.
3.1. Основные понятия теории устойчивости 69 В точках х* = ±1 получаем F = 2, что свидетельствует об асимптотиче¬ ской устойчивости этих положений равновесия, а в точке х* = 0 будет F = 1 и, следовательно, устойчивость этого положения равновесия не гарантируется (см. рис. 3.2). □ Отметим, что теорема предлагает только достаточные условия, и в целом ряде слу¬ чаев асимптотически устойчивые нелинейные системы не удовлетворяют ее тре¬ бованиям. Так, система (2.40) (пример 2.20) асимптотически устойчива (в целом), однако F = df дх х* =0 = 0. 3.1.3. Второй метод Ляпунова Наибольшее распространение для анализа и синтеза сложных систем управления получил второй (или прямой) метод Ляпунова. Метод основан на использовании скалярных функций, обладающих на решениях динамической системы некоторыми специальными свойствами и получивших название функций Ляпунова. Функции Ляпунова позволяют оценить устойчивость и качество системы, а также синте¬ зировать алгоритмы управления, обеспечивающие заданные качественные пока¬ затели процессов. Достаточные условия устойчивости (см. определения 3.2-3.3) представлены в теоремах, доказанных А. М. Ляпуновым в 1892 г. Будем рассматривать стационарные динамические системы вида (3.1), опреде¬ ленные на открытом множестве X, где X с Еп, полагая, что удовлетворяются условия существования и единственности решений, а сами решения определены на полубесконечном интервале времени [0, оо), т. е. системы являются полными (см. 2.2.1-2.2.3). Пусть равновесным состоянием системы является точка х — х* = = 0, и, следовательно, /(0) = 0. Функции Ляпунова. Прежде всего введем некоторые дополнительные понятия знакоопределенных функций. Рассмотрим скалярные функции V(x), определен¬ ные в точке х = 0 и ее окрестности 5(0) = X. Функция V(x) называется положительно определенной (определенно положи¬ тельной) в области X, если для всех х е X выполняется V(x) > 0 при х ф 0, У(0) = 0, и отрицательно определенной (определенно отрицательной), если V(x) < 0 при х ф 0, У(0)=0. Функция V(x) называется неотрицательной (положительно полуопределенной) в области X, если для всех х е X V(x) > 0,
70 Глава 3. Устойчивость нелинейных систем и неположительной (отрицательно полу определенной), если V(x) < 0. Положительно определенная в Еп возрастающая (при увеличении |ж|) функция V(х) называется неограниченно возрастающей, если где Р — РТ > 0, определяющая евклидову норму (длину) вектора х € Еп, относится к положительно определенным во всем пространстве состояний Еп. В пространстве En+1 ей соответствует геометрический объект, называемый ко¬ нусом (рис. 3.5, а). Линии равного уровня \х\р — С — const в пространстве со¬ стояний Еп образуют эллипсы, соответствующие векторам «равной» длины (рис. 3.5, б), причем увеличению вектора х соответствует увеличение параметра С и переход на внешний эллипс. Для случая Р = / (единичная норма) получаем кру¬ говой конус, где линии равного уровня являются окружностями lim V(х) = оо. |я|—»оо Пример 3.7. Функция \х\р = {xTPxf/\ (3.15) □ а н б Н = с X о х. Рис. 3.5. Евклидова норма: поверхность и линии равного уровня Пример 3.8. Свойства квадратичной функции V(x) = |а:|р = хтРх (3.16)
3.1, Основные понятия теории устойчивости 71 Рис. 3.6. Квадратичная положительно определенная функция где Р = Рт, зависят от выбора матрицы Р. Для положительно определенной матрицы, т. е. Р > 0, функция V(х) также является положительно определенной (в Еп), а при Р > 0 функция V{x) неотрицательна. В пространстве En+1 положительно определенная функция V(х) представляет па¬ раболический эллипсоид (рис. 3.6). В пространстве состояний Еп линии равного уровня |х\2Р — С — const эллипсоида (3.16)) образуют (как и для фигуры (3.15)) эллипсы, соответствующие векторам «равной» длины , а увеличению вектора х соответствует увеличение параметра С и переход на внешний эллипс. Для случая Р > 0 (положительно полуопределенная матрица) получаем фигуру типа «желоб» (рис. 3.7), которая касается подпространства Еп не только в точке х = 0, но и на линии Рх = 0,'что и приводит к получению неотрицательной функции V(x). Отметим, что положительно определенные функции (3.15) и (3.16) являются неограниченно возрастающими при увеличении |х|, что и обусловливает их гло¬ бальные свойства. Однако в общем случае знакоопределенные функции должны удовлетворять условию положительности (отрицательности) только в некоторой окрестности точки 0 , что не исключает возможность их убывания (возрастания) при некотором удалении от точки х = 0. □ К функциям Ляпунова будем относить непрерывно дифференцируемые скалярные функции V(x) е С1, которые являются положительно определенными в некоторой окрестности положения равновесия х = 0. Такие функции часто отождествляют с энергией системы. Уменьшение V(x), соответствующее приближению устойчи¬ вой системы к положению равновесия, ассоциируется с рассеиванием энергии, а увеличение V(x), соответствующее удалению от положения равновесия, — с неже¬ лательным ростом энергетического запаса (см. теоремы 3.3-3.5, а также п. 3.2).
72 Глава 3. Устойчивость нелинейных систем а V(x) б V(x) « С Рис. 3.7. Квадратичная неотрицательная функция Важно отметить, что при необходимости к функциям Ляпунова могут быть предъ¬ явлены дополнительные требования — положительной определенности во всем пространстве Еп, неограниченного роста и т. п. С другой стороны, применяются и просто непрерывные функции Ляпунова (V(x) е С°), например, вида (3.15). Все это позволяет расширить круг исследуемых задач устойчивости. Наиболее распространенной функцией Ляпунова является квадратичная функция (3.16), которую можно записать как где Р = Рт > 0, что показывает связь функции с нормой вектора х, и следователь¬ но, с основными понятиями устойчивости. Для асимптотически устойчивой систе- системы — возрастать: V(x) > 0, для системы, устойчивой по Ляпунову, возмож¬ ны движения с постоянной функцией V(x) и нулевой производной: V(x) = 0. Это указывает на то, что для анализа устойчивости системы необходимо установить свойства производной от функции Ляпунова для решений (2.2). Производной функции Ляпунова V{x) системы (3.1) (или производной в силу уравнения (3.1)) называется скалярная функция Пример 3.9. Рассмотрим квадратичную функцию Ляпунова (3.16). Ее частная про¬ изводная по х определяется выражением V(x) = \х\%, мы функция должна убывать с течением времени, т. е. V(x) < 0, для неустойчивой (3.17) (3.18)
3.1. Основные понятия теории устойчивости 73 и следовательно, V(x) = 2 xTPf(x). (3.19) □ Основные теоремы. Частная производная dVjdx представляет собой градиент функции Ляпунова (см. 1.1.2): (Zf - который направлен по нормали к касательным линий равного уровня V(x) = С в сторону увеличения функции V(x). Тогда в каждой точке х производная функ¬ ции Ляпунова (3.17) является скалярным произведением указанного градиента на вектор /, касательный к фазовой траектории системы в точке х . Для асимптотиче¬ ски устойчивой системы, фазовая траектория которой приближается к положению равновесия (рис. 3.8, а), рассматриваемое скалярное произведение всегда отри¬ цательно, и следовательно, V(x) < 0, для неустойчивой системы (рис. 3.8, б) — положительно, и V(x) > 0, а для системы, устойчивой по Ляпунову, возможна ор¬ тогональность градиента и траектории, т. е. V(x) = 0. Эти соображения положены в основу доказательства следующих теорем Ляпунова (подробные доказательства приведены, в частности, в [26, 31]). Рис. 3.8. Пересечение линий равного уровня устойчивой (а) и неустойчивой (б) системы Теорема 3.3 (1-я теорема Ляпунова). Равновесное состояние х — 0 системы (3.1) устойчиво по Ляпунову, если в некоторой окрестности 5(0) существует функция Ляпунова V(x), производная которой V(x) является неположительной: V(x) < 0. Теорема 3.4 (2-я теорема Ляпунова). Равновесное состояние х = 0 системы (3.1) асимптотически устойчиво, если в некоторой окрестности 5(0) существует функция Ляпунова V{x), производная которой V{x) является отрицательно опре¬ деленной: V(x) < 0 при х ф 0, У(0) = 0. (3.20)
74 Глава 3. Устойчивость нелинейных систем Замечание 3.2. При условии, что V{x) < - W(x), (3.21) где W(x) > 0 — неограниченно возрастающая функция, теорема 3.4 допускает более сильное утверждение: равновесное состояние системы асимптотически устойчиво равномерно по х0 (см. определение 3.4). □ Теорема 3.5 (3-я теорема Ляпунова). Равновесное состояние х = 0 системы (3.1) неустойчиво, если существует непрерывная функция V(x) такая, что а) 1/(0) = 0; б) ее производная V(x) в некоторой окрестности 5(0) является отрицательно опре¬ деленной: V(x) < 0 при х ф 0, 1/(0) = 0; в) в любой сколь угодно малой окрестности равновесного состояния найдется точка х — хо, в которой V(xq) < 0. Отметим, что в последней теореме функция У(х) является, вообще говоря, зна¬ копеременной. Тогда в силу условия V(x0) = (dV/dx)f(x0) < 0 получаем, что траектория системы в точке х — ж0 направлена в сторону убывания V(x). Так как по условям теоремы V(xo) < 0 и 1/(0) = 0, то уменьшение отрицательной функции V(x) характеризует движение от положения равновесия х = 0 и, следовательно, является признаком неустойчивости системы. Условия экспоненциальной устойчивости даются следующей теоремой. Теорема 3.6. Равновесное состояние х — 0 системы (3.1) экспоненциально устой¬ чиво, если в некоторой окрестности 5(0) существует функция Ляпунова V{x), которая удовлетворяет следующему условию: V(x) + 2a V(x) < 0, (3.22) где а > 0. Отметим, что неравенство (3.22) имеет решение V(x) < e~2at, 1/(0), (3.23) что показывает, что функция Ляпунова (а следовательно, и |ж|) со временем при¬ ближается к нулевому значению, причем темп сходимости определяется числом а.
3.1. Основные понятия теории устойчивости 75 Пример 3.10. Для квадратичной функции Ляпунова (3.16) из неравенства (3.23) получим \х\2р < е~2 at \xo\p, и следовательно, Np < e~at |ж0|р. (3.24) Последнее в точности соответствует условию экспоненциальной устойчивости (3.10), где (3 = 1. □ Пример 3.11. Рассмотрим нелинейную систему (2.39), определенную в области X = (-1,+оо), и положение равновесия х* = 0. Пусть х0 е (-1 + сх,оо), где 0 < а < 1. Выберем функцию Ляпунова V — х2. Найдем V = 2х(—х — х2) < —2ах2 = —2aV. Следовательно, выполняется неравенство (3.22), и \х\ < е-а*|х0|, т. е. система является экспоненциально устойчивой с областью притяжения (-l + a, оо) (см. рис. 3.4). □ При изучении условий глобальной асимптотической устойчивости (см. определение 3.6) будем полагать, что система определена на всем пространстве Еп и обладает лишь одним состоянием равновесия х = 0. Теорема 3.7. Пусть X — Еп. Система (3.1) глобально асимптотически устойчива в точке х = 0, если существует определенная во всем пространстве Еп возраста¬ ющая функция Ляпунова V{x), производная которой V(x) является отрицательно определенной в Еп: V(x) < 0 при х ф 0, 1^(0) = 0. Замечание 3.2а. При условии, что V(x) < - W{x), (3.25) где W{x) > 0 — неограниченно возрастающая функция, теорема 3.7 допускает более сильное утверждение: равновесное состояние системы глобально асимптотически устойчиво равномерно по х0 (см. определение 3.4). □ В сложных случаях может быть полезна следующая модификация теоремы 3.7.
76 Гпава 3. Устойчивость нелинейных систем Теорема 3.8 (теорема Барбашина-Красовского). Пусть X — Еп. Система (3.1) глобально асимптотически устойчива в точке х — 0, если существует определенная во всем пространстве Еп возрастающая функция Ляпунова V(х) такая, что а) производная V является неположительной в Еп, т. е. V(x) < 0; б) на множестве (1 = {г е R" : = 0}, т. е. при V(x) = 0, имеет место тождество x(t) = 0. Основным достоинством метода функций Ляпунова является отсутствие необхо¬ димости вычисления всех решений системы. С другой стороны, в общем случае метод не предлагает процедуры выбора подходящей функции V, что и являет¬ ся его основным недостатком. Тем не менее в ряде частных случаев, к которым безусловно относятся линейные системы, можно воспользоваться достаточно про¬ стыми квадратичными функциями Ляпунова (см. 3.1.4 и 6.3.1). 3.1.4. Устойчивость линейных и линеаризованных систем Рассмотрим линейную модель х = Ах (3.26) с положением равновесия х = 0. Напомним (см. 3.1.2), что модель может быть получена в результате линеаризации гладкой нелинейной системы (3.1). Необхо¬ димым и достаточным условием асимптотической устойчивости линейной системы является гурвицевость (устойчивость) матрицы А: Re Ai {А} < 0 , i = 1,2,..., п. Введем в рассмотрение квадратичную функцию Ляпунова (3.16), где Р = Рт. С учетом выражений (3.18) и (3.26) получим V = хт(АтР + РА)х. (3.27) Пусть матрица Р является решением алгебраического уравнения, называемого уравнением Ляпунова: АТР + РА = -Q, (3.28) где Q — QT> 0. Тогда уравнение (3.27) принимает вид V = —xTQx. (3.29)
3.1. Основные понятия теории устойчивости 77 Если матрица Р, найденная как решение уравнения (3.28), положительно опреде¬ лена (Р > 0), то выбранная функция V(x) является функцией Ляпунова, производ¬ ная которой в силу уравнения (3.28) и выбора Q > 0 — отрицательно определенная функция. Тогда в соответствии с теоремой 3.7 можно заключить, что система (3.26) асимптотически устойчива в целом. Имеет место и обратное утверждение. Лемма Ляпунова. Система (3.26) асимптотически устойчива (матрица А — гур- вицева) тогда и только тогда, когда для любой матрицы Q > 0 найдется решение Р > 0 уравнения (3.28). Отметим, что формулировка леммы остается справедливой и при Q = qqT, где матрица-строка qT удовлетворяет условию полной наблюдаемости пары (A,qT). Если система асимптотически устойчива и Q > 0, всегда можно отыскать положи¬ тельное число о;0 такое, что Q > 2а0 Р. Тогда из уравнения (3.29) получим V < — 2t*0 V. (3.30) и, следовательно, система экспоненциально устойчива (см. теорему 3.6). Справедливы также следующие свойства, позволяющие определить степень устой¬ чивости и установить экспоненциальную устойчивость линейной системы. Выбе¬ рем Q = Qo + 2аР, где Qo = Qq > 0. Тогда уравнение (3.28) принимает вид АТР + РА = -Q0-2aP (3.31) или (.A + aI)TP + P(A + aI) = -Q0, (3.32) По лемме Ляпунова заключаем, что существование положительно определенного решения уравнения (3.31) является необходимым и достаточным условием устой¬ чивости матрицы А + аР. Re А* {А+ о:/} < 0, г = 1,2,..., гг, и следовательно, получения степени устойчивости системы а: Re Xi {А} < —а, г = 1,2,... ,гг. С другой стороны, подставляя (3.31) в (3.27), находим V < -2а V. (3.33)
78 Глава 3. Устойчивость нелинейных систем Последнее выражение в соответствии с теоремой 3.6 устанавливает экспоненци¬ альную устойчивость линейной системы с оценкой (3.24). Таким образом, имеет место следующий результат. Следствие 3.1 (лемма Калмана). Система (3.26) экспоненциально устойчива и имеет степень устойчивости а тогда и только тогда, когда для любой матри¬ цы Q0 > 0 найдется решение Р > 0 уравнения (3.31). Принимая во внимание теорему 3.2, результаты можно обобщить на гладкие нели¬ нейные системы. Следствие 3.2. Пусть /(ж) — достаточно гладкая функция, удовлетворяющая усло¬ виям /(0) = 0 и (3.14). Тогда равновесное состояние х* = 0 е X нелинейной системы (3.1) с матрицей Якоби А = д$/дх\х=ъ а) асимптотически устойчиво, если для любой матрицы Q > 0 найдется решение Р > 0 уравнения (3.28);' б) экспоненциально устойчиво с оценкой (3.24), если для любой матрицы Qo > 0 найдется решение Р > 0 уравнения (3.31). В традиционных задачах теории управления представление о желаемом поведении системы связывается с понятием устойчивости по всем переменным состояния ж*. Тем не менее во многих теоретических и прикладных п|юблёмах управления боль¬ ший интерес представляет частичная устойчивость динамической системы, т. е. ее устойчивость по части переменных состояния Х{, по некоторым функциям от Х{ или по выходным переменным yj. Частичная устойчивость допускает очевид¬ ную геометрическую трактовку, связанную с инвариантностью и аттрактивностью многомерных множеств (см. 2.1.3). 3.2. Частичная устойчивость й устойчивость по выходу х > ф Рис. 3.9. Система и функция £ Будем рассматривать гладкую динамическую систему (рис. 3.9) х = /(ж), £ = ф( ж), (3.34) (3.35)
3.2. Частичная устойчивость и устойчивость по выходу 79 где х е X с Rn, £ = {£*} е Н С Rp, р < п, Здесь полагаем, что f(x) и ф(х) — гладкие вектор-функции, и модель (3.34) является полной в области X (см. 2.2.3). Отображение (3.35) вводит вектор р переменных £*(£), по отношению к которым и будет рассматриваться задача частичной устойчивости. Решением системы (3.34)-(3.35) называется функция определенная при t > 0. Частичное положение равновесия такой системы вводится как точка £* е S, для которой £(£, хо) = £*, а вопрос о частичной устойчивости решается в зависимости от свойства непрерывности отображения х0 i-> £(£,х0) и притяжения решений (3.36) к точке £*, т. е. £(г,£0) -+ £*. Отметим, что во всех определениях частичной устойчивости требование полно¬ ты системы (см. 2.2.3) приобретает особую значимость, поскольку рассмотрение функций £(£) при t > 0, необходимое для решения вопроса о частичной устойчи¬ вости, теряет смысл, если некоторые переменные состояния определены лишь на конечном интервале времени (см. пример 3.16). Очевидно, что при р = п и ф(х) = х приведенная концепция соответствует стан¬ дартным понятиям устойчивости точечного положения равновесия х = х* (см. определения 3.1-3.3), в то время как в общем случае компонентами вектора £ = ф(х) являются лишь некоторые переменные состояния xiy выходы системы или иные существенные переменные (энергия, мощность, квадратичные отклоне¬ ния и проч.). 3.2.1. Устойчивость по части переменных Задача устойчивости динамической системы по отношению к части переменных состояния [22, 26] является частным случаем проблемы частичной устойчивости, когда вектор £ представлен некоторым набором переменными состояния системы (3.34), т. е. можно записать где £ е S — р-мерный вектор, z е Z — ^-мерный вектор, Ех2 = Хии = = п — р. Здесь нелинейная система состоит из двух взаимосвязанных подсистем с переменными состояния & и z* соответственно (рис. 3.10, а). Уравнение (3.34) можно переписать в виде где Z1 и /2 — гладкие вектор-функции, £(0) = £0, z(0) = z0, а выражение (3.35) принимает вид £(£) = £(£,£o) = ф(х(^х о)), (3.36) £ = f&z), z = Л£,*), (3.37) (3.38) £ = [I о]£.
80 Глава 3. Устойчивость нелинейных систем Рис. 3.10. Взаимосвязанные подсистемы и инвариантная гиперплоскость Рассмотрим решения системы (3.37) £(*) = £{t,xо), t> 0, (3.39) где х0 = (£0,20), и точку £* € Е. Условие £ = £* определяет в пространстве Rn 1/-мерную гиперплоскость (см. рис. 3.10, б и 1.1.4): Z* = {xeXcW1: £ = £*, zeZ}. Введем следующее понятие. Определение 3.7. Точка £ = £* называется (частичным) положением равновесия системы (3.37)-(3.38), когда для всех х0 € Z* решения (3.39) удовлетворяют условию £(f,*o) = £*■ (3-40) Из определения следует, что все траектории, начинающиеся на Z*, целиком лежат на этой плоскости, т. е. Z* является инвариантной гиперповерхностью рассмат¬ риваемой системы (см. определение 2.5). Критерий указанного типа равновесия получается из уравнения (3.37) при £ = 0 и принимает вид /ЧГ,*) = о. что должно выполняться для любых ге2. С другой стороны, для любых x0ez* и t> О поведение n-мерной динамической системы полностью описывается системой v уравнений г = /о (*), (3-41) где /q(z) = /2(£*,z), т. е. имеет место редукция основной модели рассматриваемой системы.
3.2. Частичная устойчивость и устойчивость по выходу 8? Рассмотрим поведение системы в малой окрестности плоскости Z*, т. е. на множе¬ стве £{Z*) с X, и введем следующие понятия устойчивости по части переменных. Определение 3.8. Система (3.37)—(3.38) в положении равновесия £ = £* называ¬ ется устойчивой по части переменных, когда для любых xq G £{Z*) отображение х0 н-* £(t,xо), где t > 0, непрерывно в точках х0 = (£*,2); система называется асимптотически устойчивой по части переменных с обла¬ стью притяжения £°(Z*) с X, когда она устойчива по части переменных и для любых х0 е £°(Z*) выполняется условие аттрактивности lim £ (£,х0) = Г; (3.42) t—HX> система называется глобально (в целом) асимптотически устойчивой по части переменных, когда X = £°(Z*) = Rn. Отметим, что определения не требуют, чтобы система имела точечные положения равновесия х* е Еп и тем более была бы устойчивой (асимптотически устойчи¬ вой) по всем переменным состояния. С другой стороны, условие (3.42) определяет притягивающие свойства плоскости Z*, т. е. для асимптотически устойчивой по части переменных системы множество Z* является многомерным аттрактором (см. 2.1.3). Введенные понятия иллюстрируются следующими примерами. Пример 3.12. Рассмотрим линейную систему Х\ = — XI, ±2= Х\+ Хх2 (3.43) с точечным положением равновесия (0,0) G М2. Очевидно, что при любых А си¬ стема имеет частичное положение равновесия zi = 0 и глобально асимптотически устойчива по переменной х\ (рис. 3.11). □ Пример 3.13. Рассмотрим нелинейную систему %1 = —Х\ + X\X2, Х2 = Xi, (3.44) определенную в R2, с точечным равновесным состоянием (здесь не единственным) (0,0) и частичным положением равновесия х\ = 0. Интегральные кривые системы представлены на рис. 3.12, а и показывают, что система асимптотически устой¬ чива по переменной х\ с областью притяжения £°. Отметим отсутствие свойства глобальной устойчивости системы, так как в R2 система не является полной — тра¬ ектории в выделенной на графике области (вне множества £°) определены только на конечном интервале времени. □ Следует обратить внимание на тот факт, что глобально асимптотически устойчивая по xi система (3.43) при А > 0 в классическом смысле неустойчива (рис. 3.11, б), а система (3.44) только устойчива по Ляпунову, (рис. 3.12, а).
82 Глава 3. Устойчивость нелинейных систем х2 Рис. 3.11. Частичная асимптотическая устойчивость линейной системы (пример 3.12): а) при Л = —1; б) при Л = 1 Пример 3.14. Линейная система = —xi, x2 = xi + l (3.45) не имеет точечных положений равновесия, однако удовлетворяет в R2 условиям непрерывности и аттрактивности по переменной xi (рис. 3.12, б) и, следовательно, также относится к частично асимптотически устойчивым системам. □ Рис. 3.12. Частичная асимптотическая устойчивость: а) нелинейной системы (пример 3.13); б) линейной системы (пример 3.14) Достаточные условия устойчивости по части переменных состояния были по¬ лучены В. В. Румянцевым (см. [26]). Пусть положением равновесия системы (3.37)-(3.38) является точка £ = 0. Введем в рассмотрение гладкую функцию V{x)t производная которой V(x) вычисляется в соответствии с выражением (3.17), и положительно определенные функции u>i(£), w2(£), ги3(£).
3.2. Частичная устойчивость и устойчивость по выходу 83 Теорема 3.9. Система (3.37)-(3.38) устойчива в равновесном состоянии £ = О, если в некоторой окрестности £(Z*) существует функция Ляпунова V(x) такая, что V(x)>wi(£), v»<o. Если, кроме того, V(x) < w2(£), V(x) < -w3(£), то система асимптотически устойчива по £. Если, кроме того, X = £(Z*) = Еп и функция tui(£) неограниченно возрастающая, то система глобально асимптотически устойчива по £. Заметим, что в задачах устойчивости по части переменных, а также и более общих задачах частичной устойчивости (см. теорему 3.10 и пример 3.19) используются неотрицательные функции Ляпунова типа «желоб» (см. пример 3.8 и рис. 3.7). 3.2.2. Частичная устойчивость (устойчивость по функции) •Введенные выше понятия обобщаются на случай, когда система описывается урав¬ нениями (3.34)-(3.35). Рассмотрим точку £* е 2 и множество Z*, для которого £ = £*, т. е. гиперповерхность 2*-{хеХсЖп: ф{х) — £*}. Для определенности положим,, что для любых х е Z* выполняется rank ф{х). — р, и следовательно, Z* является регулярной гиперповерхностью размерности v — = п — р. Дадим следующее определение. Определение 3.9. Точка £* € 2 называется (частичным) положением равновесия системы (3.34)-(3.35), когда для всех хо G Z* решения (3.36) удовлетворяют условию £(*,*о) = £*• (3.46) Так как множество Z* представлено точками, для которых £ == £*, то любая тра¬ ектория системы, лежащая на этом множестве, соответствует тождеству (3.46) (рис. 3.13). Следовательно, £* — частичное положение равновесия тогда и только тогда, когда для начальных значений хо £ Z* траектории x(t, х0) системы (3.34)
84 Глава 3. Устойчивость нелинейных систем целиком принадлежат множеству Z*. В частном случае, когда р = п и отобра¬ жение (3.35) обратимо, точка £* соответствует равновесному состоянию основной системы х* = 0_1(£*). Однако в общем случае многомерное множество Z* (как и рассмотренная в 3.3.1 плоскость) может вообще не содержать точечных положений равновесия х* (см. примеры 3.15-3.16). Таким образом, определение 3.9, вообще говоря, не требует, чтобы система (3.34) имела точечные равновесные состояния, но предполагает существование нетриви¬ альных инвариантных множеств, получивших название множеств нуль-динамики. Рис. 3.13. Множество нуль-динамики Определение 3.10. Наибольшее инвариантное множество (гиперповерхность) Z* системы (3.34), для которого выполняется тождество (3.46), называется множе¬ ством нуль-динамики системы (3.34)-(3.35). Понятие множества нуль-динамики становится особенно наглядным в случае, ко¬ гда £* = 0. Действительно, любое движение системы x(t), происходящее в пре¬ делах этого множества, порождает нулевое значение переменной £ (см. рис. 3.13— 3.16). Критерий частичного равновесия системы аналогичен критерию инвариантности множества Z* (см. 2.1.3 и рис. 2.7, а) и получается из условия £ = ф(х) = 0. После дифференцирования сложной функции 4>{x{t)) и подстановки (3.34) получаем дф дх f(x) x£Z* (3.47) Пример 3.15. Рассмотрим линейную систему Х\ — Х2, %2 = —aiXi — й2Х2, (3.48) где ai ^ 0, <22 Ф 0 (см. также примеры 2.9 и 2.10). Система имеет точечное равновесное состояние (0,0). Пусть выход системы определяется выражением = Х\. У (3.49)
3.2. Частичная устойчивость и устойчивость по выходу 85 Рассмотрим значение у = х\ = 0 и множество (прямую) Z* : х\ = 0. Критерий (3.47) приводит к выражению Х2 = 0, которое не выполняется для произвольных (xi,x2) € Z*, т. е. решение у = 0 не может быть частичным положением равнове¬ сия (см. рис. 3.14, а). хх Рис. 3.14. Устойчивость по функции (выходной переменной у, пример 3.15) Пусть для той же системы выход определяется выражением у = Xxi- х2, где А — вещественное число, удовлетворяющее уравнению А2 ■+■ а2Х ■+■ 0*1 = 0, (3.50) (3.51) т. е. полюс системы. Рассмотрим значение у — 0 и прямую Z* : - Ai^i •+• я2 = 0. Критерий (3.47) приводит к выражению |А -1| Х2 —aiXi — а2х2 = о, которое после подстановки Aixi — х2 = 0 принимает вид (А2 4- а2А + а\)х\ = 0. Последнее всегда справедливо в силу условия (3.51), и следовательно, у = 0 яв¬ ляется частичным положением равновесия, а прямая Z* — инвариантным множе¬ ством системы (рис. 3.14). Отметим, что множество Z* является одним из собственных подпространств си¬ стемы (3.48) (см. пример 2.10), инвариантность которого очевидна. □ Пример 3.16. Рассмотрим систему Х\ = fi(xi), х2 = -3(/i(rri) + 2xi)x\ - 6а:2, (3.52)
86 Глава 3. Устойчивость нелинейных систем Рис. 3.15. Устойчивость по функции (выходной переменной у, пример 3.16), устойчивое равновесное состояние х* у = х\ + х2- (3.53) Решения системы находятся как y(t) = (sfo + x2o)e~6t. (3.54) Точка у = 0 — выходное положение равновесия, которое соответствует инвариант¬ ному множеству (кривой) Z* : xf + Х2 = 0. Множество содержит одно равновесное состояние системы х* = 0, если, например, /1(^1) = —xi (рис. 3.15) или fi(xi) = х\ (рис. 3.16). В случае когда fx = 0, все точки кривой Z* являются равновесными, а если fx = const ф 0, система (3.52) вообще не имеет равновесных состояний. □ Определим окрестность поверхности Z* как односвязное открытое множество £(Z*) с X, содержащее Z*, и дадим следующие определения. Определение 3.11. Система (3.34)-(3.35) в положении равновесия £ = £* называ¬ ется частично устойчивой (по функции £), если отображение х0 ■—► £(t,xo), t > 0, непрерывно во всех точках х0 е Z*; частично асимптотически устойчивой (по функции £), если, кроме того, най¬ дется окрестность £°(Z*) (область притяжения) такая, что для всех х0 е £°(Z*) выполняется условие частичной аттрактивности liin £(^,ж0) = £*; (3.55) t—юо глобально частично асимптотически устойчивой (по функции £), если X = = £°(Z*) = Rn, т. е. условие аттрактивности (3.55) выполняется для всех х0 е Rn.
3.2. Частичная устойчивость и устойчивость по выходу 87 Рис. 3.16. Устойчивость по функции {выходной переменной у, пример Э16), неустойчивое равновесное состояние х* Пример 3.17. Рассмотрим линейную систему (3.48), (3.50) с частичным положени¬ ем равновесия у — 0 (пример 3.15). Система глобально частично асимптотически устойчива (рис. 3.14). При этом в зависимости от значения второго собственно¬ го числа система (3.48) может оказаться как асимптотически устойчивой, так и неустойчивой относительно точечного равновесного состояния (0,0), однако во всех случаях траектории системы притягиваются к множеству Z*. □ Пример 3.18. Анализ решения (3.54) свидетельствует о том, что система (3.52)- (3.53) (пример 3.16) асимптотически устойчива по функции у. При этом областью притяжения является все пространство R2, что позволяет сделать вывод о гло¬ бальной частичной асимптотической устойчивости. Это подтверждают и графики, приведенные на рис. 3.15 и 3.16, где все траектории притягиваются к множест¬ ву Z*. □ Замечание 3.3. Как и в случае устойчивости по части переменных (см. замечание 3.7), понятия устойчивости по функции не предполагают устойчивости системы (3.34) по переменным состояния, а скорее связаны с аттрактивностью поверхности Z*. Так, для глобально асимптотически устойчивой по выходу системы (3.43)— (3.44) при /i(0) = 0 точка (xi,x2) = (0,0) € Z* является устойчивым равновесным состоянием, если модель ±i = fi(xi) асимптотически устойчива (см. рис. 3.15), и неустойчивым состоянием в противном случае (см. рис. 3.16). С другой стороны, если fi(xi) = axi, где а — произвольное число, то несмотря на возможную неустойчивость равновесного состояния все траектории системы притягиваются к кривой Z. □ Инвариантное множество Z* частично асимптотически устойчивой системы часто является притягивающим множеством (аттрактором, см. 2.1.3). Для исследования частичной устойчивости системы (3.34)-(3.35) можно восполь¬
88 Глава 3. Устойчивость нелинейных систем зоваться следующим результатом, обобщающим условия теоремы 3.3 (доказатель¬ ство см. в [22, 26]). Пусть £* = 0, и iyi(£), w2(£), ги3(£) — положительно определенные функции. Теорема 3.10. Система (3.34)-(3.35) в положении равновесия £ = 0 частично устойчива, если в окрестности £(2*) существует функция Ляпунова V{x) такая, что Если, кроме того, V(x) < w2(£), V{x) < -w3(£), то система частично асимптотически устойчива. Если, кроме того, X — £(Z*) = Rn и функция w\(£) неограниченно возрастающая, то система глобально частично асимптотически устойчива. Пример 3.19. Проанализируем устойчивость системы (3.52)-(3.53), имеющей ча¬ стичное положение равновесия у — 0 (см. примеры 3.16 и 3.18). Выберем функцию Ляпунова V= \{Х\+Х2 )2==\у2’ производная которой на решениях системы определяется как V = -6(xJ 4- х2)2 и, следовательно, при у = (xf -f х2) Ф 0 строго отрицательна. Принимая также во внимание, что система (3.52) определена в R2, с помощью теоремы 3.10 уста¬ навливаем, что она глобально асимптотически устойчива по функции (выходной переменной) у. □ 3.2.3. Устойчивость по выходу Понятие частичной устойчивости приобретает особое значение при исследовании свойств динамических систем по отношению к выходым переменным. Напомним, что в линейном случае понятия устойчивости по выходной переменной (так называемая техническая устойчивость [24]) и устойчивости по всем пе¬ ременным состояния эквивалентны при условии полной наблюдаемости системы. Аналогичное утверждение может быть сформулировано и для нелинейных систем. Тем не менее в целом ряде случаев устойчивость по всем переменным состояния не требуется или даже противоречит условиям решаемой задачи управления. По¬ следнее касается в частности задач стабилизации энергии подвижных объектов [26, 40], согласованного управления, синхронизации колебательных процессов и орбитальной устойчивости (см. п. 5.1). Здесь объект управления должен находить¬ ся в движении, а некоторая выходная (регулируемая) переменная — оставаться
3.2. Частичная устойчивость и устойчивость по выходу 89 неизменной, что и приводит к необходимости рассмотрения вопроса устойчивости системы по указанной переменной. С другой стороны, ослабление требований к свойствам проектируемой системы часто позволяет упростить структуру регулятора, что особенно важно для нели¬ нейных систем, когда решение стандартной задачи стабилизации может оказаться трудно реализуемым или вообще невозможным. г Рис. 3.17. Система с выходом у Будем исследовать свойства динамической системы х = f(x) с выходом У = h(x) (3.56) (3.57) (см. рис. 3.17 и примеры 3.15-3.19). Пусть У = h{X), у еУ — скалярная выходная переменная, а функция h — гладкая в X. Будем рассматривать решения y(t) = y(t,xо) = h(x(t,xо)), t > О относительно выходного положения равновесия у* € У. При этом полагаем, что для значений х е X таких, что h(x) = у*, выполняется условие регулярности dh(x) дх Ф 0. Концепция устойчивости по выходу несколько отличается от концепции частичной устойчивости (см. определение 3.10), что обусловлено различиями соответствую¬ щих понятий положения равновесия. Дело в том, что из условия у(0,хо) = у* не всегда следует y(t,x0) = у*, несмотря на то что для определенных начальных зна¬ чений хо последнее тождество оказывается справедливым. Иными словами, мно¬ жество (поверхность) h(x) = 0 в общем случае не является инвариантным множе¬ ством системы, а только содержит некоторое инвариантное множество Меньшей размерности Z*, движение в котором и обеспечивает получение постоянного вы¬ ходного сигнала y(t,x0) = у*. Необходимость нахождения этого инвариантного множества и является основной особенностью задачи анализа устойчивости по выходу. Введем в рассмотрение /э-мерный вектор £ = #(х), (3.58)
Глава 3. Устойчивость нелинейных систем 90? где Н = {Hj} = {Cf1 h}, i = 1,2,..., р, (3.59) О < р < п, a C'fh — производные Ли функции h(x) по направлению векторного поля /(х) (см. 1.1.3). Нетрудно получить, что в этом случае ( = (у, V, .... (3.60) Рассмотрим точку е = (у*, о, ..., о) и множество (гиперповерхность) пространства Кп Z* = {xeX СГ: Н(х)=С}- Будем полагать, что Z* является регулярной гиперповерхностью размерности и = = п — р, т. е. для любых х е Z* выполняется: rank Н(х) = р. Тогда из условия x(t) е Z* следует, что £(£) = £*, т. е. точка € S является частичным положением равновесия системы (3.56), (3.58) (см. определение 3.9), а поверхность Z* — инвариантной поверхностью системы (см. определение 2.5). Более того, так как в силу определения Я(х) имеет место (3.60), то при £(t) = £* имеет место тождество у = у*, определяющее равновесие системы (3.56)—(3.57) по выходу у. Условием возникновения такого равновесного режима является су¬ ществование поверхности Z* и определенный выбор начальных условий: х0 € Z*. Определение 3.12. Точка у = у* называется выходным положением равновесия системы (3.56)-(3.57), если найдется множество Z* с X такое, что для всех х0 € Z* решения системы удовлетворяют условию y(t,x0) = у*. Напомним, что множество Z* системы (3.56), на котором траектории системы порождают нулевое или постоянное значение выходной переменной (рис. 3.13), называется множеством нуль-динамики (см. определение 3.10). Как следует из определения 3.12, существование множества нуль-динамики обеспечивает и су¬ ществование равновесного состояния системы по выходу: y(t,xо) = у*. В случае когда р — п, множество вырождается в точку х* — равновесное состояние системы (3.56), а при р = 1 имеет место полное совпадение понятий частичного положения равновесия и положения равновесия по выходной переменной, а следовательно, и соответствующих концепций устойчивости. Введем основные понятия устойчивости по выходу, близкие по формулировкам к введенным ранее определениям частичной устойчивости.
3.3. Пассивность и устойчивость по входу 9t Определение 3.13. Система (3.56)-(3.57) в положении равновесия у — у* называ¬ ется устойчивой по выходной переменной у, если отображение xq y(t,xо), где t > О, непрерывно во всех точках х0 е Z*\ асимптотически устойчивой по у, если, кроме того, найдется окрестность S°(Z*) (1область притяжения) такая, что для всех xQ е S°(Z*) выполняется условие аттрактивности по у, т. е. lim y(t) = у*; (3.61) t—к» глобально (в целом) асимптотически устойчивой по у, если X = S°(Z*) = Кп, т. е. условие аттрактивности (3.61) выполняется для всех х0 € Кп. Для проверки свойств устойчивости по выходной переменной может быть непо¬ средственно использована теорема 3.10. Единственной особенностью ее примене¬ ния является необходимость нахождения (по рассмотренной выше схеме) функции Н(х) и множества нулевой динамики Z*. Примером нелинейной системы, глобально асимптотически устойчивой по выходу, является рассмотренная ранее система (3.52) (см. пример 3.16 и рис. 3.15-3.16). 3.3. Пассивность и устойчивость по входу Наиболее распространенные понятия и методы теории устойчивости относятся к автономным динамическим системам. В то же время в большинстве практи¬ ческих приложений представляет интерес поведение системы под действием вход¬ ных сигналов — внешних возмущений определенного класса. В этом параграфе изучаются так называемые пассивные системы, обладающие ограниченной чув¬ ствительностью к аддитивным входным (возмущающим) воздействиям, а также свойство устойчивости системы по входу. 3.3.1. Пассивные системы Рис. 3.18. Возмущенная система Будем рассматривать глобальное поведение возмущенной системы (рис. 3.18) (3.62) х f(x) + d(x)w
92 Глава 3. Устойчивость нелинейных систем где х е R", w = w(t) — скалярный входной сигнал (возмущающее воздействие), t > О, а вектор-функция d(x) для любых х ограничена: \d{x)\ < Д«,. (3.63) Сформируем скалярный выход u(f): v = h(x) ' (3.64) и определим показатель Попова (см. 1.2.1) системы (3.62), (3.64) r)(t) = 2 f v(t) w(t) dr. (3.65) Jo Определение 3.14. Система (3.62), (3.64) называется пассивной, если для любых w = w(t) и t > 0 существуют скалярные функции V(x) > 0 и W(x) > О такие, что выполняется условие пассивности Ф) = V{x) Ф) + Xq f W{x) dr. Jo (3.66) Условие пассивности может быть также записано в дифференциальной форме: V(x) = - W(x) + 2 та. (3.67) Функция V(x) в определении 3.14 (как и функция Ляпунова, см. 3.1.3) характе¬ ризует запасенную энергию системы и называется функцией запаса, а функция в правой части неравенства (3.67), характеризующая скорость изменения V(x), — функцией расхода. В отсутствие входного сигнала (w = 0) из выражения (3.67) получаем, что V(x) < 0, т. е. энергия пассивной системы не возрастает. Естественно, что увеличение энер¬ гии может происходить благодаря ненулевому входному воздействию w(t), а не за счет внутренних источников, чем и объясняется термин пассивная система. Замечание 3.4. Пассивные системы обладают свойством положительности (см. 1.2.1), т. е. удовлетворяют неравенству Попова Ф) > -Vo, где У0 = V(0) > 0. □
3.3. Пассивность и устойчивость по входу Определение 3.15. Пассивная система (3.62), (3.64) называется строго пассив¬ ной, если W(x) — возрастающая функция и W(x) > 0. Как следует из определения 3.15, основной особенностью строго пассивной си¬ стемы является знакоопределенность функции W(x). При этом функция запаса приобретает сходство с функцией Ляпунова асимптотически устойчивой системы. Действительно, в отсутствие входного сигнала (w = 0) неравенство (3.67) прини¬ мает вид V(x) = — W(x) < 0. (3.68) Если, кроме того, функция запаса V(x) положительно определена и неограниченно возрастает (с ростом |х|), то по теореме 3.7 (см. также замечание 3.2а) система (3.62) глобально асимптотически устойчива. Таким образом, строго пассивная система (3.62), (3.64) с возрастающей положительно определенной функцией запаса V(х) в отсутствие входного воздействия глобально асимптотически устойчива в точке х = 0. При определенных условиях имеет место и обратное утверждение. Найдем произ¬ водную функции запаса V(x) на решениях системы (3.62): dV dV V(x) = fcf{x)+fad{x)w- (3-б9) Обозначим W(x) = - §£/(*), (370) а функцию h(x) в уравнении выхода (3.64) выберем как 1 dV Кх) = 2d^d(x)- (3J1) При этом уравнение (3.69) принимает вид (3.67), что является условием строгой пассивности, если V(x) > 0, a W{x) — возрастающая положительно определенная функция (определение 3.15). Пусть при w = 0 система (3.62) глобально (равномерно) асимптотически устой¬ чива. Тогда (см. теорему 3.7 и замечание 3.2а) существует функция V(x) > 0 и возрастающая функция W(x) > 0, т. е. возмущенная система (3.62) является строго пассивной. Таким образом, глобально (равномерно) асимптотически устойчивая система (3.62) с выходом (3.64) строго пассивна с функцией запаса V(x) > 0, если функция h(x) удовлетворяет условию (3.71).
Глава 3. Устойчивость нелинейных систем 94 Рассмотрим линейную возмущенную систему х = Ах + dw, (3.72) которая может быть получена в результате линеаризации гладкой нелинейной си¬ стемы (см. 3.1.2). Введем в рассмотрение квадратичную функцию запаса V(x) = хтРх, (3.73) где матрица Р = Рт является решением уравнения Ляпунова: АТР + РА = -Q, (3.74) Q = QT > 0. Сформируем выходную переменную системы в соответствии с усло¬ вием (3.71), т. е. v — стх, (3.75) где матрица-строка ст находится как ст = dTP. (3.76) Проанализируем показатель Попова (3.65). С учетом выражений (3.74) и (3.76) получим V — — xTQx 4- 2vw (3.77) или, после интегрирования, — выражение 7](t) = хтРх x(t) х0 dr, (3.78) где W{x) = xTQx > 0. Если в результате решения уравнения (3.74) найдется мат¬ рица Р > 0, то V{x) = хтРх > 0, и рассматриваемая система является пассивной (определение 3.14). Выберем Q > 0, и следовательно, W(x) = xTQx > 0. Тогда необходимым и доста¬ точным условием строгой пассивности рассматриваемой системы (см. определение 3.15) является существование решения Р > 0. Если система (3.72) асимптотически устойчива, т. е. матрица А гурвицева: Re А* {Л} < 0, то в соответствии с леммой Ляпунова (см. 3.1.4) результатом решения уравнения (3.74) будет Р > 0. Такая система с очевидностью является строго пассивной. С другой стороны, если система строго пассивна и Р > 0, то по лемме Ляпунова она асимптотически устойчива. Замечание 3.5. Существование положительно определенной матрицы Р, удовле¬ творяющей уравнениям (3.74) и (3.76), где Q > 0, позволяет сделать вывод, что передаточная функция системы (3.72), (3.75) W(s) = cT(sI — A)~lb
3.3. Пассивность и устойчивость по входу 95 является строго вещественно-положительной, т. е. Re W^s) > 0 при Re s > О (см. также лемму Якубовича-Калмана, [26, 31]). Последнее свойство подразуме¬ вает следующее: а) относительная степень системы (разность порядков знаменателя и числителя) равна 1; б) система (3.74) является асимптотически устойчивой: Re Ai {А} <0, г = 1,2,..., п, т. е. полюсы передаточной функции W(s) лежат в левой полуплоскости; в) , Re W(juj) > 0 при и> > 0, т. е. годограф частотной передаточной функции W(ju>) (АФЧХ) для любых значе¬ ний и> > 0 лежит в правой полуплоскости комплексной плоскости. Рис. 3.19. Годографы W(ju>) и понятие вещественно-положительносги На рис. 3.19, а приведен годограф строго вещественно-положительной передаточ¬ ной функции W{s) 2s -f- 3 s2 + 4s + 3 ’ а на рис. 3.19, б и 3.19, в представлены годографы передаточных функций W{s) 3 s2 4- 4s + 3 и W(s) 2s s2 + 4s + 3 ’ которые не удовлетворяют условию вещественно-положительности.
Глава 3. Устойчивость нелинейных систем 3.3.2. Устойчивость по входу Понятие устойчивости по входному воздействию определяется свойством системы обеспечивать ограниченное изменение переменных состояния при ограниченных сигналах на ее .входе. Устойчивость по входу связана как со свойством пассив¬ ности, так и со свойством асимптотической устойчивости системы. Однако ес¬ ли для линейных систем из асимптотической устойчивости автономной системы безусловно следует ограниченность переменных состояния при ограниченных вход¬ ных воздействиях (см. ниже), то для нелинейных систем это заключение, вообще говоря, несправедливо. Пример 3.20. Рассмотрим систему х = — х -f 5 (cos х) w. (3.79) Очевидно, что при w = 0 система асимптотически устойчива. При ограниченных воздействиях w(t) переменная х также является ограниченной, что иллюстрирует¬ ся рис. 3.20, а. □ Рис. 3.20. Устойчивое (а) и неустойчивое (б) поведение возмущенной системы Пример 3.21. Теперь рассмотрим систему х = —х + (0.5 4- х2) w, (3.80) которая также асимптотически устойчива при w = 0. Однако ограниченные вход¬ ные воздействия w(t) вызывают неограниченное изменение переменной х, что ил¬ люстрируется рис. 3.20, б. □ Общее понятие устойчивости по входному воздействию устанавливается следую¬ щим образом.
3.3. Пассивность и устойчивость по входу 97 Определение 3.16. Система (3.62) называется устойчивой по входу, если для входного сигнала w(t) е Ср (1 < р < оо) состояние системы удовлетворяет условию И*)| € Ср. Таким образом, устойчивость по входу (или устойчивость вход-состояние) под¬ разумевает получение ограниченного (в смысле данной функциональной нормы Ср, см. 1.1.2) вектора состояния для ограниченного входного сигнала. В частных слууаях имеется в виду интегральная ограниченность сигналов (£i) либо ограни¬ ченность абсолютных значений (£оо)- Устойчивость по входу тесно связана со свойствами пассивности и глобальной асимптотической устойчивости. Рассмотрим систему (3.62), (3.64), полагая, что функция h(x) выбирается из условия (3.71), где V(x) — функция запаса, a W(x) определяется выражением (3.70). Пусть система (3.62) (в отсутствие входного воздействия w) глобально (равномерно) асимптотически устойчива, и следователь¬ но, справедливо выражение (3.67), где V(x) > 0 я W(x) > 0, что обеспечивает строгую пассивность рассматриваемой системы (см. определение 3.15). Определим число а0 > 0 такое, что W(x) > 2a0V{x), и из выражения (3.67) получим неравенство V + 2а0 V < Щх) w. (3.81) Допустим, что найдется число (3 > 0 такое, что h(x) = ~d(z) < 0 |*|. (3.82) Тогда неравенство (3.81) примет вид V -(- 2а0 V < 2(3 |х| |гу|. (3.83) Из последнего выражения при условии, что V(x) неограниченно возрастает, найдем d — |х| + а0|х| < (3 \w\, (3.84) где (3 > 0. Неравенство (3.84) показывает, что система (3.62), (3.64) является устойчивой по входу w (определение 3.16). Таким образом, глобально (равномерно) асимптотически устойчивая система (3.62) с выходом (3.64) устойчива по входу w, если функция h(x) удовлетво¬ ряет условию (3.82). Рассмотрим асимптотически устойчивую линейную систему (3.72) с выходом (3.75), полагая, что V{x) = хТРх, W(x) = xTQx, матрица Р является реше¬ нием матричного уравнения (3.74), а матрица с находится из выражения (3.76). При этом функция запаса V(x) удовлетворяет уравнению (3.77). 4 Зак. 281
98 Глава 3. Устойчивость нелинейных систем Выберем Q > 0, что обеспечивает существование решения Р > 0 и строгую пас¬ сивность системы. Найдем ао > 0 такое, что Q > 2 а0Р, и перепишем выражение (3.77) в виде V + 2с*о V < 2vw = 2bTРх w. (3.85) Из последнего выражения нетрудно получить неравенство ^|аг|р + а0|а?|р < \Ь\Р |ги|, (3.86) которое показывает, что система является устойчивой по входу w (определение 3.16). Таким образом, асимптотически устойчивая линейная система всегда является устойчивой по входу.
Глава 4. Методы управления гладкими системами Одним из важнейших инструментов анализа и синтеза нелинейных систем явля¬ ется преобразование координат, направленное на получение эквивалентных пред¬ ставлений динамической модели и позволяющее в целом ряде случаев решать нетривиальные задачи управления с помощью хорошо изученных методов линей¬ ной теории. В этой главе изучаются основные методы преобразования нелинейных систем, вводятся канонические формы, а также рассматриваются вопросы стаби¬ лизации и управления гладкими нелинейными системами различной структуры. 4.1. Эквивалентные формы, линеаризация и стабилизация состояния Различного рода эквивалентные преобразования широко используются для ана¬ лиза и синтеза как линейных, так и нелинейных динамических систем. Одна¬ ко в отличие от теории линейных системы, где преобразование координат играет вспомогательную роль (является иллюстративным инструментом или служит для упрощения доказательств), в нелинейной теории без приведения системы к той или иной эквивалентной форме часто не удается получить аналитического реше¬ ния многих проблем управления. Исключительную роль здесь играют нелинейные преобразования и приемы линеаризации, позволяющие получить линейные или подобные им эквивалентные модели, допускающие в дальнейшем возможность ис¬ пользования известных методов линейной теории. В этом разделе приведены общие понятия эквивалентности нелинейных моделей вход-состояние, основные свойства эквивалентных моделей (полнота, устойчи¬ вость, управляемость), основные канонические формы, методы линеаризации — получения линейных (линеаризованных) моделей и, наконец, методы стабилиза¬ ции нелинейных систем, основанные на использовании эквивалентных представ¬
100 Глава 4. Методы управления гладкими системами лений. Эквивалентные преобразования нелинейных моделей вход-выход, а также вопросы стабилизации систем по выходным переменным рассматриваются в п. 4.2. 4.1.1. Преобразование автономных систем Сначала рассмотрим автономные динамические системы, первая из которых опи¬ сывается уравнением х = f(x), (4.1) где х € X с Rn, а вторая — 4 = <*(£), (4.2) где £ € Е С Rn. Здесь / и а — гладкие вектор-функции, определенные на открытых множествах X и Е соответственно. В силу гладкости систем (4.1) и (4.2) для любых начальных условий х0 е X и £0 € Е уравнения (4.1) и (4.2) имеют единственные решения: x(t)=x(t,x0) и £(*) =£(t,4o), определенные на некотором временном интервале [0,Т), Т > 0 (см. 2.2.1-2.2.2). Введем в рассмотрение отображение X S: £ = #*)• * (4-3) Отметим, что данное отображение, с одной стороны, определяет связь систем координат двух множеств X и Е, принадлежащих различным пространствам (активная точка зрения, рис. 4.1, а), а с другой — изменение (преобразо¬ вание) системы координат единого пространства Rn (пассивная точка зрения, рис. 4.1, б). Дадим следующие определения. Рис. 4.1. Преобразование координат — активная (а) и пассивная (б) трактовки Определение 4.1. Отображение (4.3) называется регулярным преобразованием координат системы (4.1) в области Л1 с 1”, если отображение (4.3) — диффео¬ морфизм X 5.
4.1. Эквивалентные формы, линеаризация и стабилизация состояния 101 Напомним, что гладкое отображение (4.3) называется диффеоморфизмом, если оно взаимно однозначно, и обратное отображение х = Ф~г(£) также является гладким (см. 1.1.2). Локальный диффеоморфизм (в малой окрестности точки х*) предполагает соблюдение рангового условия: rank ф(х*) = га, что означает, что для х = х* матрица Якоби отображения (4.3) не вырождена, т. е. Определение 4.2. Системы (4.1) и (4.2) называются эквивалентными (в соот¬ ветствующих областях определения), если найдется регулярное преобразование координат (4.3) такое, что для любых х0 £ X, £0 = ф(х0) £ Е и t £ [0,Т) выполня¬ ется Системы (4.1) и (4.2) называются глобально эквивалентными, если X = Н = Rn и системы эквивалентны во всем пространстве Rn. Замечание 4.1. Определения эквивалентности вводятся для ограниченного вре¬ менного интервала [0, Т), что дает возможность изучать системы, не являющиеся полными, а также системы, свойства которых для любых моментов времени t за¬ ранее не известны (см. примеры 2.1-2.2 и рис. 4.2). □ Далее рассматриваются в основном локальные свойства нелинейной системы, т. е. ее свойства в достаточно малой окрестности 8{х*) точки х* £ X. Пример 4.1. Рассмотрим систему (4.4) i (Zo,t) = Ф о х (хо, г). (4.5) 1 (4.6) х х заданную на множестве х £ (0,оо), с решениями (см. рис. 4.2, а)
102 Глава 4. Методы управления гладкими системами которое в рассматриваемых областях является диффеоморфизмом, и, следова¬ тельно, системы эквивалентны. Отметим, что первая система не является полной и поэтому эквивалентность имеет место лишь на ограниченном временном интер¬ вале. □ Для вывода критерия эквивалентности автономных систем продифференцируем (4.3) по времени. Получим ; дф . с = — х, S о ^ ОХ и подставив (4.1) и (4.2), найдем “«о = §* /(*), где £ = ф{х). Таким образом, критерий формулируется следующим образом. Теорема 4.1. Системы (4.1) и (4.2) эквивалентны тогда и только тогда, когда существует регулярное преобразование координат (4.3) такое, что для любой точки х £ X имеет место а ° ^Х^ = ^ №)> т. е. векторные поля f(x) и а(£) ^-связаны. 0 0,5 1 1,5 t,c 0 0,5 1 1,5 t, с Рис. 4.2. Переходные процессы эквивалентных систем Пример 4.2. Система ( = -3 определенная на множестве £ € (0,оо), эквивалентна системе (4.6) (решения при¬ ведены на рис. 4.2). Действительно, координаты систем связаны соотношением £ - х3, а правые части их моделей — соотношением £ = х'~
4.1. Эквивалентные формы, линеаризация и стабилизация состояния 103 Как и в примере 4.1, отметим, что эквивалентность имеет место на ограниченном временном интервале (см. рис. 4.2). □ Преобразования координат используются для нахождения специальных (канонических) форм представления нелинейной системы. Наибольшее распространение получила следующая каноническая форма. Опреде¬ лим вспомогательную выходную переменную У = Ф\{х), (4.7) где фх — гладкая функция, и применим процедуру последовательного дифферен¬ цирования. Дифференцируя (4.7) по времени и подставляя уравнение системы (4.1), находим У = <ЫЖ), (4.8) где ф2 = (дфх/дх)/. Дифференцируя (4.8) по времени, находим У = Фз{х), (4.9) где фз = (дф2/дх)/. На п - 1 шаге процедуры получаем У(п~1} = Фп{х), где фп = (дфп_i/dx)f, а на га-м — - 9Ь- (4.10) (4.11) Последнее выражение и дает скалярную форму описания искомой канонической модели. Для перехода к виду (4.2) введем в рассмотрение новые переменные состояния £i = у, & = у, ■ ■ ■ ■> Сп-1 — у{п 2\ 1 £ II с Uy5 (4.12) и функцию / V 9фп <*(*) = wf- (4.13) Перепишем уравнения (4.8)—(4.11) в виде £l = &2, &2 = £з, ••• , £п-1 = £п, 4s Ж II (4.14) где а = а о . Для получения векторной формы определим преобразованный вектор состояния £ - Ф(х), (4.15)
104 Глава 4. Методы управления гладкими системами где ф(х) = {Фг (ж)}, г = 1,2,..., гг, (4.16) полагая, что функция фх(х) выбрана из условия регулярности преобразования (4.7), т. е. для любых х £ X выполняется условие (4.4) и существует обратное преобразование *= Ф~ЧО- (4-17) Выражения (4.14) принимают вид: £ = Ло£ + &о <*(£), 0 1 0 . . 0 0 0 0 1 0 0 II о 0 0 0 . . 1 , Ъ0 = 0 0 0 0 . . 0 1 (4.18) (4.19) (рис. 4.3). По теореме 4.1 полученная модель эквивалентна исходной системе (4.1), если преобразование (4.15) удовлетворяет условию регулярности (4.4), что и опре¬ деляет основное требование к выбору вспомогательного выхода (4.7). Рис. 4.3. Каноническая форма автономной системы Замечание 4.2. Для автономной системы (4.1), используя формализм производных Ли (см. 1.1.3), можно записать Фг = С°фх, дфх дх Фх = Чг1 = С)Фи Фх = д_ дх {с)ф1)} = С) С)фх=С)фи и т. д. Таким образом, имеет место свойство # = 4 Фи (4.20)
4.1. Эквивалентные формы, линеаризация и стабилизация состояния 105 позволяющее упростить выражения, использующиеся в процедуре последователь¬ ного дифференцирования и, в частности, записать г = 1,2,..., п, (4.21) а(х) = £}ф1. (4.22) □ Эквивалентные системы обладают целым рядом идентичных свойств. Некоторые из них устанавливаются следующей теоремой. Теорема 4.2. Пусть системы (4.1) и (4.2) эквивалентны. Тогда: 1) система (4.1) является полной на множестве X тогда и только тогда, когда система (4.2) является полной на множестве Е; 2) точка х* является положением равновесия системы (4.1) тогда и только тогда, когда точка £* = ф(х*) — положение равновесия системы (4.2); 3) положение равновесия х* системы (4.1) устойчиво (асимптотически устойчи¬ во) тогда и только тогда, когда положение равновесия £* = ф(х*) системы (4.2) устойчиво (асимптотически устойчиво). Таким образом, эквивалентные преобразования предоставляют возможность иссле¬ дования свойств полноты и устойчивости основной системы на базе более простых эквивалентных моделей. 4.1.2. Преобразования объекта управления и канонические формы Рассмотрим динамическую систему (объект управления), представленную моделью вход-состояние вида х = f(x)+g(x)u, (4.23) где и = u(t) — скалярное управляющее (входное) воздействие (ограниченное на любом конечном интервале времени [to,T), Т > t0 > 0); д — гладкое векторное поле на множестве X. Тогда для любого значения £0 и произвольного начального состояния х0 = ж(^о) € X существует единственное решение уравнения (4.23) х = x(t,x0,t0), определенное на некотором интервале t € [to,T) (см. 2.2.1-2.2.3). Рассмотрим также систему t = а(0 + Ь(0«, (4-24) где £ € Е С Rn, 6 — векторное поле, гладкое на Е. Для любых £0 и £(£0) = £о € 5 найдется решение уравнения (4.24) № = *о),
106 Глава 4. Методы управления гладкими системами определенное на некотором интервале времени. Понятие эквивалентности неавто¬ номных систем практически повторяет определение 4.2, в котором тождество (4.5) заменяется выражением £(*,&>, *о) = ф о x(t,x0,t0), £<Е[£0,Т), (4.25) и поэтому можно предложить следующее обобщение критерия эквивалентности. Теорема 4.3. Системы (4.23) и (4.24) эквивалентны тогда и только тогда, ко¬ гда существует регулярное преобразование координат (4.3) такое, что для любых х е X имеет место а о ф(х) = |^/(z), Ь о ф(х) = г^д(х), (4.26) т. е. векторные поля f(x) и а(£), а также д(х) и Ь(£) ф-связаны. Эквивалентные преобразования рассматриваемого типа используются для нахож¬ дения специальных (канонических) форм представления нелинейных систем, а так¬ же для исследования свойств наблюдаемости и управляемости (см. 4.1.3). Опреде¬ лим матрицы Сх(х) = {£°fg\£lfg\ ... \£]~1д], Се«) = {£°b\£lb\ ... |£ГЧ которые называются матрицами (локальной) управляемости. Теорема 4.4. Если системы (4.23) и (4.24) эквивалентны, то матрицы управляе¬ мости Сх и для любых х е X связаны соотношением Q о Ф(х) = Сх(х). Теоремы 4.3 и 4.4 служат основанием для преобразования нелинейной системы к различным эквивалентным формам. 1-я каноническая форма имеет вид (рис. 4.4) 6 = £ = £з, • • • , in = с?(0 + Щ (4.27) где а (£) — скалярная функция. Модель получается, если в уравнении (4.24) положить а(0 = -4о£ + Ьоа(0> где матрицы А0 и Ь0 определены выражениями (4.19). Нетрудно получить, что 0 ... (-I)”"1 5 -1 ... * * ... *
4.1. Эквивалентные формы, линеаризация и стабилизация состояния 107 Рис. 4.4. Каноническая модель нелинейной системы (1-я форма) причем матрица с очевидностью не вырождена: det С£ ф 0. 2-я каноническая форма получается, если в уравнении (4.24) положить а({) = Л^ + а(£„), Щ)=Ъ\ где а = {а*} (г = 1,2,..., п) — векторная функция, 1 0 0 0 Можно записать £l = (£п) 4 ^2 = £l 4"" (£n)j ■ • ■ ; = £п— 1 4” ®п(£п)> что соответствует модели, представленной на рис. 4.5. Нетрудно получить Ср и >0—► Г i к J а —; :—1 0 . 0 -1 • о • • о .. (-1)"-1 ГП 5.-1 ‘п-1 Т“ ап Т Рис. 4.5. Каноническая модель нелинейной системы (2-я форма)
108 Глава 4. Методы управления гладкими системами причем матрица не вырождена: det Ф 0. Отметим, что приведение ко 2-й канонической форме возможно лишь для доста¬ точно ограниченного класса нелинейных моделей. Наибольшее распространение получила так называемая основная каноническая форма, сходная с моделью (4.27). Для ее построения используется так называемое основное преобразование, которое заключается в последовательном дифференци¬ ровании уравнения выхода системы, т. е. аналогично процедуре, рассмотренной в 4.1.1. Определим вспомогательную выходную переменную у = ф\ (ж), (4.28) где фх — гладкая функция, а также функции дф1-1 дх /, г = 2,..., гг. Функцию ф\{х) выберем так, чтобы для любых х е X выполнялось: а) дфг дх У = 0, г = 1,2,..., тг — 1; б) дфп дх 9 Ф 0- (4.29) (4.30) (4.31) Теперь в силу условий (4.30) получим выражения (4.8)—(4.10) и у(п) = 9Ь+Ъи- <4-32> Последнее уравнение и дает скалярную форму описания искомой канонической модели. Для перехода к форме Коши и далее к виду (4.24) введем в рассмотрение новые переменные состояния «1 = у, & = In-! = У(п-2), «„ = i/"-1* (4.33) и преобразованный вектор состояния £ = Ф(х), (4.34) где Ф(х) = {Ффх)}, г = 1,2,..., гг, полагая, что вектор-функция ф\(х) удовлетворяет дополнительному условию:
4.1. Эквивалентные формы, линеаризация и стабилизация состояния 109 в) преобразование (4.34) является регулярным, т. е. для любых х £ X выпол¬ няется условие (4.4) и существует обратное преобразование х= ф-\®. (4.35) Перепишем уравнения (4.8)—(4.10), (4.32) в виде 6 = 6г, & = £з, ••• , £n-i = £n, in = а(х)+(3(х)и, (4.36) где Q(x) = ikf’ 0{х) = it9 ф °’ (4-37) что и соответствует искомой основной канонической форме. Ее векторный аналог имеет вид (рис. 4.6) i = А0£ + Ьо (^(ж) + /3(х) wj, (4.38) где пара канонических матриц А0,Ьо полностью управляема и (3 Ф 0. Рис. 4.6. Основная каноническая форма Замечание 4.3. Для системы (4.23) при условии а) имеет место свойство Ф? = С}Фи (4.39) аналогичное свойству (4.20) автономной системы (4.1) (см. замечание 4.2) и поз¬ воляющее упростить полученные выражения и, в частности, записать (f>i(x) = Clf 1ф 1, (4.40) ^Фг р pi— 1 1 Эх9 ~ CsCf Фи (4.41) п. Тогда условия а)-б) принимают вид £>дф\ — Е'дЕ^Фх = . • • = ДдДу 2Ф\ = 0; (4.42) 0{х) = ф 0 (4.43) а(х) = С]ф\. (4.44) □
110 Гпава 4. Методы управления гладкими системами Так как гипотеза в) обеспечивает существование обратного отображения, то урав¬ нения (4.36) можно переписать в виде £i =£2» £2 = £з> ••• , = а(£) + (4.45) где а = а о ф~1, (3 = (3 о ф~1. Замечание 4.4. Модель (4.45) подобна ранее рассмотренной канонической фо^ме (4.27). Действительно, выбрав вспомогательный выход в виде у — ф{х), где ф = = фъ/Р, сразу же получим эквивалентную модель вида (4.27). □ Нетрудно показать, что при условии в) модель (4.45) удовлетворяет условиям тео¬ ремы 4.3 и, следовательно, система (4.23) эквивалентна основной канонической форме (4.45). Таким образом, система (4.23) приводима к виду (4.45), если можно отыскать вспомогательный выход (4.28), где гладкая функция ф\ является решением систе¬ мы дифференциальных уравнений в частных производных (4.30). Возникает вопрос: в каких случаях существует требуемая функция 0i? Есть про¬ стой способ проверки существования и, следовательно, локальной эквивалентности моделей, связанный с локальными свойствами матрицы Сх = \£?,д\С)д\ ... \С’}~1д] и подпространства (распределения, см. 1.1.3) Qx(x) = span{C°fg,C)g, ... ,Cnf~lg}. Теорема 4.5. Пусть в точке х* е X выполняются det Сх(х*) ф 0, и распределение Qx инволютивно в некоторой окрестности £{х*). Тогда найдется регулярное преобразование координат (4.34) такое, что в некоторой окрестности £(х*) система (4.23) (локально) эквивалентна системе (4.45). Отметим, что упрощенные условия эквивалентности не исключают необходимо¬ сти нахождения вспомогательного выхода системы (4.28), т. е. решения уравнений в частных производных (4.30). 4.1.3. Управляемость нелинейных систем Возможность приведения к основной форме тесно связана с управляемостью систе¬ мы управления. Каноническая модель (4.38) с очевидностью управляема во всем
4.1. Эквивалентные формы, линеаризация и стабилизация состояния 111 пространстве Еп. При этом матрица управляемости О О Q(0 = № 0 -1 1 * (-1) * * для любых £ € Н невырождена, т. е. выполняется detQ(£) ф 0.г (4.46) Поэтому и вопрос об управляемости основной системы зависит от возможности преобразования к виду (4.38), т. е. существования регулярного преобразования координат (4.34). Напомним, что концепция управляемости связана с существованием управления, переводящего динамическую систему за конечное время в заданную точку х — х/ (см. [1, 2, 15, 24] и т. д.). Для нелинейных систем можно ввести несколько понятий полной управляемости (рис. 4.7). а б в Рис. 4.7. Управляемость нелинейных систем Определение 4.3. Система (4.23) называется (локально) управляемой в точке х* е X, если найдется окрестность £{х*) такая, что для любых Xf е £{х*) суще¬ ствует Tf > to и ограниченное управление u(t), t е \to,Tf], обеспечивающее x(t,x*,to) е £(х*) при t е [t0,Tf], x(Tf, x*,to) =xf. Система (4.23) называется управляемой на множестве X, если она управляема во всех точках х* е X, и £{х*) = X. Система (4.23) называется глобально управляемой, если она определена и управ¬ ляема во всех точках х* € Мп, и £{х*) = Мп. Отметим, что для случая X = IRn понятие управляемости нелинейной системы соответствует хорошо известному определению полной управляемости теории ли¬ нейных систем [1, 2, 15, 24].
Глава 4. Методы управления гладкими системами m Следующее предложение показывает, что свойство управляемости сохраняется при эквивалентных преобразованиях. Теорема 4.6. Пусть системы (4.23) и (4.24) эквивалентны. Тогда система (4.23) управляема в точке х* (на множестве X, в пространстве Rn) тогда и только тогда, когда система (4.24) управляема в точке £* = ф(х*) (на множестве Е = ф(Х), в пространстве Rn). Теорема 4.6 дает возможность проанализировать управляемость системы, иссле¬ дуя свойства более простых эквивалентных моделей. Так, для случая, когда X = Е = Rn, отмеченная ранее управляемость в Rn канонической модели (4.38) обеспечивает (при условии существования регулярного преобразования (4.34)) управляемость в Rn основной системы. К сожалению, общие условия существова¬ ния глобального преобразования и, в частности, условия диффеоморфизма отобра¬ жения (4.34)) отсутствуют, а его нахождение и проверка регулярности во всем про¬ странстве состояний не тривиальны. Более того, для многих нелинейных систем глобального преобразования не существует вообще. Поэтому большее распростра¬ нение получила локальная трактовка условий управляемости (в малой окрестности £(**)). Теорема 4.5 предлагает простые условия локальной эквивалентности моделей (4.23) и (4.45). Так как каноническая форма (4.45) управляема в любой точке £* 6 Е, то по теореме 4.6 при тех же условиях обеспечивается управляемость ис¬ ходной системы (4.23) в точке £* = ф{х*). Таким образом, имеет место следующая формулировка условий локальной управляемости. Теорема 4.7. Пусть в точке х* е X выполняется det Сх ф О, и распределение Qx инволютивно в некоторой окрестности £{х*). Тогда система (4.23) (локально) управляема в точке х*. 4.1.4. Методы линеаризации и алгоритмы локальной стабилизации Свойства управляемости динамических систем и методы преобразования коорди¬ нат тесно связаны с проблемами линеаризации нелинейных моделей. Точная линеаризация. Задача точной линеаризации формулируется следующим образом: найти такое нелинейное преобразования управляющих воздействий (ал¬ горитм точной линеаризации) и = U(x) -f L(x)u, (4.47)
4.1. Эквивалентные формы, линеаризация и стабилизация состояния 113 при котором на множестве X система линейна или эквивалентна ли¬ нейной модели. Здесь и — новое управляющее воздействие; U и L — гладкие функции. Подставляя (4.47) в уравнение системы (4.23), получаем х = f(x) + g(x)u, (4.48) где / = / + gU, g = gL. Таким образом, рассматриваемая задача сводится к нахождению компонент U и L, которые обеспечивают эквивалентность системы (4.48) и некоторой линейной системы (обычно одной из основных канонических форм [1, 2, 15, 24]). Следующий пример иллюстрирует указанную проблему. Пример 4.3. Рассмотрим систему первого порядка х = f(x) + g(x)u, (4.49) где g(x) ф 0. Управление и = 1(-/ + й) (4.50) позволяет привести систему к виду х = щ (4.51) т. е. скомпенсировать все нелинейные компоненты. Тем не менее для системы второго порядка ’ Х\ = fi(xi), ±2 = f(x!,x2) + g(x)u (4.52) управление (4.50) не обеспечивает линеаризации, чем и обусловлена основная сложность проблемы. □ Для нахождения алгоритма точной линеаризации воспользуемся преобразованием координат (4.34) и получим основную форму (4.38), которая в условиях теоремы 4.5 эквивалентна (4.23). Рассмотрим алгоритм а(ж) 1 _ U Р{х) + (3{х) U' (4.53) Подставив в (4.36), получаем модель цепной формы (цепь интеграторов, рис. 4.8): £i = £2, £2 = £з, • • • , £n-i = £п, £п = и, (4.54) или £ = До£ + Ь0и. (4.55)
114 Методы управления гладкими системами Рис. 4.8. Линеаризованная модель — цепная форма Таким образом, алгоритм линеаризации (4.53), или (4.47), где - ~т • ь(х) = т• (456) обеспечивает получение линейной полностью управляемой эквивалентной модели (4.55) за счет полной компенсации нелинейных компонент а(ж), Р(х), что и под¬ разумевается под термином точная линеаризация. При этом исходная система (4.23) имеет вид (4.48), где , а _ 1 /-й«. 9=-z 9, Р Р т. е. остается нелинейной. Подчеркнем, что для эквивалентности моделей (4.48) и (4.55) требуется выполне¬ ние гипотезы теоремы 4.5, что в силу теоремы 4.7 соответствует условию локаль¬ ной управляемости системы. Рассмотренный прием предоставляет прекрасные возможности для решения цело¬ го ряда нелинейных проблем управления с использованием стандартных методов теории линейных систем. Стабилизация состояния. Задача стабилизации нелинейной системы по отно¬ шению к положению равновесия х* = ф~\0) решается выбором линейного по £ и нелинейного по х статического алгоритма и = к £ = к ф(х), (4.57) где к = {&*} — матрица-строка коэффициентов обратной связи: к = [ki к2 ... кп]. Система (4.55) принимает вид £ = Act (4-58) где Ас = Ао + Ьок. Так как пара (А0,Ьо) полностью управляема, то матрица к может быть получена из обычного условия Re Лi{Ac} < 0, что и обеспечивает требуемую устойчивость модели (4.58).
4,1. Эквивалентные формы, линеаризация и стабилизация состояния 115 Модель исходной системы получается подстановкой (4.57) в (4.48): х = fc(x), (4.59) где Эквивалентность моделей имеет место при условии управляемости (теоремы 4.5 и 4.7). Тогда по теореме 4.2 можно гарантировать, что при указанном выборе управления достигается локальная асимптотическая устойчивость исходной дина¬ мической системы (4.59). Общая структура полученного регулятора включает уравнения (4.47), (4.53) и имеет вид Замечание 4.5. Учитывая ранее введенные обозначения (см. замечания 4.2-4.3), можно записать следующую формулу управления, обеспечивающего решение за¬ дачи стабилизации состояния: Напомним, что основные сложности рассматриваемого подхода связаны с необхо¬ димостью выбора подходящей выходной переменной у, т. е. нахождения функции удовлетворяющей уравнениям в частных производных (4.30). Эта проблема устраняется при использовании методов приближенной линеаризации, основан¬ ных, например, на линейной аппроксимации нелинейной системы и 1-м методе Ляпунова. Линейная аппроксимация. Здесь ограничимся рассмотрением локального пове¬ дения системы (4.23), полагая при этом, что существует положение равновесия х = х*, и в этой точке система полностью управляема. В окрестности £{х*) опре¬ делим n-мерный вектор ошибки и используя ряд Тейлора в точке х = х*, представим гладкие функции f(x) и д(х) как и (4.60) и = (-С’}ф1 + к1С'}-1ф1 + ... + кпС°,ф1)/С!,С}-1ф1. (4.61) □ X х — X f(x) = f(x*) + F(x*)x + Of(x), д(х) = д(х*)+G(x*)x+ од(х),
116 Глава 4. Методы управления гладкими системами где F = df/dx \х. — матрица Якоби системы (4.23), G = дд/дх I*., а Of(x), og(x) — остаточные члены ряда. Для достаточно малой окрестности £(х*) модель ошибки принимает вид х = f(x*) -f F(x*)x -f (g(x*)x -f g(x*)^u. (4.62) Рассмотрим алгоритм и = U* + и, (4.63) где U* = const, а и — новая управляющая переменная, удовлетворяющая условию lim и — 0. X— Если пренебречь остаточными членами, то модель ошибки (4.62) можно записать в виде линейного уравнения х = Fx+g*u + f*, (4.64) где F = F + GU*, д* = д(х*), /* = f(x*) + g(x*)U*. Задача сводится к стабилиза¬ ции состояния х = 0 модели (4.64), что предполагает нахождение U* из условия компенсации возмущающей компоненты /* и далее определение управления и в форме стабилизирующих обратных связей по ошибке х. Таким образом, возможность стабилизации связана, во-первых, с существованием числа U*, являющегося решением уравнения /ог*) + д(х*)и* = 0, (4.65) и, во-вторых, с управляемостью модели ошибок (4.64). Оба свойства имеют место при условии управляемости исходной системы. Теорема 4.8. Если в положении равновесия х* выполняется det Сх(х*) ф О, и распределение Qx инволютивно в окрестности £(х*), то: 1) найдется число U*, являющееся решением уравнения (4.65); 2) пара (F,g*) полностью управляема. Положение I) непосредственно вытекает из определения равновесного состояния системы. Так как д(х*) ф 0, решение уравнения (4.65) находится как U* = (4.66) где д1 = (дтд)~1дт.
4.1. Канонические формы вход-выход и стабилизация выхода 117 Таким образом, метод линейной аппроксимации позволяет преобразовать нелиней¬ ную систему к полностью управляемой линейной форме х = Fx + д*и. (4.67) Задача стабилизации модели ошибок в точке х = 0 простейшим образом решается с помощью линейных обратных связей и = к*х, (4.68) где матрица-строка коэффициентов обратной связи к* выбирается из условия асимптотической устойчивости матрицы замкнутой системы F* = F + g*b*, т. е. из условия Re A^F*} < 0. Полный алгоритм стабилизации системы в поло¬ жении равновесия х = х* принимает форму и = U* + k*{x-x*), (4.69) где постоянная U* определяется из уравнения (4.66). Очевидно, что алгоритм намного проще выражения (4.61), полученного методом точной линеаризации. Приведенные здесь результаты легко обобщаются на случай многоканальных си¬ стем с несколькими управляющими воздействиями (см. [26]). 4.2. Канонические формы вход-выход и стабилизация выхода Для наиболее полного представления нелинейной системы требуется ввести в рас¬ смотрение выходные переменные, характеризующие внешнее поведение системы. В этом разделе изучаются гладкие одноканальные нелинейные системы х = f{x)+g(x)u, (4.70) У = h(x), (4.71) т. е. системы с одним входом (управлением) и и одним выходом у € У CR1, где дополнительно полагается, что h — гладкая функция, определенная на множестве X, и У = h(X) — открытое множество. Ограничимся рассмотрением локального поведения системы вблизи точки х = х* е X, полагая также, что у* = h(x*) = 0 и rank h(x*) = 1. Основное внимание уделим проблемам точной линеаризации и стабилизации выхо¬ да (см. 4.2.3). В силу априорной заданности уравнения выхода (4.71) линеаризация системы становится проще, чем для рассмотренной в 4.1.4 модели вход-состояние.
118 Глава 4. Методы управления гладкими системами С другой стороны* этот же фактор часто служит причиной неразрешимости задачи линеаризации для всей системы, т. е. отсутствия статического,закона управления, обеспечивающего эквивалентность данной нелинейной модели и некоторой линей¬ ной модели того же порядка. Поэтому задача точной линеаризации нелинейной модели вход-выход обычно ставится следующим образом: найти алгоритм линеаризации (4.47) и преобразование координат ф(х) такие, что эквивалентная модель системы (4.70)-(4.71) или ее часть (модель внешней динамики) линейны. Упомянутая здесь модель внешней динамики характеризует связь входных и вы¬ ходных переменных. Ее порядок определяется относительной степенью рассматри¬ ваемой динамической системы. 4.2.1. Относительная степень и основное преобразование Для одноканальной линейной системы (4.72) (4.73) х = Ах + Ьи, у = сх относительная степень р рассчитывается как разность между степенями знаме¬ нателя и числителя передаточной функции W(p) с{р1-А)~1Ъ = Pop" + PiPu 1 + ... 4- /?„ рп + aipn~1 + ... + ап ’ т. е. при Ро Ф 0 р = п — и. (4.74) В общем случае относительная степень может быть найдена с помощью основного преобразования системы, т. е. процедуры последовательного дифференцирования уравнения выхода, представленной в 4.1.1-4.1.2. Продифференцируем по времени уравнение выхода (4.71), и подставив (4.70), по¬ лучим dh . dh . . .. у = тА{х) + Тх°(х)и- (4-75) При условии, что в точке х* I »(*> * °- уравнение (4.75) дает описание связи входа и выхода системы в некоторой окрест¬ ности £(х*), и значение относительной степени устанавливается как р = 1.
4.2. Канонические формы вход-выход и стабилизация выхода 119 Если система такова, что {dh/дх)д{х). = 0, введем в рассмотрение функцию h2 = = (dh/dx)f(x). Продифференцировав уравнение (4.75) и подставив (4.70), найдем У dh2 дх f(x) + dh2 дх g{x)u. (4.76) При условии, что в точке х* dh2 дх д(х) Ф 0, уравнение (4.76) дает описание связи входа и выхода системы, и значение отно¬ сительной степени устанавливается как р = 2. В противном случае продолжаем процедуру дифференцирования. В общем случае определим функции hi — dhj-1 дх /, i = 1,2,..., р, (4.77) и будем полагать, что для рассматриваемой системы в точке х* и некоторой ее окрестности £(х*) выполняется: а) б) dhi дх у{х) = ^9(х) = dhp-1 дх д{х) = 0; Ф 0. Тогда процедура последовательного дифференцирования на р-м шаге приводит к уравнению уШ = ~oif{x) + ~dia(x)u (478) с ненулевым множителем при управлении и. Уравнение (4.78) описывает связь входной и выходной переменных нелинейной системы, а его порядок соответствует искомому значению относительной степени нелинейной системы. Определение 4.4. Число р < п, удовлетворяющее условиям а) и б), называется относительной степенью системы (4.70)—(4.71) в точке х*. Модель вход-выход (4.78) удобно записать в форме Коши. Для этого определим переменные 6 = У = Ьг(х), & = = hi(x), i = 2,...,p, (4.79) и с учетом (4.78) получим (рис. 4.9): = 6, 6 = 6, ••• , iP = а(х) + (3(х)и, (4.80) У = (4.81)
120 Глава 4. Методы управления гладкими системами Рис. 4.9. Каноническая модель вход-выход “(*) = 1&1' (4.82) «*) = ъ* °- (4.83) Замечание 4.6. Выражения (4.77), используя формализм производных Ли, можно переписать как hi(x) = h(x) = C°fh, hi(x) = C?flh = Cfhi-i, i = 2,.. -,Р, (4-84) и dhi m—il ih9 ~ СяС< h (4.85) (см. 1.1.3 и замечание 4.3). Тогда условия а) и б) принимают вид Cgh = CgC)h= ... =CgCPf2h = Oj (4.86) /?(х) = CgCp~lh ф 0 (4.87) соответственно, и а(х) = £Pfh- (4.88) □ Для получения векторно-матричной формы уравнений (4.80)-(4.81) введем в рас¬ смотрение /?-мерный вектор внешней динамики £ = (£ь&, ■••,£/>) = (у, У, ••• , ур~1)еЕ и запишем £ = Я(*), , (4.89) где Н(х) = {Ы{х)}, i = 1,2, ...,/э.
4.2. Канонические формы вход-выход и стабилизация выхода t2t Используя свойства а) - б), нетрудно получить, что для системы относительной степени р гладкое отображение (4.89) X S регулярно в точке х = х*, т. е. rank Н(х*) = р. (4.90) Модель (4.80)-(4.81) перепишем в компактной форме (см. рис. 4.6): £ = Ао€ + Ь0(а(х) +/3(х)и), (4.91) У = со£, (4.92) где Ао, Ь0 — пара канонических полностью управляемых матриц (см. (4.19)) раз¬ мерности р х р и р х 1 соответственно, а матрица с0 = |1 0 ... 0| имеет размерность 1 х р. Таким образом, справедливо следующее утверждение. Теорема 4.9. Если система (4.70)-(4.71) имеет относительную степень р, то: 1) отображение (4.89) регулярно в точке х = х*\ 2) для любых х0 € £{х*) и t € [0,Т) связь входного воздействия u(t) с выходом y(t) описывается уравнениями (4.91)-(4.92). В частном случае, когда основная система имеет относительную степень р = п, размерности моделей (4.70) и (4.91) равны. Выберем точку х* е X так, что Н(х*) = = 0. Условие (4.90) перепишем в виде det дН_ дх Ф 0, (4.93) что устанавливает локальный диффеоморфизм отображения (4.89) в окрестности точки х* с обратным (гладким) отображением * = я-г(0, единственность точки х* = Я_1(0) и, следовательно, локальную эквивалентность моделей (4.70) и (4.91) для некоторого временного интервала t е [0, Г). Полученная модель вход-выход (4.91)-(4.92) (или (4.80)-(4.81)) с использованием методики точной линеаризации (см. 4.1.4) легко приводится к линейной форме, после чего появляется возможность нахождения простого алгоритма, решающего ту или иную задачу управления (например, задачу стабилизации, см. 4.2.3). В общем случае, когда р < п, размерности исходной и преобразованной систем не совпадают, т. е. они не эквивалентны (см. определение 4.2). Поэтому свойства системы (4.70) могут отличаться от свойств модели (4.91). Этот эффект связан с нуль-динамикой системы, т. е. поведением (п — р)-мерной ее части, которая была потеряна в ходе приведения системы к виду (4.91)—(4.92).
122 Глава 4. Методы управления гладкими системами 4.2.2. Нуль-динамика и нормальная форма Рассмотрим систему (4.70), для которой р < п. и следовательно, размерность модели (4.91) меньше п. Этот случай характерен для систем с нуль-динамикой, для которых выходному положению равновесия у = 0 соответствует множество значений х (см. 3.3.2-3.3.3). Рассмотрим нелинейное уравнение Н(х) = 0 (4.94) и соответствующий ему геометрический объект (рис. 4.10) — гладкую */-мерную гиперповерхность = {х е X : Н (х) = 0}, удовлетворяющую условию регулярности (4.90), и = п — р. Рис. 4.10. Множество (гиперповерхность) нуль-динамики Z* и преобразование координат Введем в рассмотрение локальные координаты поверхности zit вектор локальных координат z = {zi} (i = 1,2,...,*/), определяемый выражением г = С(я), (4.95) и отображение 2 C(s) £ Щх) (4.96) Гладкая вектор-функция £(я) выбирается из условия регулярности отображения (4.96) в точках х* е 2*, т. е. так, чтобы det дС/дх ЭН/дС Ф о. (4.97) При условии (4.97) отображение (4.96) определяет регулярное преобразование ко¬ ординат с гладким обратным отображением х ~ r{z,£). (4.98)
4.2: Канонические формы вход-выход и стабилизация выхода 123 Рассмотрим поведение системы с начальными условиями ат0 € Z* и, следователь¬ но, £0 = Н(х0) = 0. При условии, что (при соответствующем выборе управления) уравнение (4.91) имеет нулевое решение £(£) = 0, выходная переменная также обращается в нуль: у = 0, а соответствующие траектории системы лежат на по¬ верхности Z*. Последнее подтверждает тот факт, что Z* обладает свойствами инвариантной поверхности системы (4.70), движение по которой соответствует нулевому значению выхода у, т. е. является множеством нуль-динамики системы (4-70), (4.71) (см. определение 3.10 и рис. 3.13). Для анализа поведения системы (4.70)—(4.71) вблизи поверхности Z* зафиксируем точки z = z*, х* = r(z*, 0) и построим полную преобразованную модель системы в достаточно малой окрестности £{х*). Продифференцируем уравнение (4.95) по времени, и подставив (4.70), найдем модель нуль-динамики i = + Ё9{х) “• (4"> Функция С может быть выбрана так, чтобы модель (4.99) была независима от управления и, т. е. I *<*) - °- Возможность такого выбора следует из теоремы Фробениуса (см. [7, 26, 47]). В этом случае уравнение (4.99) (с учетом обратного преобразования (4.98)) при¬ нимает вид i = /,(*,£), (4.100) где Л = Дополним систему (4.100) найденной ранее моделью (4.91)—(4.92) и получим так называемую нормальную форму нелинейной системы (4.70)—(4.71): Z = fz{z, 0> (4.101) i = Ао£ + Ь0(а(х) + Р(х)и\ (4.102) У II о о У» (4.103) которая представлена моделью нулевой динамики (4.101), моделью внешней ди¬ намики (4.102) и уравнением выхода (4.103) (рис. 4.11). Координаты вектора z (локальные координаты поверхности Z*) определяют нуль- динамику основной системы, координаты вектора £, представленные выходной пе¬ ременной у и ее производными, характеризуют текущие отклонения от поверхности Z*, или внешнюю динамику системы. После преобразования системы к нормальной форме становится возможным кор¬ ректное решение задачи точной линеаризации модели вход-выход и ее стабилиза¬ ции (см. 4.2.3) при полной уверенности, что преобразованная модель эквивалентна исходной системе.
124 Глава 4. Методы управления гладкими системами Рис. 4.11. Нормальная форма нелинейной системы Пример 4.4. Построим нормальную форму линейной динамической системы (4.72)- (4.73) с передаточной функцией W(p), где А, = сАр~хЬ Ф О и р — п — V. Линейное уравнение (система р линейных уравнений) Но х = О, где Но = с сА сАР-1 описывает центральную гиперплоскость (iz-мерное подпространство нуль- динамики) = {хеШп : Н0х = 0}, движение по которой соответствует нулевому выходу системы (4.72)-(4.73). Введем в рассмотрение преобразование координат 2 = Z0x, (4.104) £ = Hqx, (4.105) где £ е zeF, а матрица Z0 выбирается из условий Z0b — 0, det Но Ф о. (4.106) (4.107)
4.2. Канонические формы вход-выход и стабилизация выхода 125 Дифференцируя (4.104)—(4Л05) по времени с учетом (4.72)—(4.73) и (4.106), полу¬ чаем следующую модель, соответствующую нормальной форме линейной системы Z — Azz + Bz£, (4.108) i = А0£ + bo (сАрх + р0и^, (4.109) У = Cot (4.110) При выборе управления в форме алгоритма «точной линеаризации» (см. 4.1.4) и = к{~сАРх+г)- где и — новая управляющая переменная, модель внешней динамики (4.109) при¬ нимает вид £ = Ло£ + Ьои, (4.111) и влияние подсистемы (4.108) на выходную переменную у полностью устраняется, что (при р < п) обеспечивает упрощение задачи стабилизации выхода. Для начальных условий хо е Z* имеет место £0 = Н(хо) = 0, и при и = 0 урав¬ нение (4.111) имеет нулевое решение £(t) = 0, выходная переменная — у = О, а соответствующие траектории системы лежат на плоскости Z*. Последнее пока¬ зывает, что Z* обладает свойствами инвариантного множества линейной системы (4.72)-(4.73), движение по которому соответствует нулевому значению выхода у, т. е. является множеством нуль-динамики системы (4.70)—(4.71) (см. определение 3.10). С другой стороны, собственные значения матрицы Az (определяющие свойства устойчивости подсистемы (4.108) при £(t) = 0) совпадают с нулями передаточ¬ ной функции (4.74). Этим также можно объяснить происхождение термина «нуль- динамика». □ Замечание 4.7. Приведенный пример показывает, в частности, что термин точная линеаризация является достаточно условным, и указанный прием соответству¬ ет обычной компенсации некоторых компонент модели динамической системы, позволяющей в дальнейшем упростить общую задачу управления. Тем не менее в нелинейных системах компенсация такого рода действительно обеспечивает по¬ лучение линейной модели внешней динамики и служит инструментом решения множества нетривиальных задач. □ 4.2.3. Точная линеаризация и стабилизация выхода Модель внешней динамики (4.91)—(4.92) (или (4.80)—(4.81)) легко приводится к линейной форме с использованием методики точной линеаризации (см. 4.1.4),
126 Глава 4. Методы управления гладкими системами что в общем случае (р Ф п) соответствует частичной линеаризации нелинейной системы. Выберем алгоритм линеаризации и = щ(-а(х)+5)’ (4Л12) где и — новая управляющая переменная. После подстановки алгоритма (4.112) модель (4.91) принимает вид простейшей линейной стационарной системы £ = Ао£ + Ьои. (4.113) Модель (4.113), (4.109) полностью определяет связь выходной переменной у и входа и. Модель представляет собой цепь интеграторов (рис. 4.12) и может быть записана в виде: Ci = 6, & = 6, = S, (4.114) У = Cl (4.115) Рис. 4.12. Линеаризованная модель — цепная форма Полученные модели внешней динамики полностью управляемы и стабилизируются с помощью линейного (по отношению к вектору £) алгоритма управления и = = к Н(х), (4.116) где к = {ki} — матрица-строка коэффициентов обратной связи: к = [ki к2 ... кр]. После подстановки (4.116) система (4.114) принимает вид £ = Act, (4.117) где Ас = А0 + Ь0к, и матрица к может быть найдена из обычного условия Re Ai{Ac} < О, что и обеспечивает требуемую устойчивость модели (4.114). Пусть основная система имеет относительную степень р = п, размерности моделей (4.70) и (4.91) совпадают, и выполняется условие регулярности (4.93). Последнее
4.2. Канонические формы вход-выход и стабилизация выхода 127 обеспечивает эквивалентность исходной системы и модели (4.117), а следователь¬ но (по теореме 4.2) и асимптотическую устойчивость замкнутой системы (4.70) в некоторой окрестности £(х*). В общем случае (р ф п) модель внешней динамики замкнутой системы (4.117) должна быть дополнена уравнением нуль-динамики (4.101), и рассматриваемая за¬ дача является задачей частичной стабилизации (по переменным &). Алгоритм (4.112), (4.116) не всегда обеспечивает ее корректное решение, что связано с воз¬ можной неустойчивостью или неполнотой нуль-динамики (векторного поля fz). Так, нарушение условия полноты может привести к разрушению системы в некото¬ рый момент времени Т, что соответствует нарушению одного из условий частичной асимптотической устойчивости (см. п. 3.2). Пусть нуль-динамика системы асимптотически устойчива, т. е. автономная модель i =fz(z,0) (4.118) локально асимптотически устойчива по отношению к некоторому положению рав¬ новесия 2 = 2*. Тогда имеет место следующее утверждение [46, 47]: система (4.70) с линеаризирующим алгоритмом (4.112) и стабилизирую¬ щим алгоритмом (4.116) локально асимптотически устойчива по отно¬ шению к состоянию х = х* = г(2*, 0) и выходу у = 0. В более общем случае, когда нуль-динамика не является асимптотически устойчи¬ вой, устойчивость системы по состоянию не достигается, но имеется возможность обеспечить устойчивость системы по выходу у или, более точно, — частичную устойчивость по £ (см. п. 3.2). Пусть модель нуль-динамики (4.118) (векторное поле fz) является полной в неко¬ торой окрестности £(z*). Тогда имеет место следующее утверждение [46]: система (4.70) с линеаризирующим алгоритмом (4.112) и стабилизирую¬ щим алгоритмом (4.116) локально асимптотически устойчива по отно¬ шению к частичному положению равновесия £ = 0 и выходу у = 0. Напомним (см. п. 3.2), что частичная асимптотическая устойчивость системы обычно связана с аттрактивностью множества нулевой динамики Z*. Рис. 4.13. Система управления
128 Глава 4. Методы управления гладкими системами Полное описание регулятора, обеспечивающего стабилизацию системы по выходу, включает выражения (4.112), (4.116) и, следовательно, имеет вид (рис. 4.13) \= ~т+Ж)кЩх)- (4119) Замечание 4.8. Учитывая ранее введенные обозначения (см. замечания 4.3-4.6), можно записать следующую формулу управления, обеспечивающего решение за¬ дачи стабилизации выхода: и = (-£pfh + k1£pf1h+ ... +kp£°fh)/(£g£pflh). (4.120) □ 4.3. Управление каскадными системами В этом разделе исследуются гладкие динамические системы каскадной (треуголь¬ ной) формы, состоящие из двух подсистем (рис. 4.14): х = f{x) + g(x)£ (4.121) и £ = <*(х,О + 0(х,£)и, (4.122) где и — управление, а вектор £ может рассматриваться как вход подсистемы (4.121). Рис. 4.14. Каскадная система Будем рассматривать задачи синтеза алгоритма управления системой (4.121), (4.122) при условии, что известно соответствующее решение задачи управления подсистемой (4.121). Последнее означает, что заранее определен алгоритм — вир¬ туальное управление Z = Щ(х), (4.123) где Щ — гладкая функция, обеспечивающее для любых хе А1 требуемое поведение замкнутой (по входу £) подсистемы (4.121). Уравнение (4.121) после подстановки (4.123) принимает вид х = /с(я), (4.124)
4.3. Управление каскадными системами 129 где /с = / + дЩ. Задачи синтеза сводятся к нахождению реального входного воздействия и системы (4.121)—(4.122), гарантирующего (обычно асимптотически) такое же поведение нелинейной части (4.121). Заметим, что в указанной постановке модель (4.124) играет роль внутренней (неяв¬ ной) модели желаемой динамики подсистемы. С другой стороны, с учетом того, что в координатах (х, £) уравнение (4.123) описывает поверхность, рассматривае¬ мая задача имеет прямое отношение к вопросам инвариантности и аттрактивности нетривиальных множеств (см. 2.1.3 и п. 3.2). Далее ограничимся рассмотрением упрощенной каскадной системы (4.121)—(4.122), представленной подсистемами первого порядка, и изучением задачи стабилизации подсистемы (4.121) в точке х = 0 (общий случай представлен в [26]). Полагаем, что х, £ — скалярные переменные, а также </(0) ф О, /ДО, 0) ф 0. В рассматриваемом случае виртуальное управление (4.123), стабилизирующее модель (4.121), легко находится как С = Щ{х) - ^y(-/0*0 + кох), (4.125) Замкнутая модель (4.124) принимает вид х — кох (4.126) и асимптотически устойчива при условии, что А:0 < 0. Для нахождения реального управления и введем в рассмотрение переменную ошибки е = £-Щ(х) ' (4.127) и обратное преобразование £ = е + Щ(х). (4.128) В силу последнего можно переписать модель подсистемы (4.121) в виде х = кох + д(х)е. (4.129) Дифференцируя (4.127) по времени и подставляя (4.122), находим модель ошибки ё = ас(х, е) + @с{х, е))и, (4.130) где = а- -^-(к0х + де), (Зс(х, е) - j3{x, е + Щ(х)). (4.131) Очевидно, что полученная модель (4.129)—(4.130) (рис. 4.15) эквивалентна перво¬ начальной системе. Выбирая следующий алгоритм управления и = 1 (—ас(х, е) + кее), (4.132) Ис{Х, £) S Зак. 281
130 Глава 4. Методы управления гладкими системами Рис. 4.15. Эквивалентная модель каскадной системы получаем линейную модель ошибки ё = кее. (4.133) При условии ке < 0 модель (4.133) асимптотически устойчива. Если е(0) = 0 и, следовательно, е(£) = 0, то модели (4.124) и (4.129) идентичны, что соответствует идеальному решению рассматриваемой задачи стабилизации. В случае когда е(0) ф 0, ошибка e(t) стремится к нулю, и можно гарантировать, что решения системы (4.129) асимптотически приближаются к решениям модели (4.124). Таким образом, система (4.129), (4.133) локально асимптотически устой¬ чива по отношению к положению равновесия (х,ё) = (0,0), что и обеспечивает (локальную) асимптотическую устойчивость подсистемы (4.129) в точке х — 0. Окончательно алгоритм управления (4.132) в силу (4.127) и (4.131) можно записать в виде “ = /»(,.,+Х1Ц*))(-а + ^(/ + Ю + М5-^))), (4-134) где Щ(х) рассчитывается по формуле (4.125). Отметим, что уравнение е = £ — U^(x) = О определяет в М2 гладкую гиперповерхность (кривую) <S*, которая (при выбран¬ ном управлении) является инвариантным множеством и аттрактором рассматрива¬ емой системы. Более того, полученная система является частично асимптотически устойчивой по переменной е. Рассмотренная процедура широко используется для решения различных задач управления каскадными объектами, возникающих в теории нелинейных и адап¬ тивных систем, и обобщена для случаев, когда требуется обеспечить глобальную устойчивость системы (см. [26]).
Глава 5. Согласованное управление и траекторные задачи Задача согласованного управления заключается в поддержании заданных функ¬ циональных соотношений выходных переменных многоканальной системы с целью обеспечения идентичного, пропорционального или подобного поведения отдельных ее частей [19, 21, 26, 27]. Общий подход к ее решению разработан в конце про¬ шлого века [21, 27] и получил название метода согласованного управления. Рас¬ сматриваемая задача сводится к стабилизации системы относительно некоторого аттрактора выходного пространства и поддержания желаемого продольного дви¬ жения системы по кривым или гиперповерхностям. С этой точки зрения задача относится к проблематике управляемого пространственного движения и вклю¬ чает широко распространенные задачи траекторного и контурного управления, а также задачи стабилизации движения системы относительно более сложных геометрических объектов [6, 16, 18, 25, 26, 27, 51]. 5.1. Задачи согласования и траекторного управления Рассмотрим специфические свойства многоканальной системы (объекта управле¬ ния), состоящей из га независимых или взаимосвязанных подсистем ОУ 1, ОУ 2, ..., ОУ га с выходными переменными yj(t) и управлениями (входными перемен¬ ными) Uj(t) (рис. 5.1). Пусть объект управления описывается уравнениями где х е X с Мп, у = {уз) е У С Kw, а управление и = {uj} вырабатывается регулятором х = f(x) + G(x)u, У = h(x), (5.1) (5.2) и = U(x). (5.3)
132 Глава 5. Согласованное управление и траекторнью задачи ОУ 1 ОУ 2 ОУ т Регулятор У1 У2 -> Ут -> Рис. 5.1. Многоканальная система Наиболее распространенная проблема управления выходом многоканальной си¬ стемы (см. 4.2.3 и [26]) заключается в нахождении управляющих воздействий Uj, обеспечивающих стабилизацию выхода y(t) относительно требуемого значе¬ ния у — у*. В более сложных задачах предполагается, что стандартная проблема стабилизации дополняется некоторыми правилами взаимодействия подсистем. По¬ следние часто представлены в виде голономных связей между выходами систе¬ мы — так называемых условий согласования <Pj(y) = 0, (5.4) где j = 1,21, <pj — гладкие функции, что предопределяет необходимость согласования управляющих воздействий щ. Такие связи изначально независи¬ мых или взаимодействующих систем порождают специфические проблемы анализа и согласованного управления. Определение 5.1. Движение системы (5.1)—(5.3) называется согласованным, если ее выходы yj(t) подчинены условиям согласования (5.4). Проблемы согласования и согласованного управления возникают во многих слу¬ чаях, когда требуется обеспечить идентичное или сходное поведение однотип¬ ных подсистем составной системы, синхронизацию нескольких гармонических или непериодических процессов и т. д. Более того, рассматриваемая проблематика включает задачи пространственного движения типа орбитальной стабилизации и траекторного (контурного) управления. Действительно, условия (5.4) представля¬ ют собой неявную форму задания кривой (одномерной гиперповерхности, см. 1.1.4) пространства Кт: S* = {уеУ: <pj(y) = 0}, и для согласованного движения она является инвариантным множеством системы (5.1)—(5.3) (рис. 5.2). На практике подобные задачи возникают во многих механи¬ ческих и робототехнических системах при организации их движения в физическом (декартовом) пространстве [6, 26].
5,1. Задачи согласования и траекторного управления 133 а б Рис. 5.2. Согласованное движение и орбитальная устойчивость После принудительного согласования составная система может быть представлена как единый объект, динамика которого характеризуется обобщенным выходом s(t), причем переменная s может быть выбрана как один из выходов системы s = ук, среднеарифметическое s У1+У2-\ + У га т (5.5) или в более общей форме з = Ф(у), (5.6) где ф — некоторая гладкая функция. Такая переменная является локальной ко¬ ординатой кривой (например, длиной дуги, см. 1.1.4) и характеризует продольное движение системы (рис. 5.3). Рис. 5.3. Задачно-ориентированные координаты Понятие согласованного движения (определение 5.1) подразумевает, что началь¬ ные значения выходов системы yj также подчинены условиям (5.4), или начальная точка движения у(0) лежит на кривой S*. В общем случае, когда у(0) не принадле¬ жит S*, условие (5.4) должно выполняться с течением времени — асимптотически (см. рис. 5.2). Введем в рассмотрение вектор е = {е^}: е = <р(у) (5.7)
134 Глава 5. Согласованное управление и траекторные задачи где ip = j — 1,2, ...,т — 1. Для согласованного движения и y(t) е S* выпол¬ няется e(t) = 0, в то время как в окрестности множества S* вектор е характеризует текущие нарушения условий (5.4) и поперечное движение системы в пространстве Мт (см. рис. 5.3). Определение 5.2. Движение системы (5.1)—(5.3) называется асимптотически со¬ гласованным, если lim e(t) = 0. (5.8) t—*oо Поведение системы, соответствующее асимптотически согласованному движению, часто связывают со свойством притяжения его траекторий к инвариантному мно¬ жеству S* (см. 2.1.3 и рис. 5.2-5.3). Задача согласованного управления динамической системой (5.1)—(5.2) формули¬ руется как задача нахождения алгоритма управления (5.3), который обеспечивает асимптотически согласованное движение (определение 5,2) и желаемую продоль¬ ную динамику s(t). Последняя может быть предписана с помощью эталонной пе¬ ременной s*(t), что связано с задачей компенсации продольной ошибки Л s = s* — s, (5.9) или задана в виде эталонной скорости продольного движения V*(t) = s*(t). 5.2. Управление кинематической моделью G = X * Рис. 5.4. Объект управления (кинематическая модель) Рассмотрим простейший случай, когда динамика объекта управления представлена так называемой кинематической моделью (рис. 5.4), т. е. dim х = dim у = п, уравнение выхода (5.2) принимает вид у = х (5.10) и det G(x) ф 0. Пусть желаемый режим продольной динамики s(t) представлен в виде задания по скорости: = v;(t). (5.11)
5.2. Управление кинематической моделью 135 Преобразуем систему и приведем задачу к проблеме устойчивости по части пере¬ менных (см. 3.2.1). Такое преобразование осуществляется с помощью отображения (5.6)—(5.7), т. е. s е ф{х) ф(х) ip(x) (5.12) Введем в рассмотрение матрицу Якоби отображения (5.12): дф _ дф/дх дх ~ dip/dx Будем полагать, что функции ф и выбраны так, что для любых х е S* выполня¬ ется: rank ф(х) = п, т. е. (см. 1.1.2) det — 7^ 0. (5.13) ox xesm Последнее дает возможность заключить, что отображение (5.12) является локаль¬ ным диффеоморфизмом с гладким обратным отображением х = r(s,e), (5.14) и следовательно, формула (5.12) определяет регулярное преобразование координат (см. 4.1.1-4.1.2). Для нахождения соответствующей эквивалентной модели продифференцируем уравнение (5.12) по времени, и подставив (5.1), получим искомую заданно- ориентированную модель рассматриваемой системы s ё дф дх (f(x) + G(x)u). (5.15) Теперь задача управления сводится к частичной стабилизации полученной моде¬ ли по отношению к вектору е и может быть решена с использованием методов, рассмотренных в главе 4. В первую очередь воспользуемся приемом точной лине¬ аризации (см. 4.2.3) и выберем линеаризирующий алгоритм и = <?-1(а;) (- f{x) + и), (5.16) где и — новый вектор управления. Затем выберем и как и (дфу1 щ \дх) ие (5.17) где и3 — скалярное продольное управление, ие — (п - 1)-мерный вектор попе¬ речного управления. Модель (5.15) принимает форму двух простых независимых линейных систем: и8, (5.18) ие. (5.19)
136 Глава 5. Согласованное управление и траекторные задачи Окончательно, выбирая = v;, (5.20) ие — ке&) (5.21) где ке > 0 — матрица обратных связей, получаем требуемые свойства замкнутой системы (выражения (5.8) и (5.11)), т. е. асимптотическое согласование движений (определение 2) и заданную продольную скорость V*. Синтезированный алгоритм управления (рис. 5.5) содержит простые локальные регуляторы (5.20)—(5.21), преобразование управлений (5.17) и линеаризирующий алгоритм (5.16). Рис. 5.5. Система согласованного управления Отметим, что выбор функций риф неоднозначен. Можно, в частности, восполь¬ зоваться так называемым нормализованным описанием кривой (см. [26]), для которого указанные функции таковы, что на самой кривой S* матрица Якоби ор¬ тогональна: (дф1 = (<^\Т \дх) \дх) ' (5.22) Это приводит к следующей модификации уравнения (5.17): и (дф\т I us \дх) I ие (5.23) 5.3. Управление динамической моделью Обычно задачи управления, первоначальная постановка которых осуществляется в пространстве выходных переменных системы yj, не могут быть успешно решены в рамках моделей вход-выход. В нетривиальных случаях требуется анализ системы в пространстве состояния Мп или некоторой его области X. Рассмотрим плоское движение двухканального объекта 4-го порядка и относитель¬ ной степени р = 2 (рис. 5.6):
5,3. Управление динамической моделью 137 Рис. 5.6. Объект управления XI - х2, (5.24) Х2 = f(xl,X2) + G(x1,x2)u, (5.25) У = Xi, (5.26) где (xi,x2) € X с R4, у = (yi,2/2) € У С R2, и = (ui,u2) w det G ф 0. Задача управления в этом случае заключается в нахождении алгоритма управления, кото¬ рый обеспечивает поддержание скалярного соотношения между двумя выходными переменными у\,У2- <р(у) = 0 (5.27) (что соответствует плоской кривой S*, рис. 5.7), и желаемого режима продольного движения s(t). Такой режим может быть задан с помощью эталонной модели s* = a3(s*,s*), (5.28) и тогда последняя задача сводится к компенсации ошибки продольного движения Л s = s* — s. При использовании упрощенного задания по скорости s*(t), вырабатываемого мо¬ делью (5.11), задача управления продольным движением заключается в компенса¬ ции скоростной ошибки As = V;-s. (5.29) Рис. 5.7. Геометрия плоского траекторного движения Для получения задачно-ориентированной модели системы воспользуемся основным преобразованием, представленным в 4.2.1. Определим функции Ф{х 1) Ф1) ’ Ф\Ы) = ф(у) = (5.30)
Глава 5. Согласованное управление и траекторные задачи 138 ф2{Х1,Х2) = 7^- Х2. (5.31) Дифференцируя уравнение (5.30) по времени и подставляя (5.24) и (5.31), полу¬ чаем s ё ф2(х1,х2). Находим Х2 wii / I ё (5.32) (5.33) Далее, дифференцируя (5.32) и подставляя (5.24)-(5.25) и (5.33), получаем иско¬ мую задачно-ориентированную модель s ё А(х i,x2) s ё дф2 дх2 (f{x 1,х2) + G(x1}x2)uj, (5.34) где A(xi,x2) оц а\2 «21 «22 дф2 / дф1Ч-1 дх\ / Основная задача управления решается с помощью методики, рассмотренной в п. 4.2 и 5.2. Воспользуемся алгоритмом точной линеаризации (см. 4.2.3) и = G~1(xi,x2) f(xi,x2) + u^j (5.35) и выберем и как и = (дЩ^ \дх2) где и3, ие — скалярные управления. Тогда модель (5.34) можно записать в виде s — an(xi,x2)s = сч2(х1,х2)ё + us, (5.37) ё — а22(х1,х2)ё = a2i(xi,x2)s + ие. (5.38) Выбирая поперечное управление «е = -a21(xi,x2)s - ке1ё - ке2е, (5.39) где fcei, ке2 — коэффициенты обратной связи, получаем ё + (ке2 — а>22{х1,х2))ё + ке\е = 0. Соответствующий выбор коэффициентов кеь ке2 позволяет обеспечить необходи¬ мое свойство асимптотического согласования (определение 5.2, выражение (5.8)) и аттрактивность кривой S*. (5.36)
5.3. Управление динамической моделью 139 На кривой S*, где е = ё = О, уравнение продольной динамики (5.37) принимает вид s - an(xi,X2)s = us. (5.40) Принимая во внимание (5.9) и (5.28), находим As - a11(xi,rc2)Ai = -ац(х1,ж2)«* + as(s*, s*) - us. (5.41) Тогда, выбирая us = -an(xi,x2)s* + as(s*,s*) + ksXAs + ks2As, (5.42) где kBi, ks2 — коэффициенты обратной связи, получаем As + (ks2 - an(xi,x2))As + ksiAs = 0. Соответствующий выбор коэффициентов ksi, ks2, обеспечивает требуемую асимп¬ тотическую компенсацию продольной ошибки As. Устранение скоростной продольной ошибки As = V* — s достигается с помощью упрощенного алгоритма us = -an(xi,x2)s* + ksiAs. (5.43) Таким образом, полученная система согласованного управления (рис. 5.8) содер¬ жит эталонную модель ЭМ (5.28), локальные регуляторы Р1 (5.42) (или (5.43)) и Р2 (5.39), преобразование управлений (5.36) и линеаризирующий алгоритм (5.35). Рис. 5.8. Система согласованного управления динамической моделью Для нормализованного описания кривой рассмотренная процедура и алгоритм управления могут быть упрощены, принимая во внимание, что матрица Яко¬ би дф/дх на множестве S* ортогональна и удовлетворяет уравнению Френе (см. [26, 28]). Обозначив ш = г(а,) = cos a — sin а sina cos a
140 Глава 5. Согласованное управление и траекторные задачи где матрица Т(а*) соответствует базису Френе, связанному с кривой 5*, а а* = = а*(у) — угол ориентации базиса (см. рис. 5.7), можно записать уравнение типа Френе Т(а*) = ё £(*) ЕТ(а*), (5.44) где £(s) — кривизна, Пример 5.1. Нормализованное описание прямой (рис. 5.9, а) дается уравнениями — sin а* г/i + cos а* г/2 + V^o = 0, (5.45) s — cosa* г/i+’sina* г/2 + "00) (5.46) где а* — угол наклона прямой; <ро = const, фо = const. С очевидностью получаем ортогональную матрицу Якоби дф дх Т (а*) cos а* sin а* — sin a* cos а* ’ и в силу нулевого значения кривизны £ = 0 — тривиальный случай уравнения (5.44): а* = 0. □ a б Рис. 5.9. Заданно-ориентированные координаты для типовых траекторий движения (примеры 5.1-5.2) Пример 5.2. Пусть кривая S* представлена отрезком (дугой) окружности радиуса R с центром в точке у0 = (г/°, г/°) (Рис- 5.9, б). Для получения нормализованного представления запишем уравнение окружности в виде I) = о, (5.47)
5.3. Управление динамической моделью 141 где Дг/i =уг-у1, Ау2 = У2 - г/§» а Длину пути определим как s = R Arctg^. (5.48) Дг/i Тогда матрица Якоби при (г/1,г/2) € 5* находится как _ 2. ~&У2 Ayi дх R — Дг/i — Дг/2 и ортогональна: (дф/дх)~1 = (дф/дх)т. Кривизна 5* определяется как f = = 1/Я. □ Указанные соображения приводят к следующей модификации основных уравнений. Выражения (5.32), (5.33) принимают вид s ё Т(а*) х2, (5.49) Х2 (5.50) и следовательно, заданно-ориентированная модель — s ё £(s)sET(a*) s ё Т(а*) (^f(xi,x2) + G(xi,x2)uy (5.51) После точной линеаризации (5.35) можно выбрать преобразование управляющих воздействий и = Тт(а*) us ие Тогда модель (5.51) записывается как s — £(s) ёё + щ, ё = -|(s)s2 + we- (5.52) (5.53) (5.54) Поперечное управление принимает вид ие = £(s) s2 - кеХё - ке2е. (5.55) На кривой S*, где е = ё = 0, уравнение продольной динамики (5.53) имеет вид s = us. (5.56) Принимая во внимание (5.9) и (5.28), находим As = as(s*,s*) — us. (5.57)
142 Глава 5. Согласованное управление и траекторные задачи Выбрав us = as(s*,s*) + ksiAs + ks2As, (5.58) можно гарантировать необходимую асимптотическую компенсацию продольной ошибки As. Устранение скоростной ошибки As = s* - s обеспечивается более простым регулятором us = ks\As. (5.59) а б Рис. 5.10. Стабилизация кругового движения Окончательно алгоритм управления содержит локальные регуляторы (5.58) (или (5.59)) и (5.55), преобразование управлений (5.52) и линеаризирующий алгоритм (5.35). На рис. 5.10 представлены траектории а) и переходные процессы б) для системы траекторного управления, обеспечивающей асимптотическую стабилизацию дви¬ жения относительно окружности S* и поддержание заданной продольной скорости V* = 1 (см. пример 5.2). 5.4. Управление движением по поверхности В общем случае задачи согласованного и траекторного управления сводятся к задачам стабилизации движения системы относительно многомерного геомет¬ рического объекта пространства состояний — гиперповерхности, подмногообразия (см. [21, 26] и др.). В то же время проблемы стабилизации движения динамиче¬ ской системы относительно многомерных пространственных объектов имеют и са¬ мостоятельное значение при решении задач стабилизации выходных переменных, оптимального и качественного управления, инвариантности к возмущающим воз¬ действиям и проч. Проблемы тесно связаны с вопросами частичной устойчивости динамических систем и аттрактивности нетривиальных геометрических объектов (см. 2.1.3 и 3.2.2).
5.4, Управление движением по поверхности 143 Здесь ограничимся рассмотрением задачи стабилизации одноканального п-мерного объекта управления относительно поверхности, т. е. геометрического объекта раз¬ мерности п — 1. Пусть задан объект управления х = f(x) + д(х)и (5.60) и регулярная поверхность S* = {хвХ: ф) = 0}, (5.61) где х € X с Мп, и е R, /, д — достаточно гладкие вектор-функции, a р — гладкая скалярная функция. Проблема стабилизации движения по поверхности S* заключается в нахожде¬ нии управляющего воздействия и, обеспечивающего инвариантность поверхности и притяжение к ней траекторий системы из некоторой окрестности £(5*), т. е. выполнение свойства аттрактивности (см. 2.1.3 и рис. 5.11) lim dist(x(t),S*) = 0. (5.62) t—>oc Рис. 5.11. Притягивающая поверхность Введем в рассмотрение переменную ошибки: е = р(х), (5.63) которая характеризует текущее отклонение от поверхности или поперечное дви¬ жение системы в пространстве Еп (см. рис. 5.11). Для начальных значений хо, ле¬ жащих на поверхности S*, выбор управления должен обеспечить принадлежность поверхности всей траектории системы, и следовательно, e(t) = 0. Для хо € S(S*) требуется выполнение предельного соотношения (5.62), которое при некоторых до¬ полнительных условиях (см. [26, 51]) совпадает с выражением lim e(t) = 0. (5.64)
144 Глава 5. Согласованное управление и траекторные задачи Таким образом, задача стабилизации движения по поверхности сводится к асимп¬ тотическому достижению нулевого значения ошибки е, т. е. к проблеме частичной устойчивости системы (см. 3.2.2). Динамика движения системы по поверхности S* характеризуется га — 1 локальной координатой Si(t) (см. рис. 5.11) или вектором продольного движения s{t) = {si(t)}, который определяется выражением s = ф(у), (5.65) где ф — некоторая гладкая вектор-функция. Выражения (5.65), (5.63) определя¬ ют задачно-ориентированное преобразование координат системы (5.60). Условие регулярности преобразования имеет вид (см. 4.1.1) det дф/дх dip/dx Ф 0. (5.66) Последнее достигается при соответствующем выборе функции ф и обеспечивает существование гладкого обратного отображения х = r(s,e). (5.67) Отметим, что для рассматриваемого класса объектов управления с одним входом и задача управления пространственным движением не предполагает регулирования продольной динамики системы. Более общий случай управления многоканальным объектом, включающий требования к продольному движению системы, рассмотрен в [18, 26]. Для нахождения модели отклонения продифференцируем уравнение (5.63) по вре¬ мени, и подставив (5.60), получим ё = а(ж) + (3(х)и, (5.68) где а(х) = = 9(ж)- Задача управления сводится к стабилизации полученной модели, и условием су¬ ществования ее решения будет Ъ{х) * °- Воспользуемся приемом точной линеаризации (см. 4.2.3) и выберем линеаризиру¬ ющий алгоритм и = (~а(х) + и)’ (5-69) где = -ке е, и (5.70)
5.4. Управление движением по поверхности 145 ке — коэффициент обратной связи. Модель ошибки принимает вид ё = —ке е, (5.71) и выбор ке > 0 обеспечивает выполнение условия аттрактивности заданной по¬ верхности (5.64). Рис. 5.12. Система управления лространсгвеным движением Для нахождения модели продольного движения продифференцируем уравнение (5.63) по времени, полагая, что вектор-функция ф выбрана из условия ?гя{х) = 0. (5.72) Подставив (5.60), получим S (5.73) По окончании процесса стабилизации, т. е. при е = 0 и, следовательно, х = r(s, 0), последнее выражение принимает вид 8 = fa(s), (5.74) где /*(«) = (^:f(x)) ог(*>°)- Пример 5.3. Рассмотрим задачу стабилизации трехмерного объекта управления XI = O.lxi + х2, (5.75) х2 = -XI, (5.76) Хз = 0.2 и (5.77) относительно двумерной поверхности (параболоида, рис. 5.13) S* = {х€М3: xf + х% + 5хз = 0}. (5.78)
146 Глава 5. Согласованное управление и траекторные задачи Хо Рис. 5.13. Стабилизация движения относительно поверхности Определим задачно-ориентированные координаты системы е = xj + xl + 5x3, (5.79) si = Xu (5.80) S2 = X2. (5.81) После дифференцирования (5.79) и подстановки (5.75)-(5.77) получаем уравнение ошибки ё = 0.2xi + и (5.82) и находим алгоритм управления и = —0.2xi — кее. (5.83) При ке > 0 алгоритм обеспечивает стабилизацию движения системы относительно поверхности S* (см. рис. 5.13, где ке = 0.1). Модель продольного движения (внутренней динамики системы) получается диф¬ ференцированием уравнений (5:80)—(5.81) и после соответствующих подстановок принимает вид 51 = O.lsi -4- S2, (5.84) 52 = si. (5.85) Следует обратить внимание на получение расходящихся колебаний и неустойчи¬ вость внутренней динамики, что однако не оказывает влияния на решение основ¬ ной задачи управления пространственным движением. □
Глава 6. Релейные системы Релейные системы представляют собой достаточно большой класс динамических систем, в состав которых входят нелинейные звенья с разрывной характеристикой (см. 1.2.1). В связи с этим к таким системам не могут быть применены рассмот¬ ренные в главах 4-5 методы анализа и синтеза гладких систем. Теория релейных систем является специальным разделом теории управления и представлена в рабо¬ тах ряда известных ученых [38, 42, 44]. Она имеет развитое научное обоснование и широкое практическое применение. Вопросы релейного управления тесно связаны с проблемами оптимизации процессов управления (см. п. 8.2). В этом разделе мы ограничимся рассмотрением наиболее распространенного клас¬ са одноканальных систем, в состав которых входит простейшее релейное звено sign(-). Рассматриваются основные особенности поведения релейных систем, их свойства в скользящем режиме, затрагиваются вопросы устойчивости релейных систем, а также чувствительности скользящих режимов. 6.1. Релейные системы с нелинейным объектом управления Рис. 6.1. Релейная система Рассмотрим одноканальную динамическую систему (рис. 6.1), представленную нелинейным объектом управления (ОУ), релейным звеном и нелинейным статиче-
148 Глава 6. Релейные системы ским регулятором. Система описывается уравнениями х = f{x) + д(х)и, (6.1) и = —sign v, (6-2) v = h(x), (6.3) где х е X с Мп, и е R, /, д — гладкие вектор-функции, a h — гладкая скаляр- ная функция. Отметим, что разделение системы на объект, регулятор и релейный элемент условно — в частных случаях релейное звено может входить в состав как объекта управления, так и нелинейного регулятора. Функция sign, описывающая нормированный релейный элемент, принимает два постоянных значения 1 и —1, и ее переключение происходит при изменении знака переменной v(t), т. е. при v = 0. Перепишем (6.2)-(6.3) в виде уравнения и = —sign h(x), (6.4) которое показывает, что переключение управления происходит в точках простран¬ ства, удовлетворяющих уравнению h(x) = 0. (6.5) При условии, что для любых х, удовлетворяющих (6.5), выполняется rank h(x) = = 1, это уравнение описывает гладкую поверхность (гиперповерхность размерности п - 1, см. рис. 6.2 и 1.1.4.) S = {х € X : h(x) = 0}, а функция v характеризует текущее отклонение состояния системы от указанной поверхности. Далее будем полагать, что поверхность S является однолистной и, следовательно, делит пространство состояний (или множество X) на две области, в которых, как показывает уравнение (6.4), управление и сохраняет постоянный знак. Такие области называются областями знакопостоянства и определяются как R+ : h{x) < 0, R~ : h(x) > 0. Принимая во внимание (6.4), получим: _ Г 1 при х е R+, ~ \ -1 при х е R~. Релейная система (6.1)—(6.3) может быть представлена в виде системы переменной структуры = ft(x)> X (6.6)
6.1. Релейные системы с нелинейным объектом управления 149 а б Рис. 6.2. Прохождение поверхности <5 и переключение управления и где f±/_4 _ ff(x)+g(x) при xeR+, с 1 f{x)-g{x) при xe,R~. Решениями такой динамической системы является непрерывная функция, состоя¬ щая из гладких отрезков, например (рис. 6.2), Г х (£,х(0), при £ е [О,Г), \х+(£,х(£*)), при £ > £*, (6.7) где х* — решения системы (6.6) в соответствующих областях знакопостоянства, £ = £* — момент пересечения поверхности S, х-(£*,х(0)) = х+(£*,х(£*)). Таким образом, текущая структура системы (6.6) и тип участка фазовой траек¬ тории зависят от области пространства состояний, которой принадлежит текущее состояние системы, а изменение структуры и типа траектории происходит на по¬ верхности S. Определение 6.1. Поверхность, на которой происходит переключение структуры системы (6.6), а следовательно, и ее решений называется поверхностью переклю¬ чения. Проанализируем условия, при которых фазовая траектория релейной системы пе¬ ресекает поверхность переключения и переходит в другую область знакопостоян¬ ства (см. рис. 6.2 и пример 6.1). Траектория пересечет S, если в момент времени £* - Д, предшествующий переходу состояния системы из некоторой области зна¬ копостоянства на поверхность S, вектор ff направлен в сторону другой области знакопостоянства. При этом выполняется Ф 0, v v < 0. v t=t* t=t*-A (6.8)
Глава 6. Релейные системы Для прохождения фазовой траектории из одной области знакопостоянства в дру¬ гую достаточно, чтобы в момент времени t* + Д, последующий за пересечением поверхности переключения, вектор ff был бы направлен в ту же область знако¬ постоянства, что и в момент t* — Д. Аналитически это выражается как v t=r ± о, V V > 0. t=t*+A (6.9) Отметим, что в случае нарушения неравенств (6.8)—(6.9) возможно получение участка фазовой траектории, принадлежащего поверхности переключения или ее бесконечно малой окрестности (см. пример 6.2), а также возвращение траектории в прежнюю область знакопостоянства и возникновение скользящего режима (см. п. 6.2). Пример 6.1. Рассмотрим систему Х\ = Х2, х2 = и, и = —sign v, V = Xi + 0.2x2- Линия переключения системы S описывается уравнением v = xi+0.2x2 = 0, (6.13) а области знакопостоянства — R+ : —х\ — 0.2x2 > 0, R~ : —xi — 0.2x2 < 0- (6.10) (6.11) (6.12) l 1——: -10 12 *1 Рис. 6.3. Фазовые траектории и процессы релейной системы (пример 6.1). Структура пространства рассматриваемой системы, фазовая траектория из точ¬ ки (1,1), а также функция u(t) приведены на рис. 6.3. Рисунок демонстрирует
6.2. Скользящий режим 151 многократное пересечение траекторией линии переключения S и соответствующее переключение сигнала u(t). □ Пример 6.2. Рассмотрим релейную систему (б.Ю)-(б.П) с регулятором v = xi + 0.5(sign x<i)x^. (6.14) Линия переключения системы S описывается уравнением v = х\ + 0.5(sign Х2)х\ = 0, (6.15) а области знакопостоянства — R+ : —Х\ — 0.5(sign £2)^2 > О, R~ : —х\ — 0.5(sign Х2)х% < 0. Отметим, что участки кривой S совпадают с фазовыми траекториями системы при и — il (см. пример 2.5, рис. 2.3), что вызывает нарушение условия (6.9) и определяет специфику переходных процессов такой системы. Структура пространства релейной системы, фазовые траектории из точек хо = = (1,1) и ж0 = (-1,-1), а также функция u(t) при х0 = (1,1) показаны на рис. 6.4. Отличительной особенностью поведения системы после переключения управления и является получение отрезков фазовых траекторий, проходящих вдоль линии переключения S. Последнее обеспечивает достижение оптимального быст¬ родействия переходных процессов из произвольного начального состояния в точку х = (0,0) (см. 8.2.3). □ -2-10 12 х1 б 2 1 0 -1 -2 0 12 3 tyc и \ Рис. 6.4. Фазовые траектории и процессы релейной системы (пример 6.2) 6.2. Скользящий режим На некоторых участках поверхности переключения S релейные системы часто де¬ монстрируют нетривиальное поведение — их фазовые траектории после достиже-
152 Глава 6. Релейные системы ния S не переходят в другую область знакопостоянства, а следуют поверхности переключения (рис. 6.5). При этом наблюдаются быстрые переключения управля¬ ющего воздействия u(t). Такое поведение связано с нарушением условия переклю¬ чения (6.9) и служит проявлением так называемого скользящего режима. О t* t Рис. 6.5. Скользящий режим Рассмотрим нелинейную динамическую систему (6.1)—(6.3), поверхность переклю¬ чения которой описывается выражением (6.5) (см. п. 6.1). Приведем систему к виду (6.6) и проанализируем возможный сценарий поведения вектор-функции /* в окрестности поверхности переключения. Пусть векторы в момент времени Г - А, предшествующий попаданию траекто¬ рии системы из некоторой области знакопостоянства на поверхность S, и в момент времени t* + А последующий за пересечением поверхности переключения, на¬ правлены в противоположные стороны относительно этой поверхности (рис. 6.5). Если указанное явление имеет место на некотором интервале времени, то фа¬ зовая траектория системы будет представлена бесконечно короткими отрезками x±(t), лежащими в малой окрестности S, а управление и — бесконечно короткими импульсами амплитуды ±1. Так как в результате такого поведения системы ее фазовая траектория не покидает рассматриваемого участка поверхности, то ука¬ занный участок приобретает свойства инвариантного множества (см. 2.1.3) и далее обозначается как S*. Определение 6.2. Режим движения релейной системы вдоль поверхности S*, со¬ провождающийся бесконечно частыми переключениями управления, называется скользящим режимом. Условия скользящего режима, соответствующие рассмотренной выше логике пере¬ ключения вектора /* в малой окрестности S(S*), записываются в виде v t=t* t=t*+A (6Л6)
6.2. Скользящий режим 153 После дифференцирования по времени уравнения (6.3) и соответствующих под¬ становок неравенства (6.16) можно переписать в виде (3(х) ф ±а(гг) при h(x) = 0, (6.17) /3(х) > (sign h(x)) а{х) при |^(ж)| = £, (6.18) где г > 0 — бесконечно малое число, / ч dh . Л/ . dh , . а(х) = Р(х) = fa9(x). Из выражений (6.17)—(6.18) нетрудно получить следующее свойство системы в скользящем режиме: /3(х) > |ск(ж) | при х е <S*. (6.19) Поведение релейной системы в скользящем режиме подчиняется функциональному ограничению h(x) = 0, (6.20) описывающему (в некоторой области пространства состояний) поверхность пере¬ ключения S*. Стандартные условия инвариантности (см. 2.1.3) позволяют най¬ ти эквивалентное аналитическое описание системы и эквивалентное управление й, соответствующее среднему значению высокочастотного импульсного сигнала и(£) [44]. Используя понятие эквивалентного управления, перепишем уравнение объекта (6.1) в форме х = f(x)+g(x)u. (6.21) Из условия инвариантности 5*, т. е. dh v = + = О, получим а{х) -f (З(х)и = 0. (6.22) Принимая во внимание, что в силу свойства (6.19) на множестве S* выполняется 0{х) ф 0, найдем эквивалентное управление как решение уравнения (6.22): (ж) 0(х) (6.23) Отметим,-что в силу (6.19) полученное эквивалентное управление удовлетворяет условию |й| < 1.
154 Глава 6. Релейные системы В скользящем режиме динамика движения системы по поверхности S* характе¬ ризуется п — 1 локальной координатой s*(£) (см. п. 5.4 и рис. 5.11) или вектором продольного движения s(t) = {si(i)}, который определяется выражением s = ф(х), (6.24) где ф — некоторая гладкая функция. Выражения (6.3) и (6.24) определяют заданно- ориентированное преобразование координат системы (6.21). Условие регулярности преобразования имеет вид (см. 4.1.1) det дф/дх dh/dx Ф 0. x€<S* (6.25) Последнее достигается при соответствующем выборе функции ф и обеспечивает существование гладкого обратного отображения х = r(s,v). (6.26) Для нахождения модели продольного движения продифференцируем уравнение (6.24) по времени, полагая, что вектор-функция ф выбрана из условия = 0. (6.27) После подстановки (6.21), принимая во внимание, что на поверхности переключе¬ ния х = r(s,0), получим * = Л(«), (6-28) где fa(s) = (~f(x)^ or(s,0). При этом эквивалентное управление (6.23) принимает вид й = or(s,0). (6.29) р(х) Замечание 6.1. Условия скользящего режима в окрестности поверхности S* (6.17)— (6.18) имеют форму неравенств и поэтому выполняются не только для конкретных функций f(x) и д(х), но и при их вариациях в определенных пределах. Из этого следует, что скользящий режим вдоль заданной поверхности обладает свойством инвариантности, или нечувствительности к малым функциональным, параметри¬ ческим и аддитивным возмущениям релейной системы (см. [44], 6.3.3 и пример 6.3). □
6.2. Скользящий режим Пример 6.3. Рассмотрим релейную систему (см. также пример 6.2) X1 = х2, ±2 — bu, (6.30) U = —sign г», (6.31) V = х\ + 0.6(sign Х2)Х2, (6.32) где Ь — постоянный параметр ОУ. Линия переключения системы S* описывается уравнением V = Х\ + 0.6(sign Х2)Х2 = О, (6.33) В данном случае фазовые траектории системы при и = ±1 и b = 1 (см. пример 2.5) не совпадают с кривой S* и их расположение в малой окрестности £(S*) удовлетворяет условиям скользящего режима (рис. 6.6). Последнее обеспечива¬ ет получение переходных процессов, близких к оптимальным по быстродействию (см. 7.2.3). Рис. 6.6. Фазовые траектории и процессы релейной системы (пример 6.3) Условия скользящего режима выполняются и при изменении параметра Ъ. При Ъ € (0.85, оо) фазовые траектории системы после достижения линии переключения S* остаются в малой окрестности этой кривой. Последнее свидетельствует о нечув¬ ствительности системы в скользящем режиме и обеспечивает получение переход¬ ных процессов, близких к оптимальным по быстродействию (квази-оптимальных), для различных значений параметров ОУ, например, при Ь = 0.85, 1.0, 1.3, 2.0 (рис. 6.7). О
Глава 6. Релейные системы 156 Рис. 6.7. Фазовые траектории и процессы репейной системы при изменении параметра ОУ (пример 6.3) 6.3. Релейные системы с линейным объектом управления Важным частным случаем релейных систем является система с линейными объ¬ ектом управления и регулятором х = Ах + Ьи (6.34) —sign v, (6.35) кт х, (6.36) где х€Шп, кт — матрица-строка коэффициентов обратных связей. Переключение структуры такой системы происходит в точках, удовлетворяющих уравнению ктх = 0. (6.37) Последнее описывает плоскость переключения (подпространство размерности п — 1) S = {х 6 Мп : ктх = 0}, которая делит пространство состояния на области (полупространства) знакопосто- янства сигнала и: R+ : ктх < 0, R- : ктх > 0.
6.3. Релейные системы с линейным объектом управления 157 Система может быть представлена в виде системы переменной структуры (6.6), где f±, v _ (Ах + Ъ при х е Р+, Jc кх) — ПрИ xeR~. 6.3.1. Условия устойчивости Для рассматриваемого класса релейных систем можно получить достаточно про¬ стые условия асимптотической устойчивости. Перепишем уравнения системы (6.34)-(6.36) в виде х — Ах — Ь s\ga(kTx). (6.38) Полагая sign 0 = 0, найдем, что система имеет по крайней мере одно положе¬ ние равновесия х = 0. Для анализа устойчивости системы относительно этого положения равновесия введем в рассмотрение квадратичную функцию Ляпунова V{x) = хтРх, (6.39) где Р = Рт — некоторая положительно определенная матрица. После дифференци¬ рования функции Ляпунова по времени и соответствующих подстановок получим V = хт(АтР + РА)х — 2xTPb (sign ктх). (6.40) Пусть матрица Р > 0 является решением системы алгебраических уравнений АТР + РА = —Q, (6.41) РЬ = к, (6.42) где Q = QT > 0. Тогда уравнение (6.40) принимает вид V = —xTQx — 2\хт РЬ\, (6.43) что обеспечивает V < 0, и следовательно, по теореме 3.7 глобальную асимптоти¬ ческую устойчивость релейной системы. Таким образом, справедливо следующее положение. Теорема 6.1. Релейная система (6.34)-(6.36) глобально асимптотически устойчи¬ ва относительно положения равновесия х = 0, если для некоторой матрицы Q > 0 существует положительно определенная матрица Р, удовлетворяющая системе уравнений (6.41)—(6.42). Замечание 6.2. Необходимым условием существования положительно определен¬ ной матрицы Р, удовлетворяющей уравнениям (6.41)-(6.42), является строгая вещественно-положительность передаточной функции W(s) = кт (si — A)~lb
158 Глава 6. Релейные системы (см. лемму Якубовича-Калмана, [26] и замечание 3.5). Последнее свойство, в частности, включает требование устойчивости матрицы А. □ Отметим, что метод функций Ляпунова позволяет также предложить подход к синтезу регуляторов релейных систем с асимптотически устойчивым объектом. Действительно, так как по лемме Ляпунова (см. 3.1.4) для устойчивой матрицы А и произвольной матрицы Q = QT > 0 всегда найдется положительно-определенное решение Р уравнения (6.41), то искомая матрица обратных связей к, обеспечива¬ ющая выполнение условий теоремы 3.7, определяется из выражения (6.42), т. е. к = РЪ. (6.44) Условия теоремы 6.1, включающие устойчивость матрицы А, обычно оказываются чрезмерно жесткими — асимптотическая устойчивость релейной системы (6.34)- (6.36) часто может быть достигнута и для объектов управления, не удовлетворя¬ ющих требованию устойчивости. Пример 6.4. Рассмотрим систему XI = Х2, Х2 = U, (6.45) и = —sign г», (6.46) V = к\Х\ -f к2Х2, (6.47) в состав которой входит неустойчивый объект управления, релейное звено и ли¬ нейный регулятор (см. также пример 2.6). Линия переключения системы S описы¬ вается уравнением v = k\Xi + к2Х2 = 0, (6.48) а области знакопостоянства — R+ : к\Х\ -(- к2Х2 < О, R~ : к\хi + ^2^2 > 0. Фазовые траектории трех релейных систем, различающихся параметрами регуля¬ тора, из различных начальных состояний х0 = (жю,0), а также функции u(t) и х\ (t) для случая х0 = (1,0) приведены на рис. 6.8. Рис. 6.8, а демонстрирует пе¬ риодические незатухающие колебания системы с параметрами ki = 1, к2 = 0. На рис.6.8, б представлены процессы системы с параметрами к\ = 1, fca = 0-25, а на рис. 6.8, в — с параметрами Jci = 1, fc2 = 6.5. Наличие обратной св$ш по споро¬ сти к^х2 обеспечивает получение затухающих колебательных или апериодических процессов и, следовательно, асимптотическую устойчивость системы относительно нулевого положения равновесия. Отметим, что на некоторых участках линий переключения S, расположенны линий переключения, сопровождающееся частыми переключения управления и(\ (см. рис. 6.8, б и в), что соответствует проявлению скользящих режимов. С
6.3; Релейные системы с линейным объектом управления 159 Рис. 6.8. Фазовые траектории и процессы релейных систем с различными параметрами регулятора (пример 6.4)
160 Глава 6. Релейные системь 6.3.2. Скользящий режим и эквивалентное управление Условия скользящего режима системы (6.34)-(6.36) в малой окрестности пло¬ скости переключения S* (6.37) выводятся из неравенств (6.16) и принимают вид ктЪ ф ±кт Ах при кт х = 0, (6.49' ктЪ > (sign ктх) ктАх при |А:га;| = е, (6.50] где е > 0 — бесконечно малое число. Из выражений (6.49)-(6.50) вытекает следу¬ ющее свойство: \ктЪ\ > кт Ах кт х—О (6.51] Для получения эквивалентного аналитического описания системы в скользяще!^ режиме и эквивалентного управления й, соответствующего среднему значеник u(t), перепишем уравнение объекта (6.34) в форме х = Ах + Ьй. (6.52) Используя условие инвариантности плоскости S*, получим кт Ах + ктЬй = 0, (6.53) и учитывая, что в силу условия (6.51) ктЬ ф 0, найдем эквивалентное управление как решение уравнения (6.53): й = — (ктЬ)~1кт Ах. (6.54) После подстановки (6.54) в уравнение объекта (6.52) получим уравнение системы в скользящем режиме: х Ькт \ + Wb)Ах' (6.55) Для вывода уравнения продольной динамики определим п - 1-мерный вектор s = Фтх, (6.56) где Ф — прямоугольная матрица. Условие регулярности преобразования (6.36), (6.56) имеет вид det кт Ф О, (6.57) достигается при соответствующем выборе матрицы Ф и обеспечивает существова¬ ние гладкого обратного отображения
6.3. Релейные системы с линейным объектом управления 161 причем в скользящем режиме, где v = 0, выполняется х = Rss. (6.59) Для нахождения модели продольного движения в скользящем режиме продиффе¬ ренцируем уравнение (6.56) по времени. После подстановки (6.55) и (6.59) получим s = VT(l + —)ARs s. (6.60) При этом формула эквивалентного управления (6.54) принимает вид й = —{kTb)~1kTARS s. (6.61) Пример 6.5. Рассмотрим систему Х\ = х2, ±2 = b и, (6.62) и = —sign v, (6.63) V = к\х\ + к2х2, (6.64) где к\ > 0, к2 > 0, b > 0, и линия переключения S* описывается уравнением (6.48). Условия скользящего движения (6.49)-(6.50) выполняются, если фазовая траектория достигает линии S* при \х2\ < (k2/ki)b2. Для получения эквивалентного управления й перепишем уравнение (6.62) в виде Xi = х2, х2 = й. (6.65) После дифференцирования по времени условия v = k^xi + k2x2 = 0 и подстановки (6.62) получим кгх2 + к2Ьй = 0 и, следовательно, й = -~гх2. (6.66) к2Ъ Подставляя последнее выражение в (6.62), получаем уравнение системы в сколь¬ зящем режиме: h Х\ = х2, Х2 = Ж2. (6.67) Выберем в качестве переменной продольного движения координату х\, и для сколь¬ зящего режима запишем Xi Х2 Х2, *1 к2 Х\ 6 Зак. 281 Х2 (6.68) (6.69)
162 Гпава 6. Релейные системь или к\ Xi = —j^x !• При этом эквивалентное управление (6.66) принимает вид (*л)2 (к2)Ч хх. (6.70 (6.71 Решая уравнение (6.70) и используя соотношение (6.69), получаем явное описани< движения системы в скользящем режиме XI — XT' t = xio е fc2 ki . Х2 = -iior e k2 и подставляя (6.72) в выражение (6.71) — эквивалентное управление и -zio щъ к к м 2 . (6.72 (6.73 (6.74 Отметим независимость скользящего движения от параметра объекта управле ния bj Фазовые траектории релейной системы с параметрами к\ = 1, к2 = 1.5, Ь = из различных начальных состояний х0 = (хю;0), а также функции u(t) и х\(t для случая xq — (1,0) приведены на рис. 6.9. Для выбранных начальных условш достаточно большое значение коэффициента к2 гарантирует после достижения ли нии переключения переход системы в скользящий режим и движение вдоль это! линии в начало координат с экпоненциальным убыванием функции х\. □ xi Рис. 6.9. Фазовые траектории и процессы релейной системы (пример 6.5)
6.3. Релейные системы с линейным объектом управления 163 6.3.3. Скользящий режим возмущенной системы Уравнения (6.68)-(6.69) и (6.72)-(6.73), описывающие поведение в скользящем режиме системы, рассмотренной в примере 6.5, не зависят от Ь, что свидетель- свует о нечувствительности скользящего режима к вариациям параметров объекта управления. Аналогичное явление имеет место и в более общем случае (см. также замечание 6.1). Рассмотрим возмущенную релейную систему с линейными объектом управления и линейным регулятором: (А0 + Ь0ст)х + 7 Ьи, (6.75) —sign v, (6.76) ктх, (6.77) где Ао и 60 — номинальные значения соответствующих матриц, с и 7 > 0 - постоянные или медленно меняющиеся составляющие, характеризующие вариации параметров объекта (параметрические возмущения), а плоскость переключения S* задается выражением кт х = 0. (6.78) Нетрудно показать, что если номинальная система, для которой с = 0 и 7 = 1, удо¬ влетворяет условиям существования скользящего режима (6.49)-(6.50), то этим условиям при некоторых вариациях с и 7 удовлетворяет и возмущенная система (6.75)—(6.77) (см. пример 6.3). Аналогично для сигнально возмущенного объекта управления х = A + b(u + w), (6.79) где w = w(t) — возмущающее воздействие, условия скольжения вдоль S*, спра¬ ведливые при w = 0, сохраняются и в определенном диапазоне изменения возму¬ щения. Пример 6.6. Рассмотрим возмущенную систему первого порядка Xi = Ъ (и + w), (6.80) и = —sign v, (6.81) V - х, (6.82) где w = w(t) — сигнальное возмущающее воздействие, b > 0 — переменный параметр. В рассматриваемом случае множество переключения S* вырождается в точку х = 0. В отсутствие возмущения w условия скользящего движения в точке х = 0 всегда выполняются и не зависят от параметра Ъ (см. рис. 6.10). При этом эквивалентное управление и имеет нулевое значение.
164 Глава 6. Релейные системы Для возмущенной системы условия скользящего режима принимают вид KOI < 1, а эквивалентное управление — и = —w(t). Таким образом, рассмотренная система демонстрирует нечувствительность движе¬ ния в скользящем режиме для широкого диапазона параметрических и сигнальных воздействий. Переходные процессы возмущенной релейной системы из начального состояния xq — 1 приведены на рис. 6.10. Рис. 6.10, а демонстрирует выход системы на скользящий режим при w = 0 и 6 = 0.5, 1.0, 5.0, а рис. 6.10, б — при w = 0.5 sin St и b — 1.0. □ О 1 2 t, с б Рис. 6.10. Переходные процессы возмущенной релейной системы (пример 6.6) Следует отметить, что несмотря на очевидные достоинства релейных систем в скользящем режиме, заключающиеся в их инвариантности к внешним воз¬ действиям и возможности получения достататочно быстрых (например, квази- оптимальных по быстродействию) переходных процессов, на практике такие систе¬ мы обнаруживают целый ряд существенных недостатков. К последним относятся значительные энергетические потери, связанные с использованием предельно до¬ пустимых значений управляющих воздействий ±1, а также высокочастотные коле¬ бания переменных состояния и, как следствие, вибрация механических элементов прикладных систем управления.
Глава 7. Оптимальное управление и классические методы оптимизации Отличительной особенностью хорошо организованной системы управления явля¬ ются ее высокие качественные показатели. В стандартных задачах управления, к которым относятся задачи стабилизации и слежения, для оценки качества процессов, как правило, используются технические показатели — время пере¬ ходного процесса, перерегулирование, затухание, установившаяся ошибка и проч. [4, 24, 31]. Последние хорошо зарекомендовали себя при оценке поведения системы в условиях незначительных отклонений от заданного режима работы (в малом). При больших начальных отклонениях от конечной точки движения (в большом), типичных для задач терминального управления, такие показатели, как перере¬ гулирование, колебательность и установившаяся ошибка, характеризуют свойства системы лишь вблизи конечной точки, т. е. на последнем участке движения, в то время как основная задача заключается в организации всего процесса движения к конечной точке или к области малых отклонений. В этих условиях кардиналь¬ но изменяются требования к системе управления и используемый математический аппарат: • поведение системы в большом, как правило, не может быть представлено линейными (линеаризованными) моделями; • качество процессов определяется показателями функционального типа (функционалами), к которым относятся затраты энергии, быстродействие и интегральные ошибки; • возникает необходимость учета ограничивающих факторов — ограничений на управление и переменные состояния. Все это и определяет необходимость выбора особой стратегии управления, ори¬ ентированной на достижение экстремальных значений функционалов в условиях нелинейности объектов управления и заданных ограничений.
166 Глава 7. Управление и классические методы оптимизации В основе современной теории оптимального управления (см. [3, 5, 14, 15, 33, 37]) лежат методы вариационного исчисления, теории оптимизации, теории случайных процессов и классической теории автоматического управления. В связи с тем, что качество оптимизируемой системы определяется значением функционала, особую роль в теории оптимального управления детерминированными процессами играют классические методы вариационного исчисления — науки об исчислении экстре¬ мумов функционалов, развитой в работах известнейших математиков XVII-XIX столетий: И. Бернулли, И. Ньютона, Л. Эйлера, Ж. Лагранжа, У. Гамильтона, К. Якоби и многих других. В этом разделе формулируются основные задачи оптимизации динамических про¬ цессов и изучаются некоторые вопросы вариационного исчисления в их связи с методами оптимального управления нелинейными динамическими системами. По¬ следние подробно рассматриваются в главе 8. 7.1. Задачи оптимального управления Оптимальным называется управление, обеспечивающее достижение наи¬ лучших в смысле выбранного критерия качественных показателей си¬ стемы в условиях заданных ограничений на управляющие воздействия и переменные состояния. Важнейшую роль в проблемах оптимального управления играет корректная по¬ становка задачи, т. е. адекватный выбор критерия качества и ограничивающих условий. С одной стороны, постановка задачи должна учитывать практические требования к синтезируемой системе, а с другой, содержать хорошо формализо¬ ванный критерий оптимальности и достаточно полный перечень ограничивающих условий. Замечание 7.1. Некорректная постановка задачи оптимального управления обычно приводит к тривиальным или вырожденным (нереализуемым) решениям. Так, за¬ дачи минимизации квадратичных ошибок (см. 8.1.1 и пример 8.1) и оптимизации быстродействия системы без учета ограничений на управляющие воздействия при¬ водят к бесконечно большим управлениям, а задачи минимизации энергетических затрат без учета требований к быстродействию системы — к сколь угодно долгим переходным процессам. □ Будем рассматривать многомерные нелинейные системы (объекты управления) вида х = f(x,u), (7.1) где х е X с Кп, и = {uj} € Km — вектор управления, / — непрерывная или кусочно-непрерывная вектор-функция. Будем полагать, что управляющие воздей¬ ствия должны быть ограничены, т. е. и € U (7.2)
7.1. Задачи оптимального управления 167 где U с Кт — односвязная область многомерного пространства управлений. По¬ добные ограничения отвечают практическим соображениям и в большинстве слу¬ чаев могут быть записаны в виде неравенств где U0 > 0, определяющих в пространстве Шт гиперкуб допустимых управляющих воздействий. Будем рассматривать задачу перевода объекта управления (7.1) из некоторого на¬ чального состояния х(0) = хо в заданную конечную точку x{tf) — Xf или ее окрестность. При этом момент времени tf > 0 соответствует времени оконча¬ ния процесса, величина которого в общем случае может быть неизвестна или не задана. Для оценки качества системы при решении указанной задачи введем в рассмотрение функционал качества где /° — непрерывная скалярная функция. Тем самым каждому управлению u(t) и переходному процессу x(t) ставится в соответствие (обычно неотрицательное) число J(x,u) G К1, являющееся обобщенной мерой качества функционирования системы, или критерием (показателем) качества. К таким критериям относятся: • динамическая (интегральная квадратичная) точность \uj\ < Uq, (7.3) (7.4) • терминальная (квадратичная) точность J = XT(tf)Pfx(tf)] (7.5) • показатель затрат энергии (7.6) • показатель затрат топлива о 1 (7.7) • показатель быстродействия (затрат времени) (7.8)
168 Глава 7. Управление и классические методы оптимизации Замечание 7.2. Показатели (7.4)—(7.7) дают одностороннюю оценку качества си¬ стемы и поэтому, как правило, по отдельности не используются (см. замечание 7.1). Тем не менее они служат для формирования более общих комбинированных критериев, таких как обобщенная квадратичная оценка, совокупный показатель затрат энергии и быстродействия и проч. (см. главу 8). □ Указанные показатели качества, а также их комбинации относятся к так назы¬ ваемым функциям штрафа, значения которых должны быть минимизированы за счет адекватного выбора стратегии управления. Последнее и составляет главное содержание основной задачи оптимального управления. Задача 7.1. Найти управление и = u*{t) и переходный процесс х = x*(t) динами¬ ческой системы (7.1), которые удовлетворяют ограничениям (7.2) и обеспечивают перевод системы из точки ж(0) = жо в точку x(tf) — Xf (или ее окрестность) с минимальным значением функционала (7.3). При этом значение J*=J(x*,u*) = min J(x,u) XjU называется оптимальным значением функционала, а функции {x*(t), u*(£)} = arg minJ(x,u), XyU доставляющие оптимальное значение J = J*, — оптимальными решениями зада¬ чи (оптимальным переходным процессом и оптимальным управлением соответ¬ ственно). Отметим, что оптимальные решения х = x*(t) и и = u*(t) связаны между собой уравнением системы (7.1), которое при решении задачи 7.1 рассматриваться как дополнительное неголономное ограничение. Система управления, обеспечивающая получение оптимальных решений, называется оптимальной системой, а система, для которой решения за¬ дачи достаточно близки к оптимальным, называется квази- или субоп¬ тимальной. Важно отметить, что решение задачи 7.1, т. е. нахождение соответствующих функ¬ ций времени ж*(й), u*(t), не указывает конструктивного пути для построения оп¬ тимальной системы управления. Наиболее очевидной является программная ре¬ ализация управления, т. е. построение следящей системы [1, 15, 19, 24, 26], со¬ держащей задающий блок, который и вырабатывает найденные функции времени. Сложности генерации нетривиальных зависимостей x*(t), u*(t), а также синте¬ за замкнутой системы программного управления определяют основной недостаток указанного подхода. В связи с этим возникает задача синтеза алгоритма управ¬ ления {регулятора), обеспечивающего получение оптимальных решений за счет замыкания системы по переменным состояния.
1.2. Экстремумы функций 169 Задача 7.2. Найти алгоритм управления (регулятор) и = U(x), обеспечивающий получение оптимального управляющего воздействия и = u*(t) и оптимального переходного процесса х = x*(t) системы (7.1). Регулятор (алгоритм управления), обеспечивающий получение опти¬ мальных процессов, называется оптимальным регулятором, а регулятор, для которого достигаются решения, близкие к оптимальным, — квази- или субоптимальным. 7.2. Экстремумы функций В этом разделе рассматриваются вопросы нахождения минимальных и максималь¬ ных значений функций в простейших экстремальных задачах и задачах с до¬ полнительными ограничениями [17]. Представленные здесь результаты являются основой методов вариационного исчисления, изучаемых в последующих разделах этой главы. 7.2.1. Основная задача Рассмотрим непрерывную скалярную функцию У = /(*), определенную на интервале х е [а, Ь], т. е. / е Cj^bj. Задача нахождения экстрему¬ ма (минимума или максимума) функции заключается в определении наибольшего или наименьшего значения у = у*, которое принимает функция f(x) на множестве [а, 6], а также аргумента х = х* е [а, 6], при котором имеет место это значение, т. е. в нахождении числовых значений у* = min f(x) [а,Ь] И х* = arg min f(x). [а,Ъ] Ha рис. 7.1 представлена непрерывная функция, минимум которой у = у* достига¬ ется в точке х* = хь- В силу дуальности задач нахождения минимума и максимума далее будем рас¬ сматривать в основном минимумы функции f(x). Определение 7.1. Точка х = х* называется точкой абсолютного экстремума (минимума) функции f{x), когда для любых х е [а, Ь], х ф х* выполняется /(s*) < f(x). (7.9)
170 Глава 7. Управление и классические методы оптимизации У х Рис. 7.1. Абсолютный минимум и точки, подозрительные на экстремум При этом значение у* = fix*) называется абсолютным экстремумом (миниму¬ мом) функции f(x) на интервале [а, Ь). Введем в рассмотрение окрестность £(х*) с [а, Ь] точки х*. Определение 7.2. Точка х = х* называется точкой локального экстремума (ми¬ нимума) функции f{x), когда существует окрестность £{х*) такая, что для любых х е £(х*), хфх* выполняется условие (7.9). При этом значение у* — f(x*) назы¬ вается локальным экстремумом (минимумом) функции f(x) на интервале [а, 6]. Функция, представленная на рис. 7.1, имеет две точки локального минимума х = = ж3, х5 и абсолютный минимум в точке х* = х5. Условие локального или абсолютного экстремума (7.9) можно записать как где Л/ — приращение функции f(x). Замечание 7.3. К точкам экстремума относятся также точки абсолютного и ло¬ кального максимумов, для которых условия (7.9)—(7.10) принимают вид Абсолютный экстремум функции может достигаться как в точках локального экс¬ тремума, так и на границах области определения [а, Ъ]. В первом случае экстремум называется внутренним, а во втором — граничным. В общем случае непрерывная функция f(x) может оказаться недифференцируемой в некоторых точках х, называемых сингулярными. В таких точках производная Д/(*) = /(*)-/(*•) > 0, (7.10) Я**) > Дж), Д/(*) = fix) < 0. (7.11) (7.12) □ (7.13)
7.2. Экстремумы функций 171 не определена. Сингулярные точки также могут доставлять функции локальный или абсолютный экстремум. Так, сингулярная точка х = х3 на рис. 7.1 является точкой локального минимума. Среди регулярных (несингулярных) точек особое значение имеют стационарные точки х = х*, в которых производная функции /(х) обращается в нуль: fix') = 0. (7.14) Функция, представленная на рис. 7.1, имеет несколько стационарных точек, из которых х = Х2У Х4 являются точками локального максимума, а точка х = х5 — точкой локального (и абсолютного) минимума. С понятием стационарной точки связан один из основных методов изучения ло¬ кальных экстремумов — теорема Ферма. Теорема 7.1 (1-й необходимый признак). Пусть функция f(x) дифференцируе¬ ма в точке х = х*. Тогда, если точка х = х* доставляет локальный экстремум функции, то она является стационарной точкой. Доказательство теоремы основано на рассмотрении свойств приращения Д/(х) в малой окрестности точки х*. Для дифференцируемой функции f(x) в малой окрестности точки х* имеет место разложение Д/(х) = f(x*)Ax + о(Ах). (7.15) Здесь Ах = х — х* — приращение аргумента, Л/ = f(x')Ax (7.16) — первый дифференциал функции /(х) и о(Ах)/Ах —► 0 при Ах —* 0. При доста¬ точно малых Дх из условия стационарности (7.14) и формулы (7.10) следует, что первый интеграл в рассматриваемой точке обращается в нуль: <Д/(х*) = f(x*)Ax = 0, и поэтому /'(х*) = 0. Теорема предлагает только необходимые условия экстремума — из условия ста¬ ционарности (7.14), вообще говоря, не следует, что точка х = х* является точкой локального экстремума. Стационарными являются также точки перегиба функции /(х). Для случая дважды дифференцируемой функции, для которой существует вторая производная /"(*) = g. (7Л7) некоторые из «лишних» стационарных точек могут быть исключены из рассмотре¬ ния с помощью следующего положения.
172 Глава 7. Управление и классические методы оптимизации Теорема 7.2 (2-й необходимый признак). Пусть функция f(x) дважды диф¬ ференцируема в точке х = х*. Тогда, если точка х = х* доставляет функции локальный экстремум (минимум), то /"СО > 0. (7.18) Доказательство теоремы также основано на рассмотрении свойств приращения Af(x) в малой окрестности точки х* и разложении: Д f{x) = f'(x')Ax + ^f"(x,)Ax2 + о(Ах), (7.19) <Pf = /'V)A*2 (7.20) — второй дифференциал функции f(x), a dlf = 0 в силу стационарности точки х* (см. теорему 7.1). Достаточные условия экстремума даются следующим положением. Теорема 7.3 (достаточный признак). Пусть функция f(x) дважды дифференци¬ руема в точке х = х*. Тогда, если выполняется /V) = 0, (7.21) f"(x*) > 0, (7.22) то точка х = х* доставляет функции локальный экстремум (минимум). Отметим, что условия (7.21)—(7.22) не являются необходимыми — в ряде случаев в экстремальных точках имеет место f"(x*) = 0. Замечание 7.4. При исследовании максимумов условия (7.18), (7.22) теорем 7.2- 7.3 заменяются неравенствами f”(x*) < 0, (7.23) /"СО < 0 (7.24) соответственно. □ Приведенные положения касаются локальных свойств достаточно гладких функ¬ ций. В общем случае для нахождения точки абсолютного экстремума можно вос¬ пользоваться простым перебором точек, подозрительных на экстремум, или так называемых критических точек, к которым относятся • стационарные точки; • граничные точки а и 6; • сингулярные точки.
7.2. Экстремумы функций 173 После нахождения всех критических точек х*} в области [а, Ъ] (для случая, когда их число конечно) следует сравнить значения f(x*j) и выбрать среди них наименьшее: у* = min f(Xj). з Точка = arg min/(zp з J будет соответствовать искомой точке абсолютного минимума. Так, для функции на рис. 7.1 точками подозрительнымы на экстремум являются стационарные точки Ж2, х4, х5, граничные точки хг, х6 и сингулярная точка ж3. Простым перебором нетрудно найти точку абсолютного минимума х* = я5 и минимальное значение У* = Дя5). Рассмотрим непрерывную скалярную функцию п переменных У = /0*0, где х = {я*} — n-мерный вектор, определенный в области X с Мп. Задачи на¬ хождения экстремума функции многих переменных, определения абсолютного и локальных экстремумов принципиально не отличаются от рассмотренных выше. Стационарные точки х — х* определяются как точки, в которых обращаются в нуль все частные производные рассматриваемой функции или вектор-строка /'(*) д_1 дх -а/ а/ от .дх\ дх2 дхп. (7.25) Стационарность точки х = х* является достаточным условием локального экстре¬ мума функции многих переменных, т. е. для рассматриваемого случая остается в силе первый необходимый признак экстремума (теорема 7.1). 7.2.2. Задачи на условный экстремум Рассмотрим непрерывную скалярную функцию п переменных у = f(x) и дополни¬ тельное условие, заданное в виде неявной гладкой функции 9(х) = 0, (7.26) где х = {ж*} G X с Kn, f(x) € С°, д(х) € С1. Выражение (7.26) в пространстве Мп определяет гиперповерхность S (см. 1.1.4) и является условием, ограничивающим допустимые решения задачи поиска точек экстремума функции f(x). Задача нахождения условного экстремума (минимума или максимума) функции У = f(x) заключается в определении наибольшего или наименьшего значения у = у*, которое удовлетворяет ограничению (7.26), т. е. у* = min f(x),
174 Глава 7. Управление и классические методы оптимизации Рис. 7.2. Условный экстремум а также аргумента ж = х* е [а, Ь], при котором имеет место это значение, т. е. х* — arg min f(x) x£S (рис. 7.2). Введем в рассмотрение функцию Лагранжа /(я» А) = Дж) + Ар(ж), (7.27) где Л — постоянный коэффициент, называемый множителем Лагранжа. Отме¬ тим, что на поверхности S, где д(х) = 0, значения функции / не зависят от А и совпадают со значениями функции /(ж): f{x, А) x<=S f(x). Справедливо следующее положение (критерий Лагранжа). Теорема 7.4 (необходимый признак условного экстремума). Пусть функция f(x) дифференцируема в точке х — х*. Тогда, если точка х = х* доставляет условный локальный экстремум функции f(x), то найдется значение А = А* такое, что точка (ж*, А*) является стационарной точкой функции Лагранжа /(ж, А). Условия стационарности функции Лагранжа записываются как df дх х=х*,\—Х* df дХ х=х*,А=А* О, 0. После нахождения частных производных функции (7.27) получим = о, д( ж) = о, df .дд 1Гх+Х1 (7.28) (7.29) (7.30) (7.31)
7,2. Экстремумы функций 175 где уравнение (7.30) называется уравнением Лагранжа, а уравнение (7.31) повто¬ ряет ограничение (7.26). Полученная система п + 1 уравнения используется для нахождения значений х = х* и Л, соответствующих искомой стационарной точке. Пример 7.1. Найдем минимум функции у = aforf + а%х\ (7.32) при ограничении (условии) a*i + Х2 — С = 0, (7.33) где а\ Ф 0, яг ф 0. С ф 0. Введем в рассмотрение функцию Лагранжа f(xi,X2, А) = а\х\ +а\х\ +\ {х\ + Х2 - С). (7.34) Условия стационарности функции (7.34) представлены выражениями [2a1xi 20^X2} + А [1 1] = О и (7.33), или в развернутом виде 2a"lxi + А = О, 2(^X2 -I- А — 0. *i + х2 - С = 0. Из этой системы уравнений находим * Xl = оа2 а1 + а2 5 * х2 = Со? 2 1 2 ’ of + а| А ^ 2Cofa^ of + После подстановки в (7.32) получим значение минимума функции Са\а2 а\ + й2 (7.35) (7.36) (7.37) (7.38) (7.39) (7.40) (7.41) (7.42) □ Результат обобщается на случай га ограничивающих условий, когда д(х) = {gj} в уравнении (7.26) является га-мерной вектор-функцией, и функция Лагранжа принимает вид f(x, А) = f{x) + Y^xjdj(x) ~ /(я) + Аг#(.т), i=i (7.43)
176 Глава 7. Управление и классические методы оптимизации где Л =s= {Aj} — вектор постоянных коэффициентов {множителей Лагранжа). Условия стационарности точки (ж*, А*) включают векторное уравнение (7.26) и векторное уравнение Лагранжа df дх 0. (7.44) 7.3. Простейшая задача вариационного исчисления Рассмотрим множество непрерывных скалярных функций У = У(х), определенных на интервале х е [x0,xf], и функционал J(y) = [ F{y,y',x)dx, (7.45) J X О где F — гладкая функция. Задача нахождения минимума или максимума функционала заключается в опре¬ делении функции у = у*{х) {экстремали), которая доставляет функционалу наи¬ меньшее или наибольшее значение {экстремум) J* = J{y*{x)), т. е. у*{х) = arg minJ(y) или у* (х) = arg шаxJ{y), у(х) у{х) а также в нахождении самого экстремума J{y*) = minJ(y) или J{y*) = maxJ(y). v(x) y{x) Пример 7.2. Пусть заданы точки (ж0,уо) и {xf,yf), где Xf > х0. Требуется найти кривую у = у*{х), которая представляет кратчайший путь между точками, а также определить наименьшее расстояние между точками при движении по этой кривой 1 = 1*. Для произвольной гладкой кривой у = у{х) расстояние определяется формулой 1{у) = Г %/1 + (!/)2<ь, (7.46) Jx О где у' = dy/dx. Поэтому задача сводится к нахождению функции у{х) (экс¬ тремали), на которой обеспечивается минимальное значение функционала (7.46), а также значения функционала для найденной функции. □ Пример 7.3 (задача о брахистохроне). Пусть точки 0 с координатами (яо,Уо) = = (0,0) и А с координатами (ж/,г//) принадлежат плоской кривой у = у{х), по которой под действием силы тяжести mg скатывается материальная точка массы m (рис. 7.3).
7.3. Простейшая задача вариационного исчисления 177 Рис. 7.3. Брахистохрона Требуется отыскать кривую у = у*(х), при движении по которой достигается минимальное время tf перемещения из точки 0 в точку А, а также найти оптимальное значение времени £J. Указанная кривая называется брахистохро¬ ной. Время перемещения точки по наклонной кривой у = у(х) определяется выражением <7-47) и поэтому задача сводится к нахождению экс¬ тремали у = у*(х), на которой обеспечивается минимальное значение функци¬ онала (7.47), а также к определению значения функционала £/ для найденной функции. □ Далее будем рассматривать задачи нахождения минимума функционала J(y). Определение 7.3. Функция у = у*(х) называется абсолютным минимумом (экстремалью) функционала J(y), когда для любых у е С1, у(х) Ф у*(х), х € [хо,х/], выполняется J(y)-J(y*) > о. (7.48) При этом значение J* = J(у*) = miny(x) J(y) называется абсолютным экстрему¬ мом (минимумом) функционала J(y). Введем в рассмотрение окрестность £(у*(х)) функции у*(х), т. е. некоторое мно¬ жество гладких функций у(х), достаточно близких к у*(х). Отметим, что принято различать слабые и сильные окрестности [3, 13]. Определение 7.4. Функция у = у* (х) называется локальным минимумом (локальной экстремалью) функционала J(y), когда для любых функций у(х) е € £(у*(х)), у(х) ф у*(х), х е [x0,xf], выполняется условие (7.48). При этом значение J* = J(у*) = J(y) называется локальным экстрему¬ мом (минимумом) функционала J(y). Так называемая простейшая задача вариационного исчисления формулируется как задача нахождения локальной или абсолютной экстремали у = у*(х) (рис. 7.4), т. е. функции, которая а) доставляет функционалу J(y) наименьшее значение J* = J(y*(x)) = min J(y)\
17$ Глава 7. Управление и классические методы оптимизации б) проходит через заданные краевые точки У*(х о) = Уо, y*{xf) = У/- Рис. 7.4. Экстремаль 7.3.1. Вариации функционалов и основные теоремы Пусть функция у = у*(х) — искомое решение простейшей вариационной задачи, а функция у = у(х) — произвольная гладкая функция, проходящая через заданные краевые точки: у(хо) = Уоу y(xf) = У/ (рис. 7.5). Тогда можно записать у(х) = у*(х) + 6у, (7.49) где 8у — вариация функции у(х) с краевыми значениями 6у(хо) = 8y(xf) = 0. Рис. 7.5. Вариация экстремали
7.3. Простейшая задача вариационного исчисления Рассмотрим значения функционала (7.45) для функций у*(х) и у(х) соотвественно: W) J(y) [ F(y*,y*',x)dx, J xq f F(y* +Sy,y*' + 8y',x)dx. J xn (7.50) (7.51) Нетрудно получить следующее разложение функционала (7.51) в малой окрестно¬ сти решения у*(х): + \s2J у=у* Z у=у* + o(Sy). J(y) = J(y’) + S'J Здесь 5lJ — первая вариация функционала: s'j = r’(F;sy + F;,Sy')dx, Jxa 82J — вторая вариация функционала: 62J = Г’(F;t6y2 + 2F’y,SySy' + +F’,y,dyl2)dx; J In (7.52) (7.53) (7.54) dF/dy\ , Fy> = dFJdy' \y=y* y=y* yy d/dy'{dF/dy) y=y* F* , у y' F;y = d2F/dy2 ■■ d2 F/dy12 Из формулы (7.52) получим приближенное выражение для приращения функцио¬ нала при малых вариациях функции у(х): AJ{y) = d(y) — J[y*) ss + (7.55) что дает возможность записать условие минимума функционала (7.45) в вариа¬ циях: 61J + ^62J > 0. (7.56) Последнее выражение является основой следующих признаков локального экстре¬ мума. Теорема 7.5 (1-й необходимый признак экстремума). Пусть функционал (7.45) при у = у*{х) имеет первую вариацию 8lJ. Тогда, если функция у = у*(х) яв¬ ляется локальной экстремалью, то она является стационарным решением, т. е. удовлетворяет условию 81J у=у*(х) = 0. (7.57)
180 Глава 7, Управление и классические методы оптимизации Теорема предлагает только необходимые условия экстремума — из условия ста¬ ционарности (7.57), вообще говоря, не следует, что функция у = у*(х) является локальной экстремалью. При условии, что существует вторая вариация S2J функ¬ ционала (7.45), некоторые из «лишних» стационарных решений могут быть исклю¬ чены из рассмотрения с помощью следующего положения. Теорема 7.6 (2-й необходимый признак минимума). Пусть функционал (7.45) при у = у*(х) имеет вторую вариацию S2J. Тогда, если функция у = у*(х) является локальной экстремалью, то она удовлетворяет условию S2J у—у*{х) > о. (7.58) Достаточные условия минимума даются следующим положением. Теорема 7.7 (достаточный признак минимума). Пусть функционал (7.45) при У — У*(я) имеет первую и вторую вариации. Тогда, если выполняется 8lJ S2J У=У*( х) у=у*(х) > 0, к\6у\2, (7.59) (7.60) где к > 0, то функция у = у*(х) является локальной экстремалью (минимумом). Отметим, что условия (7.59)-(7.60) не являются необходимыми, и обратное вооб¬ ще говоря не верно. Приведенные положения касаются локальных свойств функционалов. Для нахож¬ дения абсолютного экстремума в достаточно общем случае можно воспользоваться простым перебором функций у^(х), подозрительных на экстремум (см. 7.2.1). 7.3.2. Параметризация задачи и уравнение Эйлера-Лагранжа Нахождение экстремальных решений в соответствии с теоремами 7.5-7.7 связано со значительными аналитическими трудностями, обусловленными в частности тем, что их условия должны удовлетворяться для всех допустимых вариаций функции у(х). Условия упрощаются для специального класса вариаций 6у = а г)(х), (7.61) где г}(х) — произвольная гладкая функция, удовлетворяющая условиям г)(хо) = = Г}(х/) = 0, а — вещественное число: а е R. Необходимые вариации искомой
7.3. Простейшая задача вариационного исчисления 181 функции у*(х) обеспечиваются за счет изменения параметра а, причем при а = О имеет место у(х) = у*{х). Задача минимизации функционала J(y) сводится к минимизации функции одной переменной Ja(a) = J(y*(x) + аг)(х)), (7.62) т. е. к нахождению числовых значений argminJa(a) = arg min J(y), (7.63) a y(x) где У = У* + ат)(х). Так как в силу определения функции Ja и по¬ следнего выражения имеет место Ja(0) = J(y*(x)) = min J(y(x)), (7.64) У(х) то решение задачи нахождения точки экстремума Ja тривиально и дается значе¬ нием а = 0 (рис. 7.6). Тем не менее подход достаточно конструктивен, так как позволяет связать условия минимума функционала J(y) (см. теоремы 7.5-7.7) с достаточно простыми условиями минимума функции Ja(a) в точке a = О, которые даются теоремами 7.1-7.3. Запишем разложение функции Ja{cx) в малой окрестности стационарной точки a = 0: Рис. 7.6. Функция Ja •Л» (о;) J<*{ 0) + dJa da 1 <PJa .0^2 da2 + o(a) a=0 (7.65) и соответствующее разложение функционала J(y) в малой окрестности стационар¬ ного решения у*{х) (см. (7.55)): J(y) = W + s'J 4* -S2J у-у * V-y + о(у-у*). (7.66) В силу определения (7.62) и свойства (7.64) в достаточно малой окрестности ста¬ ционарных решений можно записать dJa da 1 d2Ja a=о 2 da2 “ 8lJ a—0 + >J y=y* l У-У* (7.67) Последнее выражение позволяет сформулировать следующие утверждения.
Глава 7. Управление и классические методы оптимизации Теорема 7.8. Пусть функционал (7.45) при у — у*(х) имеет первую вариацию S1J. Функция у = у*{х) является стационарным решением, т. е. S1J у-у*{х) = О, тогда и только тогда, когда точка а = 0 является стационарной точкой функции (Mo. da = 0. :0 Теорема 7.9. Пусть функционал (7.45) при у = у*{х) имеет вторую вариацию S2J. Функция у = у*(х) удовлетворяет условию S2J У=У*( х) > 0 тогда и только тогда, когда точка а = 0 удовлетворяет условию <pja da2 > 0. :0 С использование теорем 7.8-7.9 необходимые условия локального экстремума функционала J(y) (теоремы 7.5-7.6) могут быть заменены простыми условиями локального экстремума функции Ja(o:). После несложных аналитических преоб¬ разований функций dJa(a)/da и d2Ja(a)/da2 в точке а = 0 получаем следующую формулировку необходимых условий экстремума функционала J(y). Теорема 7.10. Пусть функционал (7.45) при у = у*{х) имеет первую вариацию 81J. Тогда, если функция у = у* (х) является локальной экстремалью, то она является решением уравнения Эйлера-Лагранжа Fy - AFy, = 0. (7.68) Таким образом, для нахождения решения, подозрительного на экстремум, необ¬ ходимо найти частное решение у = у*(х) дифференциального уравнения второго порядка (7.68). Для получения этого решения используются краевые условия У*(х о) = уо, y*(xf) = yf. (7.69) Пример 7.4. Рассмотрим задачу поиска кратчайшего пути (см. пример 7.2). Здесь F = VTTW- (7.70)
7.3. Простейшая задача вариационного исчислений 183 Так как функция F явно не зависит от у, то Fy = 0, и уравнение Эйлерй-Лагранжа принимает вид ; = °- После определения производных прлучаем (1 + (у')2Г1,2у" - (1 + (у')2Гт(у')2у" = (7.71) (7.72) Из последнего выражения находим дифференциальное уравнение у"{х) = О, (7.73) решением которого является функция (прямая) у = Со + Cix. (7.74) Здесь Со, Ci — постоянные коэффициенты, которые определяются из краевых условий: у{хо) = Со + С\хо, y{xf) = Co + CiXf. (7.75) В заключение определяем у' = С\, и подставив в выражение (7.46), находим расстояние между точками: minl(y) - y/l + (Ci)2 (xf - xo). (776) Теорема 7.10 предлагает только необходимые условия экстремума, и поэтому ис¬ пользование уравнения Эйлера-Лагранжа часто приводит к получению «лишних» решений. Для функционалов, у которых существует вторая вариация*62J, некото¬ рые из таких решений могут быть исключены из рассмотрения с помощью допол¬ нительного необходимого условия (условия Лежандра). Теорема 7.11. Пусть функционал (7.45) при у — у*{х) имеет вторую вариацию S2J. Тогда, если функция у = у*(х) является локальной экстремалью, то она удовлетворяет условию Лежандра > 0. (7.77) 7.3.3. Частные случая и обобщения Представляет интерес частный случай простейшей задачи вариационного исчисле¬ ния, когда функционал имеет вид pXf J{y) = / J Ха F(y, y')dx, (7.78)
184 Глава 7. Управление и классические методы оптимизации т. е. подынтегральное выражение F явно не зависит от аргумента х. Нетрудно получить, что в рассматриваемых случаях d_ = d2F , d2F „ dx у дуду'У ^ ду'ду,У и, следовательно, уравнение Эйлера-Лагранжа приводится к виду (7.79) dF d2F , d2F , ду дуду' У ду'ду' У (7.80) или OF л ду'У) 0. (7.81) Из последнего выражения следует, что функция в скобках не зависит от х, и можно записать р-о^М = (7-82) где С = const — неопределенная постоянная. Таким образом, для функционалов вида (7.78) решение вариационной задачи сводится к интегрированию дифферен¬ циального уравнения первого порядка. Пример 7.5. Рассмотрим задачу о брахистохроне (см. пример 7.3). Здесь функция F определяется выражением *W) 1 + {у')2 2ду (7.83) и явно не зависит от х. Решение ищется из уравнения (7.82), которое принимает вид _ fipl _ 1 = с. (7.84) 29У Ъду y/i + (у')2 После преобразований получаем нелинейное дифференциальное уравнение первого порядка 2gy(l + (y')2) (7.85) Решение уравнения может быть найдено в параметрическом виде: У = 2^2(! -cost), ж = ^(1 -sint) + СХ (7.86) и представляет собой семейство циклоид. Параметры С и С\ находятся из краевых условий x(tf) — хf и y(tf) = у/. □
7.3. Простейшая задача вариационного исчисления 185 Рассмотрим задачу нахождения экстремали у — у*(х) для функционала более общего вида J(»)= Г F{y,y'...yW,x)dx, (7.87) Jx о где F — гладкая функция. Простейшая задача вариационного исчисления форму¬ лируется как задача нахождения локальной или абсолютной экстремали у = у*(х), которая доставляет функционалу J(y) наименьшее значение и удовлетворяет за¬ данным краевым условиям У*Ь){х о) = у{03\ y*ij)(xf) = y(f3\ j = 0,l,...,n- 1. (7.88) В данном случае необходимый признак экстремума формулируется следующим образом. Теорема 7.12. Если функция у — у*{х) является локальной экстремалью функци¬ онала (7.87), то она является решением уравнения Эйлера-Пуассона -lF*' + + " ■ += а (7-89> Отметим, что последнее уравнение имеет порядок 2п, что соответствует числу краевых условий (7.88). Теперь рассмотрим векторную функцию скалярного аргумента У = у(х), где у = {yj}, j = 1,2,..., п, и задачу нахождения экстремали у = у*(х), которая доставляет наименьшее значение функционалу fX f J{y) = / F(y,y',x)dx Jx о и удовлетворяет заданным краевым условиям V*j{xо) = yoj, y*j{xf) = yfj, j = 1,2,... ,n. (7.90) В данном случае необходимый признак экстремума содержит п дифференциальных уравнений второго порядка yj О или одно векторно-матричное уравнение Эйлера-Лагранжа порядка 2п: (7.91)
186 Глава 7. Управление и классические методы оптимизации 7.3.4. Задача с подвижными концами Обычная задача минимизации функционала предусматривает нахождение экстре¬ мали у = у*(х), проходящей через заданные краевые точки у0 и у/. В задаче с подвижными концами такие точки заранее не известны, но заданы кривые, на которых эти точки должны располагаться (рис. 7.7). Рис. 7.7. Экстремаль в задаче с подвижными концами Введем в рассмотрение достаточно гладкие кривые So: у = <Ро{х) (7.93) Sf: y = 4>f(x), (7.94) где <ро,<р/ е С1. Вариационная задача с подвижными концами формулируется как задача нахож¬ дения функции у = у*(х), которая а) доставляет функционалу (7.45) наименьшее значение J* = J{y*{x)) =min J{y); У{х) б) имеет краевые точки, лежащие на заданных кривых: (so,2/o) € So, (xf,yf) е Sf. (7.95) Необходимые условия минимума для задачи с подвижными концами даются сле¬ дующей теоремой. * Теорема 7.13. Пусть функционал (7.45) при у = у*(х) имеет первую вариацию 81J. Тогда, если функция у = у*(х) является локальной экстремалью с краевыми условиями (7.95), то
7.3. Простейшая задача вариационного исчисления 1В7 1) функция у = у*(х) является решением уравнения Эйлера-Лагранжа (7.68); 2) функция у = у*(х) в краевых точках удовлетворяет условиям трансверсально¬ сти, т. е. при х = хо выполняется а при х — Xf — F + FA^o-t/) = 0, (7.96) F + Fy'iv'f-у') = 0. (7.97) Таким образом, для нахождения решения, подозрительного на экстремум, необ¬ ходимо получить общее решение у = у*(х) дифференциального уравнения (7.68), и используя условия трансверсальности (7.96)-(7.97), найти необходимое частное решение. Замечание 7.5. Условия трансверсальности в целом ряде частных случаев (см. пример 7.6) принимают вид <Ро У' Ч>) у' Х—Хо ~-Xf -1, -1, (7.98) (7.99) что соответствует условиям ортогональности касательных в точках пересечения (см. рис. 7.7). Таким образом, условия трансверсальности часто заключаются в ортогональности экстремали у = у*{х) по отношению к заданным кривым SQ и Sf. □ Пример 7.6. Рассмотрим задачу поиска кратчайшего пути между двумя кривыми (см. также примеры 7.2, 7.4). Как показано в примере 7.4, экстремаль описывается уравнением у = CQ + ClX, (7.100) где Со, Ci — неопределенные параметры, которые обычно находятся из условий у(х0) = Co + Ci^o, y(xf) = Со + C\Xf. (7.101) В рассматриваемой задаче начальные и конечные значения экстремали не заданы, а лежат на заданных кривых. Поэтому значения х0 = х(0), уо, ж/, у/ = у(х/) в выражении (7.101) должны быть найдены из условий трансверсальности. Так как функция F описывается уравнением (7.70), то F, = - У у yrrw (7.102)
Глава 7. Управление и классические методы оптимизации Рис. 7.8. Наикратчайшее расстояние между кривыми (пример 7.6) Подставляя (7.70) и (7.102) в (7.96)—(7.97), получаем условия трансверсальности в виде (7.98)—(7.99), т. е. условия ортогональности касательных. Пусть заданы (рис. 7.8) прямая S0: у = кхх + ко и ближайший к ней отрезок окружности Sf : у — л/R2 — х2. В точках пересечения с экстремалью у = у*{х) выполняется: Уо = kixo + ko, yf = yjR2 - x2f. (7.103) Теперь найдем функции у', (p'Q, <p'f и их значения в краевых точках: У' = съ <Ро = к\, _ х <Pf — / — ? и перепишем условия (7.98)—(7.99) в виде Cxxf kiCi = -1, = -1. (7.104) (7.105) (7.106) (7.107) Таким образом, получены 3 пары алгебраических уравнений (7.101), (7.103) (7.107), из которых определяются 6 неопределенных параметров: ж0, ж/, у0, Со, Ci. Подстановка С0, С\ в (7.100) дает уравнение искомой экстремали, а подстанов¬ ка значений х0, ж/, С\ в выражение (7.76) — минимальное расстояние между кривыми. □
7.4. Задачи на условный экстремум 189 7.4. Задачи на условный экстремум В отличие от простейшей задачи вариационного исчисления в задачах на услов¬ ный экстремум рассматриваются векторные функции, удовлетворяющие некоторым дополнительным условиям — ограничениям типа равенств: 7.4.1. Задача Лагранжа Рассмотрим функционал J(y) = [ F(y,y',x)dx, (7.108) где у(х) е Мп — непрерывная векторная функция скалярного аргумента х, и введем к дополнительных голономных ограничений (связей переменных у их), заданных в виде 9j(y,x) — 0, j = (7.109) где к <п. Ограничения могут быть записаны в векторной форме д{у,х) = 0, (7.110) где д = {gj}, и определяют гиперповерхность S с Rn+1 (рис. 7.9). Будем полагать, что вектор-функция д удовлетворяет условию регулярности rank ®д{у,ар ду = к. (7.111) Рис. 7.9. Экстремаль в задаче на условный экстремум Задача Лагранжа формулируется как задача нахождения условной экстремали / = у*(х), т. е. функции, которая
190 Глава 7. Управление и классические методы оптимизации а) доставляет функционалу (7.108) наименьшее значение J* = J{y*{x)) = min J{y); У(х) б) удовлетворяет Ограничениям (7.109); в) проходит через заданные краевые точки У*{хо) = 2/о, V*{xf) ■— 2//, (7.112) удовлетворяющие условиям д(х0,уо) - 0, g(xf,yf) = 0. (7.113) Задача сводится к простейшей задаче вариационного исчисления (см. п. 7.3). Введем в рассмотрение вектор-функцию множителей Лагранжа Л(х) = (А^(ж)} е G Kfc, и лагранжиан Необходимые и достаточные условия экстремума функционала J(x) в задаче Лагранжа даются следующей теоремой. Теорема 7Л4» Функция у = у*(х) е S является локальной экстремалью функцио¬ нала (7.108) в задаче на условный экстремум тогда и только тогда, когда существу¬ ет вектор-функция А(х) ф 0 такая, что у = у*(х) является локальной экстремалью расширенного функционала (7.115). Таким образом, и задача Лагранжа сводится к простейшей задаче вариационного исчисления для расширенного функционала. Последняя может быть решена с использованием пары уравнений Эйлера-Лагранжа к F(y,y\\,x) = F(y,y'x) + Xj(x)gj(y,x) = F(y, у', х) + ХТ(х)д(у, х), (7.114) Сформируем расширенный функционал ■Xf (7.116) После подстановки (7.114) из уравнения (7.116) находим (7.117)
7.4. Задачи на условный экстремум 191 а из уравнения (7.117), с учетом того, что F\’ = 0, получаем заданное ограничение (7.110). Полученные уравнения называются уравнениями Лагранжа. Среди них п диф¬ ференциальных уравнений второго порядка (выражение (7.118)) и к голоном- ных ограничений (7.110). Система п + к уравнений используется для получения n-мерной вектор-функции у(х) и fc-мерной вектор-функции А(х). Рассмотренная задача на условный экстремум обобщается на случай неголоном- ных ограничений, т. е. ограничений вида 9j(y,y',x) = 0, j — 1,2,... ,к, (7.119) или, в компактной форме — д{у,у',х) = 0, (7.120) где вектор-функция д удовлетворяет условиям регулярности (7.111) и rank = к. ду' В этом случае из уравнения (7.116) находим выражение Fy + \Tgv-^Fyl-~(\Tgy.) = О, (7.121) (7.122) которое совместно с ограничением (7.120) составляет искомую систему уравнений Лагранжа. Пример 7.7. Рассмотрим задачу синтеза оптимального управления объектом х = и, (7.123) где ж и и — скалярные переменные состояния и управления, полагая, что tf = оо, заданы граничные условия х(0) = xq, х(оо) = 0 и квадратичный функционал качества 1 Г°° J(x,u) = - / (qx2 + pu2)dt, (7.124) ^ Jo где q > 0, р > 0. В рассматриваемом случае роль аргумента принимает переменная £, а функции — двумерный вектор (x(t),u(t)). Уравнение объекта определяет неголономные ограничения, т. е. можно записать д{х,и) = х — и = 0. (7.125) Тогда задача оптимального управления сводится к нахождению управления и = = u*{t) и переходного процесса х = x*(t), доставляющих минимум функционалу (7.124) при ограничениях (7.125), т. е. является задачей на условный экстремум.
192 Глава 7. Управление и классические методы оптимизации Введем в рассмотрение множитель Лагранжа А(£), лагранжиан F(x, u, х, А) = ^(дх2 + ри2) + А(х — и), (7.126) и сформируем расширенный функционал J(x,u,x, А) = J \^-(qx2 + ри2) + А(х — ujdt. (7.127) Теперь, решая простейшую задачу вариационного исчисления для расширенного функционала, запишем систему уравнений Эйлера-Лагранжа (см. также 7.4.2): qx- А = 0, (7.128) ри — А = 0, (7.129) —и + х = 0. (7.130) Отметим, что последнее уравнение повторяет условие (7.125) и модель объекта (7.123). Из выражения (7.129) находим «алгоритм управления» и = -А, (7.131) Р подстановка которого в (7.130) дает уравнение объекта х = -А, (7.132) Р а из выражения (7.128) получаем модель так называемой сопряженной системы А = qx. (7.133) Рис. 7.10. Каноническая модель (а) и объект с пропорциональным регулятором (б) Система уравнений (7.132)—(7.133) определяет каноническую модель оптималь¬ ной системы (рис. 7.10, а). Решениями системы являются функции х = x*(t), А = A(t) и и = u*(t), соответствующие искомым оптимальным решениям. Зада¬ ча нахождения указанных решений относится к двухточечным краевым задачам, так как для получения решений используются условие х(0) = х0 на левом конце
7.4. Задачи на условный экстремум 193 Рис. 7.11. Траектории (а) и переходные процессы (б) канонической модели траектории и условие х(оо) = 0 на правом ее конце. Для решения краевой задачи необходимо подобрать значение А(0) = Ао такое, чтобы для заданного значения х0 выполнялось х(оо) = 0 (рис. 7.11, а). Нетрудно показать, что последнее условие всегда имеет место, если Ао = -Рх о, (7.134) где Р = y/qp. Графики переходных процессов для случая q = 1, р = 4 и различных начальных значений А(0) = Ао представлены на рис. 7.11, б. Искомые оптимальные решения, для которых выполняется условие (7.134): А0 = -2х0, и следовательно, х(оо) = О приведены на рис. 7.12. Рис. 7.12. Переходные процессы оптимальной системы Использование канонической модели позволяет отыскать оптимальное решение в виде функций времени х = x*(t), и = u*(t) (рис. 7.12), т. е. в разомкнутом виде. Для получения решения в виде обратной связи, т. е. алгоритма замкнутого управления будем искать вектор сопряженной системы в виде 7 Зак. 281
194 Глава 7. Управление и классические методы оптимизации I ' Л = -Рх, (7.135) где Р > 0 — число, подлежащее определению. Дифференцируя (7.135) по времени, находим А = -Рх. После подстановки в это выражение уравнений (7.132)—(7.133), (7.135) и простей¬ ших преобразований получаем: (-ip2 + ?);v = 0. (7.136) Последнее уравнение справедливо при любых x(t), если Р > 0 является решением уравнения Тогда -Я- Р = Vqp- (7.137) (7.138) Подставляя (7.135), (7.138) в (7.131), находим пропорциональный алгоритм управ¬ ления (см. рис. 7.10, б) и = Кх, (7.139) где К — коэффициент обратной связи, рассчитываемый по формуле К = - . (7.140) V р Уравнение оптимальной системы получается подстановкой (7.139) в (7.123) и при¬ нимает вид (7.141) Графики управляющего воздействия u(t) и переменной x{t) для замкнутой опти¬ мальной системы совпадают с решениями, полученными ранее с помощью кано¬ нической системы (см. рис. 7.12). □ Пример 7.7 демонстрирует возможность использования классических методов оп¬ тимизации для решения простейших задач оптимального управления. Общий слу¬ чай рассматривается ниже и в п, 8.1.
7.4. Задами на условный экстремум 195 7.4.2. Синтез оптимального управления Рассмотрим одноканальную нелинейную систему (объект управления) х = f(x,u), (7.142) где х е Мп — вектор состояния, и — скалярное управление, / — достаточно гладкая функция, и функционал качества J(x,u) = f f°(x(t),u(t)dt. (7.143) J о Поставим следующую задачу оптимального управления (ср. с задачей 7.1, п. 7.1). Задача 7.3. Найти оптимальное управление и = «*(£), обеспечивающее получе¬ ние (оптимального) переходного процесса х = x*(t) объекта управления (7.142) с граничными условиями х(0) = xq и x(tf) = Xf и доставляющее минимум функци¬ оналу (7.143). Очевидно, что задача относится к задачам на условный экстремум, в которых роль аргумента принимает переменная £, функции — (п 4- 1)-мерный вектор (rr(£),it(£)), а в качестве неголономного ограничения выступает уравнение объекта управления (7.142) или д(х,х,и) = х — f(x,u) = 0. (7.144) Введем в рассмотрение вектор множителей Лагранжа А(£) е Мп и лагранжиан f°(x,u,x,\) = f°(x,u) + ХТ(х - f(x,u)). (7.145) Сформируем расширенный функционал л fXf J(x,u,X) = / /°(х, w, X)dx J Xn (7.146) Решая простейшую задачу вариационного исчисления для расширенного функци¬ онала, выпишем уравнения Эйлера-Лагранжа по переменным х,и,Х: 9? _ ddp дх dt дх ди 9f° 9Х Из уравнения (7.149) получим 0, (7.147) 0, (7.148) 0. (7.149) = /(я, и), X (7.150)
196 Глава 7. Управление и классические методы оптимизации из уравнения (7.147) — А = (7.151) Уравнения (7.150)—(7.151) составляют так называемую каноническую модель, представленную моделью объекта управления и сопряженной системой (рис. 7.13). Рис. 7.13. Каноническая модель (нелинейная задача управления) Для замыкания канонической системы необходимо определить управление и. Из уравнения (7.148) получаем дифференциальное уравнение первого порядка а/° ди хТ¥ = °- Его решение может быть найдено в виде и = U(x, А). (7.152) (7.153) Таким образом, для решения задачи оптимального управления 7.3 необходимо по¬ лучить частные решения системы уравнений, описывающей каноническую модель (7.150)—(7.151), (7.153), и отыскать функции х — x*(t), и = u*(t), А = А(£), удовле¬ творяющие заданным граничным значениям х(0) = х0 и x(tf) = х/. Как частный случай рассмотрим линейный одноканальный объект управления (см. также пример 7.7 и п. 8.1) х = Ах + Ви (7.154) с заданными краевыми условиями 10 = 0, х(0) = х0, х(оо) = 0, и квадратичный функционал J = ^ J [хт (t)Qx(t) + pu(t)jdt, (7.155) где Q = QT > 0 — матрица весовых коэффициентов, р > 0. В рассматриваемом случае сопряженная система (7.151) принимает вид = -АТХ + Qx, А (7.156)
7.4. Задачи на условный экстремум 197 а уравнение (7.152) — ри — \т В = 0. (7.157) Из последнего выражения находим управление и = -Вт\, (7.158) Р подстановка которого в (7.154) дает уравнение объекта х = Ах+-ВВт\. (7.159) Р Рис. 7.14. Каноническая модель (линейная задача управления) Таким образом, получена линейная каноническая модель, представленная 4К>ъек- том управления (7.159) и сопряженной системой (7.156) (рис. 7.14). Решениями системы являются функции х = x*(t), и = и*(t) и Л = А(£), соответствующие искомым оптимальным решениям. Задача нахождения этих решений относится к двухточечным краевым задачам, так как предполагает использование п краевых условий х(0) = хо на левом конце траектории и п краевых х(оо) = 0 условий на правом ее конце. Последний фактор с учетом бесконечной удаленности правого конца и определяет одну из сложностей решения краевой задачи. Другая слож¬ ность заключается в неустойчивости канонической модели (7.159), (7.156) в силу неустойчивости сопряженной системы (для устойчивого объекта) либо неустойчи¬ вости самого объекта управления. Получение решений в виде функций времени также является недостатком данного подхода. Для нахождения решения в виде алгоритма замкнутого управления (см. задачу 7.2, п. 7.1) воспользуемся следующей процедурой. Будем искать вектор сопряженной системы в виде А = -Рх, (7.160) где Р = Рт > 0 — матрица, подлежащая определению. Находим также А = —Рх, и после подстановки в последнее выражение уравнений (7.156),(7.159)-(7.160) и простейших преобразований получаем (.ATP + PA--PBBTP-Q)x = 0. Р (7.161)
19В Глава 7. Управление и классические методы оптимизации Последнее уравнение справедливо при любых х = x(t), если матрица Р является решением матричного уравнения АТР + РА--РВВТР = -Q. (7.162) Р Уравнение (7.162), часто называемое уравнение Лурье, относится к классу алгеб¬ раических уравнений типа Риккати (см. [15, 31]). Вопросы существования его решений анализируются в 8.1.3, здесь же полагаем, что искомое решение Р > О существует. Тогда, подставляя (7.160) в (7.158), находим пропорциональный алго¬ ритм управления и = Кх, (7.163) где К — матрица-строка коэффициентов обратной связи, рассчитываемая по фор¬ муле К = --ВТР. (7.164) Р Уравнение оптимальной системы получается после подстановки (7.163)—(7.164) в (7.142) и принимает вид х = Асх, (7.165) где Ас — матрица замкнутой системы. 7.5. Теория Гамильтона Представленные далее элементы теории У. Гамильтона предлагают некоторую мо¬ дификацию решений задач вариационного исчисления, для которой уравнения Эйлера-Лагранжа записываются в форме элегантной системы уравнений перво¬ го порядка. Теория получила широкое распространение в механике и, кроме того, нашла отражение в одном из подходов современной теории управления — принци¬ пе максимума Л. С. Понтрягина (см. п. 8.2). = А- -ВВТР Р 7.5.1. Каноническая модель в гамильтоновой форме Рассмотрим простейшую задачу вариационного исчисления (см. п. 7.4). Приведем систему уравнений Эйлера-Лагранжа (систему п дифференциальных уравнений
7.5. Теория Гамильтона 199 второго порядка) к системе уравнений первого порядка. Для этого введем в рас¬ смотрение сопряженный вектор р = р(х) € Rn: *> = (^)т- ду' и используя уравнение Эйлера-Лагранжа (7.92), получим dp _ fdF\T dx \ду) (7.166) (7.167) Введем в рассмотрение функцию Гамильтона (гамильтониан) Н{у,р,х) = -F{y,y',x) +рТу'. (7.168) Отметим, что гамильтониан не зависит от у' — dy/dx. Действительно, дН (dF\T т ар ~ ~Щ?) +р ’ (7.169) что в силу определения сопряженного вектора (7.167) приводит к тождеству дН/ду' = 0. Найдем частные произодные функции (7.168). Принимая во внимание (7.16f), по¬ лучим, что на экстремали у = y*(t) выполняется дН _ _dF _ _(dp\T ду ду \ dx) ’ а также дН = rdysT dp \dx) (7.170) (7.171) Последние два выражения приводят к искомой системе диффенциальных уравне¬ ний первого порядка dy _ /дН\т dx ~ \др) ’ dp _ (дН\т dx ~ Лду) ’ (7.172) (7.173) которая называется канонической (гамильтониановой) системой уравнений Эйлера-Лагранжа. Решением системы является экстремаль у = y*(t), а также сопряженный вектор р = p{t), что отражено в следующей формулировке. Теорема 7.15. Если функция у = у*(х) является локальной экстремалью функ¬ ционала J(y), то существует вектор-функция р = p(t) Ф 0 такая, что у*{х), p(t) являются решениями канонической системы (7.172)—(7.173).
200 Глава 7. Управление и классические методы оптимизации Важным свойством функции Гамильтона для функционалов вида J{y) = П F{y,y')dx, (7.174) Jx О где подинтегральное выражение явно не зависит от х, является ее стационарность на экстремали у*(х), т. е. свойство из которого следует, что дН дх = о, (7.175) Н(у*,р) = const. (7.176) Формулировка теоремы 7.15 остается справедливой (после замены F на F, см. 7.4.1) и для задач на условный экстремум. 7.5.2. Синтез оптимального управления Рассмотрим одноканальную нелинейную систему (7.142), функционал (7.143) и с использованием теории Гамильтона найдем решение задачи оптимального управ¬ ления 7.3, сформулированной в 7.4.2. Введем в рассмотрение вектор-функцию множителей Лагранжа X(t), лагранжиан f°(x, и,£,А) = f°(x,u) + ХТ(х - f(x,u)) (7.177) и расширенный функционал (7.146). В 7.4.2 показано, что оптимальное решение задачи подчиняется уравнениям (7.150)—(7.152). Определим сопряженный вектор p = p(t) для расширенного функционала (7.146): *> - (t)T <7178> После дифференцирования лагранжиана (7.177) по х и сравнения с (7.178) находим р(х) = \(х), (7.179) что показывает идентичность вектора множителей Лагранжа и сопряженного век¬ тора. Сформируем гамильтониан Н(х,и,\) = —f°(x,u,\) + \Tx = —f°(x,u) + \Tf(x,u). (7.180) Продифференцируем функцию Н(х,и,\) по х и Л. Учитывая уравнения канониче¬ ской системы (7.150)—(7.151), получим каноническую систему в форме Гамильтона: /дН\Т
7.5. Теория Гамильтона № С другой стороны, продифференцировав Н(х,и,\) по и, получим аи _ 9f Taf - ~~а^ + х ai' (7Л83) что в силу выражения (7.152) приводит к условию стационарности гамильтониана дН п - °- (7Л84) Условие используется для нахождения оптимального управления в форме (7.153). Отметим, что так как функция /° явно не зависит от t, то для оптимальных решений выполняется Н = 0 и, следовательно, — i7(x*,u*,A) = const. (7.185) Пример 7.8. Рассмотрим задачу оптимального по критерию (7.124) управления объектом (7.123) (см. пример 7.7). Сформируем гамильтониан: Н(х,и,\) = —| х2-?и2 + Хи. (7.186) Каноническая система получается дифференцированием функции (7.186) по "ж и А и принимает вид (7.123), (7.133). Дифференцирование по и дает выражение __ = -ри + Х, (7.187) которое по условию стационарности гамильтониана (7.184) приводит к управлению (7.131). Нетрудно показать, что для оптимальных решений выполняется Ао = — y/qp хо, функция Гамильтона (7.186) постоянна и Н{х\и\ А) = 0. (7.188) □
Глава 8. Методы оптимального управления Классические методы теории вариационного исчисления являются основой методов синтеза оптимальных систем, т. е. систем управления, демонстрирующих наилуч¬ шее (в смысле выбранного критерия) качество процессов. В роли критериев ка¬ чества оптимальных систем выступают различные функционалы, что и связывает теорию оптимального управления с классическими методами оптимизации. В этой главе изучаются основные методы и задачи оптимального управления, к которым относятся методы решения линейных квадратичных задач (п. 8.1), прин¬ цип максимума Л. С. Понтрягина (п. 8.2) и принцип оптимальности Р. Веллмана (п. 8.3). Следует отметить, что методы, во-первых, являются развитием тех или иных подходов классической теории оптимизации и, во-вторых, взаимосвязаны, т. е. их основные положения, как правило, могут быть получены одно из другого. 8.1. Квадратичные функционалы и линейные регуляторы Задачи управления линейными объектами и оптимизации их поведения с исполь¬ зованием интегральных квадратичных функционалов относятся к классу задач линейного квадратичного регулирования (ЛКР). Этот класс включает наиболее распространенные и относительно простые задачи, сходные по своим формулиров¬ кам и используемым алгоритмам к задачам модального управления (см.[1, 15, 24]). Основополагающие результаты по ЛКР получены А. М. Летовым, Р. Калманом, А. А. Красовским и др.
8.1. Квадратичные функционалы и линейные регуляторы Ж 8.1.1. Квадратичные функционалы, задачи оптимизации, линейные обратные связи Наиболее распространенной задачей линейной теории управления является задача стабилизации многомерного объекта х = Ах + Ви (8.1) относительно положения равновесия х = 0. Здесь х е Rn, х(0) = х0, и е Rm; А, В — матрицы соответствующих размерностей. Замкнутое решение задачи предпо¬ лагает нахождение алгоритма управления (регулятора) и = Щх), (8.2) который обеспечивает перевод системы (8.1) из произвольного начального состо¬ яния х0 е Rn в точку х = 0, т. е. обнуление с течением времени вектора x(t), характеризующего отклонение от конечной точки х = 0. Естественно, что решение задачи — неоднозначно, т. е. стабилизация может быть осуществлена множеством алгоритмов вида (8.2). Для уточнения задачи необхо¬ димо ввести дополнительные требования к системе, определяющие ее поведение, т. е. критерии качества (см. также п. 7.1). / *» Динамическая точность. Введем в рассмотрение показатель динамической точ¬ ности в виде интегрального квадратичного отклонения Jx = \ [ хТ(t)Qx(t)dt, (8.3) * J о где Q — QT > 0 — весовая матрица, tf > 0 — время окончания процесса (может быть бесконечно большим). В случае когда Q > 0, подынтегральное выражение функционала (8.3) можно представить в виде квадрата взвешенной нормы откло¬ нения x(t): fx(x) = x(t)TQx(t) = ||x(£)IIq, (8.4) или мгновенной квадратичной ошибки. Поэтому функционал (8.3) для задан¬ ного значения начального условия хо определяет интегральное значение квадра¬ та нормы отклонения системы на промежутке [0, t/J, и следовательно, принимает меньшие значения в тех случаях, когда переходные процессы протекают быстрее и с меньшей колебательностью. Таким образом, фунционал является штрафом за интегральную ошибку системы. Проанализируем решения оптимальной задачи с критерием качества (8.3). Введем в рассмотрение матрицы Р0 = Pq > 0 размера п х п и С размера т х п как решения системы алгебраических уравнений А^ Pq + PqA = —Q + Р0В = о (8.5) (8.6)
204 Глава 8. Методы оптимального управлени и определим вектор у G Rm — виртуальный выход системы: у = Сх. После подстановки (8.5)-(8.7) и (8.1) выражение (8.3) принимает вид ftf г 1 ftf г Jx = ~ & P0xdt + - / у ydt. Jo & Jo Тогда в силу легко проверяемого выражения rtf xTPoxdt = \хТ Pqx x(tf) _ I, имеет место следующее свойство критерия динамической точности. z(0) ~ Pox(tf) - 2Ж(°) рож(0) Свойство 8.1. Jг 1 „г X PqX x(tf) 1 !l< x{to) 2 / y(t)Ty(t)dt. Jo (8.7) (8.8) (8.9) Свойство 8.1 подтверждает, что задача оптимизации управления по критерию (8.3), как правило, приводит к вырожденным решениям. Действительно, при х(0) = х0 и x(tf) = 0 выражение (8.9) принимает вид 1 1 ftf Jx = -XqP0x0 + 2 У0 Формула показывает, что наименьшее значение функционала j: = IxlPoXo (8.10) обеспечивается при условии, что для любых t > 0 виртуальный выход у имеет нулевое значение, т. е. выполняется Сх = 0. (8.11) Последнее уравнение описывает гиперплоскость Z* (подпространство простран¬ ства Rn), являющееся в указанном случае множеством нулевой динамики (см. 3.2.2). При условии, что det{СВ) ф 0, нетрудно получить управляющее воздей¬ ствие, обеспечивающее выполнение тождества (8.11) при хо € Z\ и = -(СВу'САх. (8.12) На основании вышеизложенного можно сделать вывод, что минимальное значение J* функционала (8.3) достигается, если переходный процесс имеет вид x(t) = х0 при t — 0, x(t) е Z* при t > 0,
8,1. Квадратичные функционалы и линейные регуляторы 205 что соответствует мгновенному перемещению системы на гиперплоскость Z* и дальнейшему движению вдоль этой гиперплоскости. Естественно, что первый этап такого процесса предполагает использование бесконечно больших управляю¬ щих сигналов, т. е. задача минимизации функционала (8.3) является вырожденной. Последнее обусловлено отсутствием в условиях задачи каких-либо ограничений на управляющее воздействие и. Пример 8.1. Рассмотрим объект управления 2-го порядка: и функционал где д2 > 0. Здесь Q и следовательно, где Х\ — х2, (8.13) х2 = и (8.14) ЛОО / (xl + q2xj) dt, Jo (8.15) 1 О о Я2 > 0 , и система уравнений (8.5)-(8.6) имеет решения , С = [1 s/щ. О о о 2 10 + 1 Г 2 Jo у2 dt, ф (8.16) У = Х1 + у/я2Х2. (8.17) Минимум функционала (8.16) J* — {^/qZ/2) х^0 достигается при условии у = О, что соответствует движению вдоль прямой Z* : XI 4- y/q2X2 = О с управляющим воздействием и = —~х2. (8.18) V02 Быстрое попадание из произвольной начальной точки (жю,х2о) на прямую Z* можно осуществить с помощью управления и = -U0 sign у, (8.19) где Uo> 0 — достаточно большое число. Для случая q2 = 0.16 фазовые траектории, близкие к оптимальным, представлены на рис. 8.1. □ Затраты энергии и задача терминального управления. Для постановки ре¬ гулярной задачи оптимального управления и исключения решений с бесконечно
206 Глава 8. Методы оптимального управления Рис. 8.1. Фазовые траектории системы, оптимальной по динамической точности (пример 8.1) большими управлениями необходимо ввести ограничения на вектор управления и. Такие ограничения вводятся с помощью неравенств (см. п. 8.2) либо дополнитель¬ ных интегральных компонент функционала качества: Ju = \ [ * uT(t)Ru(t)dt, (8.20) 2 Jo где R = RT > 0 — весовая матрица. Интеграл (8.20) называется функционалом затрат (потерь) энергии. Подынтегральное выражение можно представить в виде квадрата взвешенной нормы управления u(t): /°М = u(t)TRu(t) = |Н«)|Ц, (8.21) и поэтому функционал Ju принимает меньшие значения в тех случаях, когда тре¬ буются меньшие управляющие воздействия, т. е. является штрафом за энергети¬ ческие затраты системы. В общем случае задача минимизации затрат энергии также является вырожденной и приводит к тривиальным решениям типа u(t) = О, что обусловлено отсутствием в ее условиях требований к качеству переходного процесса x(t). Будем рассматривать комбинированный критерий качества, включающий в себя интегральные квадратичные значения как отклонения x(t), так и управления u(t): J(x,u) = ^ j (xT(t)Qx(t) 4- uT(t)Ru(t)^dt. (8.22) В тех случаях, когда значение времени окончания процессов tf и конечная точка x(tf) заданы, имеет место классическая постановка оптимальной задачи с закреп¬ ленным правым концом (типа Лагранжа), или так называемой терминальной задачи. Задача 8.1. Найти оптимальный переходный процесс x*(t) и оптимальное управ¬ ление обеспечивающее за время tf > 0 перевод объекта управления (8.1)
8.1. Квадратичные функционалы и линейные регуляторы 207 из начального состояния х0 е в терминальную (конечную) точку x(tf) = О с минимальным значением функционала (8.22), т. е. определить Наибольшее распространение получили задачи терминального управления, в ко¬ торых tf = оо, т. е. задачи оптимизации на бесконечном интервале. Задача 8.1, а. Найти оптимальный переходный процесс x*(t) и оптимальное управ¬ ление u*(t), обеспечивающее асимптотический перевод объекта управления (8.1) из начального состояния xq е Rn в точку х = 0, т. е. Задачи со свободным правым концом. В тех случаях, когда терминальное зна¬ чение x(tf) не задано, имеет место задача со свободным правым концом (типа Больца). Так как в постановке такой задачи не содержится указаний на конечное состояние системы, то минимизация функционала вида (8.22), как правило, при¬ водит к тривиальным решениям. Для того чтобы синтезируемая система в своем движении приближалась к состоянию х = 0, в функционал качества необходимо ввести дополнительную компоненту вида где Pf = Pj > 0 —■ весовая матрица. Выражение (8.25) характеризует квадра¬ тичную ошибку системы по окончании процесса, или штраф за терминальные отклонения от точки х = 0. Задача 8.2. Найти оптимальный переходный процесс x*(t) и оптимальное управ¬ ление u*(t), обеспечивающее за время tf > 0 перевод объекта управления (8.1) из начального состояния х0 € Rn в некоторую окрестность точки ж = 0 с минималь¬ ным значением функционала {x*(t),u*(t)} = arg min J(x,u), U а также значение J* = J(x*,u*) = minJ(:r,u). U lim x(t) = 0 (8.23) с минимальным значением функционала (8.24) Jf(xf) = \xT(tf)Pfx{tf) = ^\\x(tf)\\2Pf, (8.25)
208 Глава 8. Методы оптимального управления Отметим, что дополнительная компонента J/ (штраф за квадратичную ошибку в конце процесса) восполняет неопределенность конечного значения x(tf) и обеспе¬ чивает приоритет переходных процессов x(t), заканчивающихся в меньшей окрест¬ ности точки х = 0. Задачи синтеза оптимального регулятора. Приведенные формулировки опти¬ мальных задач предусматривают нахождение функций времени х*\t) и u*(t), т. е. получение решений в разомкнутом виде. Тем не менее решения перечисленных задач, как правило, могут быть найдены и в виде обратных связей — пропорцио¬ нального регулятора отклонений. Задача 8.3. Найти оптимальный алгоритм управления вида где К = К(t) — матрица коэффициентов обратной связи, обеспечивающий для любых начальных состояний х0 € Rn получение оптимальных процессов х*(£) и управления u*(t), являющихся решениями задач 8.1 или 8.2. В связи с тем, что минимизация интегральных квадратичных функционалов для линейных объектов управления может быть реализована с помощью линейных алгоритмов вида (8.27), рассматриваемые здесь оптимальные задачи принято от¬ носить к классу задач линейного квадратичного регулирования (ЛКР). Замечание 8.1. Задачи ЛКР могут быть сформулированы по отношению к неста¬ ционарным объектам и функционалам качества, т. е. для случаев, когда А — A(t), В = B(t), Q = Q(t), R = R(t). При этом общий подход к их решению, рассматриваемый в следующем разделе, Будем рассматривать задачи 8.1-8.3 оптимального перевода объекта управления (8.1) в точку x(tf) = 0 или ее окрестность, полагая, что функционал качества задан в форме (8.26). Конечной целью приведенной ниже процедуры синтеза яв¬ ляется получение оптимального регулятора (решение задачи 8.3), что в качестве промежуточного этапа предусматривает нахождение канонической системы (см. пример 7.7 и 7.4.2), представляющей собой дифференциальную форму решений задач 8.1—8^2. Построение канонической системы. Задачи 8.1-8.2 сводятся к задаче на услов¬ ный экстремум (см. п. 7.4) со свободным или закрепленным правым концом тра¬ ектории. Действительно, воспользовавшись свойством (8.8), запишем и = Кх, (8.27) обычно не претерпевает изменений. □ 8.1.2. Решение общей задачи ЛКР
8.1. Квадратичные функционалы и линейные регуляторы 209 и преобразуем функционал (8.26) к виду 1 1 ftf J(x, и) = -х^Р/хо 4- - / (xTQx + uTRu + xTPfx)dt 2 2 JQ (8.29) Так как компонента х^Р/х0 не зависит от функций x(t) и u(t), то задача опти¬ мизации системы с функционалом (8.29) может быть решена по схеме решения задач вариационного исчисления, приведенной в 7.4.2. В рассматриваемом случае лагранжиан принимает вид f° = ^{хтQx + uTRu 4- 2хтР/х^ + Хт(х — Ах — Ви), (8.30) где A(t) е Rn — вектор-функция множителей Лагранжа (вектор состояния со¬ пряженной системы). Решая простейшую задачу вариационного исчисления для расширенного функционала, найдем систему уравнений Эйлера-Лагранжа xTQ-XTA-\T = 0, (8.31) uTR — ХТВ = 0, (8.32) х — Ах — Ви = 0 (8.33) и далее — каноническую систему, т. е. 2п-мерную динамическую модель ф А = -ATX + Qx, (8.34) и = R~1BTX, (8.35) х = Ах -f Ви = Ах -f BR~xBTX, (8.36) представленную основным объектом управления (8.36), алгоритмом управления (8.35) и сопряженной системой (8.34). Для терминальной задачи 8.1 2п краевых условий записываются в виде ж(0) = хо и x(tf) = Xf. Для задачи 8.2, в которой терминальное состояние x(tf) не задано, значения переменных на правом конце подчиняются п условиям трансверсально¬ сти (см. 7.3.4): А (*/) = (8-37) Решениями системы (8.34)—(8.36) являются функция А = A(t), а также функции х = x*(t) и и — u*(t), доставляющие минимальное значение функционалам (8.22) или (8.26) соответственно и являющиеся искомыми решениями задач 8.1 и 8.2. Синтез оптимального регулятора. Для получения решения оптимальной задачи в замкнутой форме (задача 8.3) будем искать вектор сопряженной системы (8.34) в виде А = — Рх, (8.38) f 4L. Ш
210 Глава 8. Методы оптимального управления где P(t) — P(t)T > 0 — матрица, подлежащая определению. После дифференци¬ рования выражения (8.38) по времени и соотвествующих подстановок получаем (P + ATP + PA-PBR~1BTP-Q)x = 0. (8.39) Последнее уравнение справедливо при любых х = x(t), если матрица Р является решением дифференциального матричного уравнения Риккати P + ATP + PA-PBR~lBTP = -Q. (8.40) Подставляя (8.38) в (8.35), находим пропорциональный алгоритм управления и = Кх, (8.41) где К — K(t) — матрица коэффициентов обратной связи, рассчитываемая по фор¬ муле К = -R~1BTP. (8.42) Уравнение оптимальной системы получается подстановкой (8.41) в (8.1) и прини¬ мает вид (рис. 8.2) х = Асх, (8.43) где Ас = А — BR~lBTP — матрица замкнутой системы. Рис. 8.2, Оптимальная система в задаче ЛКР Теперь определим значение функционала J(x,u) на найденных оптимальных ре¬ шениях. После соответствующих подстановок нетрудно получить J* = J(x\u*) = \xT{tf)Pfx{tf)-\ [ f(xTPx + xTPx + xTPx)dt. (8.44) 2 2 J0 Принимая во внимание, что (хТ Рх^ = хт Рх + хтРх + хтРх, (8.45)
8.1. Квадратичные функционалы и линейные регуляторы 211 находим Таким образом, решение задачи 8.3 базируется на следующем утверждении. Теорема 8.1. Алгоритм управления, обеспечивающий для любых начальных состо¬ яний xq е Кп получение оптимальных решений x*(t), u*(t) задач 8.1-8.2, описыва¬ ется выражениями (8.41)—(8.42), где матрица P(t) является решением уравнения Риккати (8.40). При этом наименьшее значение функционала J(urx) рассчитыва¬ ется по формуле J* = J{x*,u*) = 1х%Р(0)хо. (8.46) (tf)PfX(tf) - хтРх Х(ъ ) = ^“Р(0)1о- Замечание 8.2. Для получения решения P(t) дифференциального уравнения Рик¬ кати (8.40) необходимо определить краевые условия. Из выражения (8.38) найдем X(tf) = -P(tf)x{tf). (8.47) В задаче 8.2 воспользуемся условием трансверсальности (8.37), сопоставляя кото¬ рое с (8.47), получаем P(tf) = Pf. (8.48) Последнее условие определяет значение матрицы P(t) в конце переходного процес¬ са, что при решении уравнения (8.40) вызывает необходимость применения метода интегрирования в обратном масштабе времени: т = tf — t (см. пример 8.3). Проблема нахождения матрицы P(t) в терминальной задаче 8.1 в общем случае носит несколько более сложный характер (см. [1, 15]). □ Пример 8.2. Рассмотрим задачу синтеза оптимального управления объектом х — и, (8.49) где х и и — скалярные переменные состояния и управления, полагая, что заданы граничные значения tf, х(0) — хо, x(tf) = 0 и квадратичный функционал качества 1 ftf J(x,u) = - / (qx2 + pu2)dt, (8.50) 2 Jo где q > 0, p > 0. Каноническая модель принимает вид (см. также пример 7.7) Л = qxy (8.51) и = -А, Р (8.52) X = и — -А. (8.53) Р
212 Глава 8. Методы оптимального управления Для получения решений используются условие ж(0) = ж0 на левом конце тра¬ ектории и условие x(tf) = 0 на ее правом конце. Нетрудно показать, что задача сводится к задаче Коши, для чего необходимо рассчитать значение Л0 = А(0) такое, чтобы для заданного значения х0 выполнялось x(tf) = 0. х Рис. 8.3. Переходные процессы канонической системы в терминальной задаче (пример 8.2) На рис. 8.3 представлены интегральная кривая и переходные процессы для задачи оптимального управления при q = 4, р = 1, tf = 1 с и ж(0) = 1. Здесь А0 = -2.075. Для получение решения в замкнутом виде запишем А = -P{t)x, (8.54) где Р > 0 — решение дифференциального уравнения Риккати: Р--Р2 = _q (8 55) Р Из условия А0 = —Р(0)жо находим начальное значение Р( 0) = - —, (8.56) -Го необходимое для интегрирования уравнения (8.55) Подставляя (8.54) в (8.52), получаем пропорциональный алгоритм управления и — K(t)x (8.57) Решение уравнения (8.55) и графики переходных процессов для указанного выше частного случая приведены на рис. 8.4. Здесь Р(0) = 2.075 и K(t) = — P(t). Нетрудно получить также минимальное значение J* = (жд/2)Р(0) = 1.0375. Найденные оптимальные решения x(t) и u(t) совпадают с представленными на рис. 8.3.
8.1. Квадратичные функционалы и линейные регуляторы 213 Рис. 8.4. Переходные процессы оптимальной системы (пример 8.2) Следует обратить внимание на то, что при t —► tf решение уравнения (8.40) устрем¬ ляется в бесконечность: Р —► оо. Это обусловлено нулевым краевым условием: х/ = 0. Отметим также, что при tf —► оо получаем задачу 8.1, а оптимизации на бесконечном интервале, где А(0) = — 2 и Р = 2 (см. пример 7.7). □ Пример 8.3. Рассмотрим задачу синтеза оптимального управления объектом (8.49), полагая, что заданы только значения tf и я?(0) = х0, а функционал качества со¬ держит штраф за конечное состояние Xf = x(tf), т. е. J(x,u) = ^fx2f -f \ [ (qx2 + pu2)dt, (8.58) * * Jo где q > 0, р > 0, Pf > 0. В этом случае имеет место задача со свободным правым концом. Каноническая модель сохраняет вид (8.51), и вводится условие трансверсальности, связывающее значения А/ = A (tf) и Xf = —x(tf): Xf = -Pfxf. (8.59) Условие определяет в пространстве состояний канонической модели прямую ко¬ нечных значений Sf (см. рис. 8.5). Нетрудно показать, что задача сводится к задаче Коши, для чего необходимо рассчитать значение А0 = А(0) такое, чтобы для заданного значения х0 выполнялось условие (8.59). На рис. 8.5 представлена интегральная кривая и переходные процессы для задачи оптимального управления при q = 4, р = 1, Pf = 1, tf = 1 с, ж(0) = 1. Здесь А0 = -1.975. Для получение решения в замкнутом виде используется уравнение Риккати (8.55), в котором задано краевое условие P(tf) = Pf. Решение уравнения Риккати может быть получено при интегрировании в обратном масштабе времени: г = tf — t (рис. 8.6, а). Пропорциональный алгоритм управления принимает вид (8.57). Кривая изменения коэффициента обратной связи K(t), а также графики переход¬ ных процессов x(t) и u(t) для указанного выше частного случая приведены на
214 Глава 8. Методы оптимального управления Рис. 8.5. Переходные процессы канонической системы в задаче со свободным правым концом (пример 8.3) рис 8.6, б и показывают, что оптимальные решения для замкнутой системы совпа¬ дают с приведенными на рис. 8.5, б. Так как Р(0) = 1.975, то по формуле (8.46) находим J* = (х$/2)Р(0) = 0.99. □ 0 0,2 0,4 0,6 0,8 с Рис. 8.6. Решение уравнения Риккати и переходные процессы оптимальной системы (пример 8.3) Избыточность задач ЛКР. Одно и то же решение оптимальной задачи может соответствовать различным квадратичным критериям (8.26), т. е. такие функци¬ оналы, как правило, содержат несущественную часть. Действительно, с исполь¬ зованием свойства 8.1 (выражение (8.9)) функционал (8.26) можно переписать в виде J(x,u) — Р0х0 + J(x,u), (8.60) где J(x,u) - ^xT(tf)Px(tf) + i J (yT(t)y(t)+ uT(t)Ru(t)jdt. (8.61)
8.1. Квадратичные функционалы и линейные регуляторы 215 Здесь у е Rm является виртуальным вектором выхода: у = Сх, (8.62) матрицы Pq = Pq > 0 и С (га х п) находятся как решения системы алгебраических уравнений (8.5)-(8.6), и Р/ = Pf-Po- (8.63) Решение оптимальной задачи сводится к минимизации функционала J и не зависит от первого слагаемого выражения (8.60). Поэтому для различных весовых матриц Q, доставляющих одинаковое решение С системе уравнений (8.5)-(8.6), можно получить (при соответствующем выборе матрицы Pf) идентичные решения x*(t) и u*(t), а также идентичные матрицы обратной связи K(t). Последние определяются по формуле К = .-Д-1ВгР, (8.64) где матрица Р является решением дифференциального уравнения Риккати вида 7 + АТР + PA-PBR~lBTP = -СТС (8.65)' с краевым значением (см. замечание 8.2) P(tf) = Pf. *(8.66) Минимальное значение функционала J находится по формуле, аналогичной (8.46): J* = х%Р(0)хо/2, и следовательно, минимальным значением исходного функцио¬ нала (8.26) будет Г = J( z*,u*) = ^4(Ро + Р(0))а:о. (8.67) Пример 8.4. Рассмотрим объект управления 2-го порядка: Х\ = х2, ±2 = и (8.68) и функционал Здесь Q = мер 8.1) 1 О О Я2 1 J = - / (xf + q2x2 + ри2) dt. (8.69) ^ J о и система уравнений (8.5)—(8.6) имеет решения (см. при- л/Ч2 О О О , с = [1 уЩ. Следовательно, можно записать
216 Глава 8. Методы оптимального управления где — 1 г°° J = 21 (y2+Pu2)dt> (8-71) у = X1 4- у/я2Х2. (8.72) Таким образом, исходная задача эквивалентна минимизации функционала J, в котором весовая матрица при переменных состояния имеет вид СТС. Откуда сле¬ дует, что для обеих задач оптимальными будут идентичные решения x*(t) и u*(t), а также идентичные матрицы обратной связи К (см. пример 8.6). Более того, нетрудно показать, что для функционалов 1 f°° J — - / {х\ -f 2q12xxx2 + q2x\ + ри2) dt, (8.73) 4 J о где Q = 9i2 £ [0>л/92]. система (8.5)-(8.6) имеет то же решение 1 912 912 92 С = [1 у/&\, и следовательно, функционал J остается без изменений. Естественно, что решение оптимальной задачи приводит к тем же переходным процессам х*(£) и u*(t). □ Отмеченная избыточность рассматриваемого класса оптимальных задач как пра¬ вило устраняется при выборе весовой матрицы Q = СТС. (8.74) В этом случае задача оптимального управления формулируется как задача ми¬ нимизации функционала (8.61) и решается по приведенной выше схеме. Таким образом, имеет место следующее положение. Теорема 8.2. Алгоритм управления, обеспечивающий для любых начальных состо¬ яний х0 е Кп получение оптимальных решений x*(t) и управления u*(t) системы (8.1), (8.62) в задаче минимизации функционала (8.61) описывается выражениями (8.41), (8.64), где матрица P(t) > 0 является решением уравнения Риккати (8.65) с краевым значением (8.66). При этом функционал J(x,u) принимает наименьшее значение Т = = \x%P{0)x 0. 8.1.3. Задача оптимизации на бесконечном интервале Задачи 8.1, а оптимизации на бесконечном интервале времени и соответствующая задача 8.3 синтеза оптимального регулятора, для которых функционал качества принимает вид J(:г, и) (х T(t)Qx(t) + uT(t)Ru(t)jdt, (8.75)
8.1. Квадратичные функционалы и линейные регуляторы 217 обычно рассматриваются как предельный случай терминальной задачи 8.1 при tf —► оо [15]. Использование уравнений Эйлера-Лагранжа приводит к канони¬ ческой системе (8.34)-(8.36), решения которой ищутся для заданных начального значения ж(0) = х0 и конечного значения х(оо) — 0, а оптимальный регулятор синтезируется по схеме, рассмотренной в 7.4.2 и 8.1.2. Синтез оптимального регулятора. Для получения решения оптимальной задачи в замкнутой форме (задача 8.3) вектор сопряженной системы ищется в виде (8.38), где в рассматриваемом случае Р = Рт > 0 — стационарная матрица, являющая¬ ся решением алгебраического матричного уравнения Лурье (или уравнения типа Риккати, см. 7.4.2) ATP + PA-PBR~lBTTP = -Q. (8.76) Подставляя (8.38) в (8.35), находим пропорциональный алгоритм управления и = Кх, (8.77) где К — матрица постоянных коэффициентов обратной связи, рассчитываемая по формуле К = —R~1BTP. (8.78) Уравнение оптимальной системы получается подстановкой (8.77) в (8.1) и пони¬ мает вид х = Асх, (8.79) где Ас = A-BR~1BTP — стационарная матрица замкнутой системы. Отметим, что алгебраическое уравнение (8.76) имеет несколько решений. Су¬ ществование положительно определенного решения Р, а также асимптотическая устойчивость системы, или Re АДЛс} < 0, обеспечивается при некоторых допол¬ нительных условиях. Пусть весовая матрица Q имеет ранг v < п и, следовательно, может быть представлена в виде Q = QiQu где Q1 — матрица размера и х п и ранга и. Имеет место следующее положение. Теорема 8.3. Пусть пара А, В полностью управляема, а пара A,Qi полностью наблюдаема. Тогда: 1) существует решение Р > 0 уравнения Риккати (8.76); 2) оптимальные решения x*(t) и u*(t) задачи минимизации функционала (8.75) для любых начальных состояний х0 € Мп обеспечиваются пропорциональным алгорит¬ мом управления (8.77)—(8.78), где матрица Р > 0 является решением уравнения Риккати (8.76);
218 Глава 8. Методы оптимального управления 3) замкнутая система (8.79) с матрицей обратной связи (8.78) асимптотически устойчива, т. е. выполняется условие (8.23), и Re Xi{Ac} <0, г = 1, гг; (8.80) 4) наименьшее значение функционала (8.75) — J* = J{x*,u*) = ^х%Рх0. (8.81) Пример 8.5. Рассмотрим объект управления (8.68) и функционал (8.69) (см. пример 8.4). Здесь 0 1 О О В = Q = 1 о о Я2 и R — р . Решением уравнения Риккати (8.76) является положительно определен¬ ная матрица у/р у/^у/Р + Q2 у/p y/pi/y/p + Я 2) P = По формуле (8.78) находим матрицу обратной связи К = - Следовательно, можно записать 1 у/^у/Р + Яч Тр V~p 1 уД7р + ^2 и = -XI Х2. у/p у/р Уравнение оптимальной системы приобретает вид Х\ — х2, х2 Полюсы системы — Pi,2 = 1 у/^//Р~+Я2 х 1 — у/P у[р Х2. 1 2Тр (v/2^+ Яч Т \J-2yfp + Яч^ ■ Для случая яч = 0.16, р = 0.25 получим: Р = алгоритм управления — 1.08 0.5 0.5 0.54 К -2 2.15 (8.82) (8.83) (8.84) (8.85) и — —2xi — 2.15^2 (8.86)
8.1. Квадратичные функционалы и линейные регуляторы 219 Рис. 8.7. Процессы оптимальной системы (пример 8.5, р=0.25) и уравнение замкнутой системы — х\ = Х2, Х2 — —2xi - 2.15X2, (8.87) т. е. Ас 0 -2 1 2.15 . Полюсы системы — р\$ — -1.08 =f j0.92. При ж ДО) = = 1, ж2(0) = 0 по формуле (8.81) найдем J* = 0.54. Графики оптимальных процессов для рассматриваемого случая приведены на рис. 8.7. □ Избыточность задачи и минимизация выходной переменной. Как и в общем случае (см. 8.1.2), одно и то же решение рассматриваемой задачи обычно соответ¬ ствует различным функционалам качества. Действительно, критерий (8.75) можно переписать в виде J(x, и) = ^XqPqXq 4- ^ J (x(t)T Ст Cx{t) + uT(t)Ru(t)jdt, (8.88) где матрицы Ро = Ро > 0 и С (тп х п) находятся как решения системы алгебраи¬ ческих уравнений типа (8.5)—(8.6). Так как решение оптимальной задачи сводится к минимизации второго слагаемого выражения (8.88), то для различных весовых матриц Q, доставляющих одинаковое решение С системе уравнений (8.5)—(8.6), получаются идентичные выражения (8.78) для матрицы обратной связи К, где матрица Р является решением уравнения типа Риккати АТР + РА — PBR~1BTP = -СТС. (8.89) Выберем весовую матрицу Q = СТС (8.90)
220 Глава 8. Методы оптимального управления и поставим задачу оптимального управления как задачу минимизации функциона¬ ла J(x,u) = i J (yT(t)y(t) + uT(t)Ru(t)^dt, (8.91) где у e Km — виртуальный выход системы: у = Сх. (8.92) Задача минимизации функционала (8.91) эквивалентна задаче оптимального управления системой (8.1), (8.92) (рис. 8.8) с учетом динамической ошибки по выходной переменной y(t). Как следствие теоремы 8.3 сформулируем следующее положение. Рис. 8.8. Оптимальная система с выходом у. Теорема 8.4. Пусть система (8.1), (8.92) не вырождена, т. е. тройка матриц (.А, В, С) полностью управляема и полностью наблюдаема. Тогда: 1) существует решение P(t) > 0 уравнения Риккати (8.89); 2) оптимальные решения x*{t) и u*(t) задачи минимизации функционала (8.91) для любых начальных состояний х0 е Шп обеспечиваются пропорциональным алгорит¬ мом управления (8.77)—(8.78), где матрица P(t) > 0 является решением уравнения Риккати (8.89); 3) замкнутая система (8.79) с матрицей обратной связи (8.78) асимптотически устойчива, т. е. выполняются условия (8.23) и (8.80); 4) наименьшее значение функционала (8.91) определяется выражением (8.81). Пример 8.6. Рассмотрим объект управления (8.68) и функционал 1 рОО -I рОО J = 2 Уо (у2 + Ри<2) dt= 2 Jo ^Xl + °2Х2^2 + ри2) dt‘ (8‘ Здесь и Q = Х\ + С2Х21 93) (8.94) 1 С2 С2 С2 > 0. Нетрудно показать, что при С2 = y/qi (см. пример 8.4) задача эквивалентна рассмотренной в примере 8.5 и имеет те же решения. □
8.1. Квадратичные функционалы и линейные регуляторы 221 8.1.4. Асимптотические свойства задачи ЛКР Решение общей задачи линейного квадратичного регулирования зависит от выбо¬ ра матриц Q, R, Pf (см. также 8.1.1). Нетрудно показать, что увеличение нормы матрицы Q и, следовательно, штрафа за мгновенные квадратичные отклонения системы от точки х = 0 приводит к более быстрым и менее колебательным про¬ цессам, увеличение нормы матрицы R и штрафа за большие управления влечет за собой уменьшение управляющих воздействий и замедление переходных процес¬ сов, а увеличение нормы матрицы Р/ и штрафа за терминальные отклонения систе¬ мы — умешьшение нормы конечного состояния x(tf). Более конкретные заключе¬ ния могут быть сделаны после рассмотрения асимптотических свойств решений задачи оптимального управления, т. е. свойств оптимальных систем при неограни¬ ченном увеличении (или уменьшении) соотвествующих весовых матриц [15]. Далее ограничимся рассмотрением частного случая задачи оптимизации на беско¬ нечном интервале времени (задача 8.1, а) для одноканального объекта управления (см. рис. 8.8) х = Ах + Ви (8.95) с виртуальным выходом У = Сх $.96) и функционалом 1 С°° J = 2 J (y2{t) + pu2{t))dt, (8.97) где В и С матрицы п х 1 и 1 х п соответственно и р > 0. Полагаем, что трой¬ ка (А, В, С) удовлетворяет условиям теоремы 8.4, и следовательно, существует решение задачи ЛКР в замкнутой форме: и = Кх, (8.98) где К — матрица-строка постоянных коэффициентов обратной связи, рассчитыва¬ емая по формуле К = -р~1ВтР, (8.99) Р = Рт > 0 — решение алгебраического уравнения типа Риккати АтР + РА-р~1РВВтР = -СТС. (8.100) Будем исследовать свойства оптимальной системы х = Асх, (8.101) где Ас = А — р~1ВВтР — стационарная матрица замкнутой системы, при изме¬ нении весового коэффициента р. Отметим, что аналогичные свойства могут быть
222 Глава 8. Методы оптимального управления получены для функционалов более общего вида (8.75), что предполагает приведе¬ ние задачи к рассматриваемой (см. 8.1.2) и нахождение матрицы С в результате решения системы уравнений вида (8.5)-(8.6). Запишем уравнения объекта управления (8.95)-(8.96) в операторной форме y(t) = W(p)u(t), (8.102) где W(p) — передаточная функция разомкнутой системы. Пусть объект управле¬ ния имеет относительную степень п - v, нули р° {г = Т0й) и полюсы pi = А;{А} (i = 1 ,п). Тогда W{p) = C{pl - А)~1 В = Щ = , (8.103) а{р) {p-pi)...{p-Pn) где 0о ф 0. Определим также полюсы pic = А*{АС} (г = 1 ,п) и передаточную функцию зам¬ кнутой системы (8.101), (8.96): Wc(p) = С(р1-Ас)-1В = ^Щ, (8.104) ас \Р) а также комплексные числа р~ (г = l,n — v), равные n — v вещественно¬ отрицательным корням нормированного полинома Баттерворта порядка n — v (см. [24]), т. е. Rep~ < 0, Ь~| = 1- Имеет место следующее положение. Теорема 8.5. Пусть система (8.95)—(8.96) не вырождена, т. е. тройка матриц (А, В, С) полностью управляема и полностью наблюдаема. Тогда: 1) 2) lim piC = р-»0 Pi, если Re р? < 0, . -л— п т> n п г = l,v ~Pi, если Re pY > 0, 1- Pic — . j—з hm— = Pi , г = v + l,n, p—>0 Ш где 3) /?2\1/(2(п-«/)) P ' (8.105) (8.106) (8.107) lim pic = p—► OO Pi, если Re pi < 0, —pi, если Re pi > 0, г — 1, n. (8.108)
8.1. Квадратичные функционалы и линейные регуляторы 223 Теорема показывает, что при уменьшении штрафа за управление (а точнее за энергетические потери) п - v полюсов замкнутой системы асимпототически стре¬ мятся к вещественно-неположительным числам, равным нулям разомкнутой си¬ стемы (при Rер° < 0), либо числам, им противоположным (при Rер° > 0). Осталь¬ ные v полюсов устремляются в бесконечность, приближаясь к корням полинома Баттерворта с радиусом распределения (8.107). При этом, как правило, процессы в системе значительно ускоряются благодаря достаточно большим управляющим сигналам. При увеличении штрафа за управление все корни системы асимптотически стремятся к вещественно-неположительным числам, равным полюсам разомкну¬ той системы (при Rep* < 0), либо числам противоположным по знаку (при Repi > 0). В тех случаях, когда все полюсы разомкнутой системы вещественно¬ неположительны, достаточно большие штрафы на управление приводят к нуле¬ вым управляющим воздействиям, т. е. размыканию системы (8.101): Ас —► А. Для неустойчивых разомкнутых систем с вещественно положительными полюсами, да¬ же большие штрафы на управление обеспечивают отображение корней в левую полуплоскость: ReAi{Ac} —► — ReAj{A} < 0, и получение устойчивых переходных процессов. Пример 8.7. Рассмотрим объект управления (8.68) и функционал (8.69). Как по¬ казано в примере 8.6, задача оптимизации по функционалу (8.69) эквивалентна оптимизации системы по функционалу (8.93), где виртуальный выход определяет¬ ся выражением (8.94), т. е. С = | 1 у/&\. (8.109) Матрица обратной связи определяется выражением (8.82). Нетрудно видеть, что при р —► оо имеет место К —► 0 и, следовательно, система становится разомкну¬ той. При р —► 0 коэффициенты обратной связи неограниченно возрастают, и при достаточно большом значении р можно записать К ~ - Ip I 1 | = 7= С. (8.110) Передаточная функция разомкнутой системы с выходом у имеет вид W» = ^^±3 . (8.111) pZ Система имеет 2 нулевых полюса и один нуль р° = —l/y/qz. По теореме 8.5 получим свойства полюсов рс замкнутой системы: lim pci р—>о 1 Рс 2 Нт Р-*о ш -1 (8.112)
224 Глава 8. Методы оптимального управления где и ш (8.113) lim рс 12 = Pi,2 = 0. (8.114) р—+оо Imp Рис. 8.9. Корневой годограф оптимальной системы (пример 8.5) Корневой годограф системы для случая <у2 = 0.16 (С = |1 0.4|) представлен на рис. 8.9. На рис. 8.10, а приведены оптимальные переходные процессы при р = 0.0025, а на рис. 8.10, б — при р = 0.0064. Процессы оптимальной системы при р = 0.25 были представлены в примере 8.5 (см. рис. 8.7). Сравнение графиков показывает, что при малых р переходные процессы х\(t) имеют лучшие качествен¬ ные показатели, что достигается за счет достаточно больших управлений u(t) (см. также пример 8.1, в котором рассматривается случай р = 0). При увеличении р и, следовательно, штрафов за энергетические потери управляющие воздействия уменьшаются. □ а р = 0,0025 б р = 0,0064 Рис. 8.10. Процессы оптимальной системы (пример 8.7)
8.2. Принцип максимума 225 8.2. Принцип максимума Основным недостатком классической теории вариационного исчисления и соответ¬ ствующих ей методов оптимального управления является отсутствие ограничений типа неравенств и предположение о гладкости оптимальных решений. В связи с этим попытки их использования для целого ряда оптимальных задач приводят к вырожденным решениям (например, к бесконечно большим управлениям или разрывным траекториям). В реальных системах всегда присутствуют ограничения на управляющие воздействия и переменные состояния, что, как правило, связано с использованием негладких и разрывных управляющих воздействий. Указанные ограничения и расширение класса рассматриваемых решений являются важной отличительной особенностью принципа максимума, основные положения которого выдвинуты Л. С. Понтрягиным и развиты В. Г. Болтянским, Р. В. Гамкрелидзе и Е. Ф. Мищенко [33]. 8.2.1. Функция Гамильтона и основная теорема Принцип максимума является обобщением теории Гамильтона для задач управле¬ ния с ограниченными и негладкими функциями. Рассмотрим нелинейную систему * х = f(x,u), (8.115) где х G Кп, и = {Uj} — m-мерный вектор управления, t е [0,*/], / — вектор- функция, непрерывная по ж и и и непрерывно-дифференцируемая по ж, а также функционал ttf J(x,u) = / f°(x(t),u(t)dt, (8.116) J о где /° — функция, непрерывная по ж и и и непрерывно-дифференцируемая по ж, tf > 0 — время окончания процесса, величина которого в общем случае может быть неизвестна (не задана). Будем полагать, что для объекта управления (8.115) заданы граничные условия ж(0) = ж0, x(tf) = ж/ и ограничения на управление и е U, (8.117) где U — односвязная область m-мерного пространства. Отметим, что указанные ограничения часто задаются в виде неравенств \uj\ < Uj, где Uj > 0, j = l,m, и после некоторого преобразования уравнения объекта (8.115) могут быть представ¬ лены как М < 1, (8.118) что соответствует гиперкубу в пространстве Rm. Кусочно-непрерывные управления Uj{t), удовлетворяющие условию (8.117) (или (8.118)), называются допустимыми. Задача оптимального управления формулируется следующим образом.
226 Глава 8. Методы оптимального управления Задача 8.4. Найти оптимальный переходный процесс -х = x*(t) и оптимальное допустимое управление и = u*(t), обеспечивающее перевод объекта управления (8.115) из точки ж(0) = хо в точку x(tf) = Xf и доставляющее минимум функцио¬ налу (8.116), т. е. где Л = A(t) — вектор-функция множителей Лагранжа, являющаяся решением сопряженной системы Напомним (см. 7.5.2), что для функции Н справедливо также следующее выраже¬ ние: идентичное дифференциальному уравнению объекта управления (8.115) и состав¬ ляющее совместно с уравнением (8.120) каноническую модель оптимальной зада¬ чи. Для случая гладких неограниченных управлений решение задачи сводится к нахождению функции u*(t), удовлетворяющей условию стационарности гамильто¬ ниана Нетрудно показать, что функция u*(t), соответствующая стационарному решению, доставляет наибольшее значение функции Гамильтона (8.119), и записать Пример 8.8. Рассмотрим задачу синтеза оптимального управления объектом {х*(t), и*(t)} = arg min ./(ж, и). По схеме, рассмотренной в 7.5.2, сформируем гамильтониан Н(х, и, А) = -f°(x,u) + \Tf{x,u), (8.119) (8.120) (8.121) (8.122) При этом на оптимальных решениях выполняется Н — 0 и, следовательно, Н(х*,и*,\) = const. (8.123) Н(х,и,\) = р(х*,\) (8.124) где р(х,\) = тахН(х,и,\). U (8.125) и, х (8.126)
8.2. Принцип максимума 227 где х и и — скалярные переменные, полагая, что заданы граничные условия tf > О, х(0) = яо, x(tf) — 0 и функционал качества (затрат энергии) J{x,u) = i [ f u2dt. (8.127) 2 Jo Здесь функция Гамильтона принимает вид Н(и,Х) = ~\и2 + \и, (8.128) а уравнение сопряженной системы — А = 0. (8.129) Оптимальное управляющее воздействие ищется из условия стационарности дН — = —и + Л = 0, (8.130) ои и определяется как и = A. fS-131) Принимая во внимание, что решением сопряженной системы является А = А(0), найдем: х = хо + М, и следовательно, А = А(0) = (8.132) lS Решения канонической системы, соответствующие tf = 1 и различным начальным значениям ж(0), приведены на рис. 8.11, а. А О -0,2 -0,4 -0,6 -0,8 -1 х Рис. 8.11. Траектории системы, оптимальной по затратам энергии (пример 8.8)
228 Глава 8. Методы оптимального управления Подставляя (8.130) и (8.131) в (8.128), получаем наибольшее значение гамильто¬ ниана: 1 т^ /х(Л) = max tf(u,A) = -Л2 = (8.133) и 2 2 tj На рис. 8.11, б представлены оптимальные процессы и соответствующая функция Гамильтона р — maxu Н при х(0) = 0.8. □ Для задач с ограниченным управлением стационарное решение u*(t) может ока¬ заться вне области U, что в первую очередь и определяет ограниченные возмож¬ ности теории Гамильтона. Определим наибольшее значение функции Гамильтона для допустимых управле¬ ний и: р(х,\) = maxH(x, и, А), и£Ы запишем уравнение сопряженной системы (8.120) в развернутом виде и представим формулировку принципа максимума. (8.134) (8.135) Теорема 8.5. Пусть х = x*(t) и и = u*(t) — решения задачи 8.4. Тогда: 1) существует ненулевое решение А(£) уравнения (8.120) такое, что Н(х,и,Х) = р(х,Х)] (8.136) 2) если время процессов tf не задано, то = °- (8.137) Замечание 8.3. Условие 2) носит характер условий трансверсальности (см. 7.3.4) и может быть использовано, например, для нахождения неизвестного значения tf. Если конечное время tf задано, то условие 2), вообще говоря, несправедливо. Тем не менее в любом случае при t е [0,£/] имеет место тождество p(x(t),X(t)) = const, (8.138) т. е. на оптимальных решениях функция Гамильтона сохраняет постоянное значе¬ ние. □ Замечание 8.4. В случае когда конечное время tf не задано, и следовательно, выполняется (8.137), выражение (8.138) для любых t е [0,^] имеет вид p(x(t),\{t)) = О (8.139)
8.2. Принцип максимума 229 и оба условия принципа максимума сводятся к формуле тахН(х,и, X) = 0. (8.140) uGU □ Как отмечалось выше, в простейших случаях оптимальные решения получаются из условия стационарности гамильтониана (8.122). Если это условие дает значе¬ ния и, лежащие за пределами области U, то резонно предположить, что значения управления, доставляющие максимум гамильтониану, будут лежать на границе указанной области (для случая (8.118) это будут значения uj = ±1). Для неглад¬ ких функций Гамильтона следует также допустить возможность существования решений в сингулярных точках, где функция дН/ди не определена. Наконец, не исключена возможность неединственности решений x*(t) и и*(£), удовлетворяю¬ щих формулировке теоремы 8.5. В связи с этим вводятся следующие понятия. Задача оптимального управления называется нормальной, если для нее существу¬ ют единственные оптимальные решения x*(t) и u*(t), и вырожденной в противном случае. 8.2.2. Оптимальные управляющие воздействия (частные случаи) Пусть объект управления является аффинным и имеет один вход, т. е. х = f(x) + g(x)u, (8.141) где и — скалярное управляющее воздействие, а ограничение на управление задано в виде неравенства М < 1. (8.142) В этом случае функция Гамильтона принимает вид Я(гс,п, Л) = -f°(x, и) + XTf(x) + XTg(x) и, где вектор-функция Л = А(£) является решением сопряженной системы • (df dg \т /df°\T А “ ~(d^ + d^U) Х+(Ж) • (8.143) (8.144) Гамильтониан как функция управления и может достигать наибольших значений в стационарных точках, в которых дН/ди — 0, граничных точках и — ±1, а также в сингулярных точках, в которых производная дН/ди не определена. Оптимальные решения на границах множества U (т. е. и = ±1) во многих случаях могут быть получены как и* = sign(<?TA) (см. ниже). Для анализа решений во внутренности множества запишем = -F°(x,u) +\Tg(x), (8.145)
230 Глава 8. Методы оптимального управления где F°(x,u) = df°/du. Выражение показывает, что в сингулярных точках пре¬ терпевает разрыв функция F°(x,u), а для нахождения стационарных решений (в предположении существования функции F°(x,u)) необходимо решить относи¬ тельно и уравнение —F°(u,x) + Хт д(х) = 0. (8.146) Если указанные решения существуют и на некоторых интервалах времени удовле¬ творяют ограничению (8.142), то рассматриваемая задача допускает оптимальные решения на внутренних точках интервала U = [-1,1]. Отметим, что если на некотором конечном интервале времени выполняется дт\ = = 0, то рассмотренные решения оптимальной задачи не единственны, что делает такую задачу вырожденной. Далее рассмотрим частные случаи, соответствующие наиболее распространенным функционалам качества, представляющим: • затраты времени J = IL’dt=t{' <8147) • затраты энергии и времени J 1 + ?п2 (t)^dt = tf (8.148) где р > 0; • затраты топлива и времени J = J (l + p\u(t)\jdt = t f + J: pluit^dt-, (8.149) где p > 0. Отметим, что во всех рассматриваемых случаях подинтегральное выражение не зависит от х, и следовательно, сопряженная система (8.144) принимает вид * - -(£)'*+<8-'50> а управляющее воздействие может быть найдено в форме и = U{gT\), (8.151) где [/(•) — функция, подлежащая определению (см. рис. 8.13). Общая структура канонической модели указанных задач оптимального управления представлена на рис. 8.12.
8.2, Принцип максимума 231 Рис. 8.12. Каноническая модель оптимальных систем Оптимальное быстродействие. Для функционала (8.147), соотвествующего за¬ тратам времени, функция Гамильтона определяется выражением Щх, и, Л) = -1 + XTf{x) + Хтд(х) и. (8.152) Нетрудно показать, что задача не имеет решений на внутренних точках интервала U, а граничные решения, доставляющие максимум гамильтониану, определяются выражением (рис. 8.13, а) u = sign (gTX). (8.153) а б Рис. 8.13. Типовые нелинейные блоки оптимальных систем Пример 8.9. Рассмотрим задачу синтеза оптимального управления объектом х — ax + Ъи, (8.154) где ж и и — скалярные переменные, b ф 0, полагая, что заданы граничные условия r(0) = xq, x(tf) = 0 и функционал затрат времени (8.147). Функция Гамильтона принимает вид Н(х,и,Х) = -1 + Х(ах + Ьи), (8.155) а уравнение сопряженной системы — А = -аА. (8.156) Условие стационарности дН ди ЪХ = О (8.157)
232 Глава 8. Методы оптимального управления показывает, что система не имеет нетривиальных стационарных решений. Гранич¬ ные решения определяются выражением (рис. 8.13, а) и — sign(bA). (8.158) Подставляя (8.158) в (8.155), получаем наибольшее значение гамильтониана: /л(ж, А) = тахН(х,и, А) = — 1 + Хах + |АЬ|. (8.159) U Так как время процесса tf не задано, то для любых t > 0 выполняется /л(х, А) = — 1 + Хах + |АЬ| = 0. (8.160) В частности при t = tf получаем —1 + |А(£/)Ь| = 0. а 2 1 0 -1 -2 Рис. 8.14. Процессы системы, оптимальной по быстродействию (а, пример 8.9) и оптимальной по затратам энергии (б, пример 8.10) На рис. 8.14, а для случая а = —1, Ь = 1 представлены оптимальные процессы и соответствующая функция Гамильтона /i = maxu Я = 0 при х(0) = 2. □ Оптимальные затраты энергии. Для функционала (8.148) функция Гамильтона определяется выражением Н(х, w, А) = — 1 — ^и2 -f- ХТ f(x) + Лтд(х) и. (8.161) Найдем дН_ ди -ри + А т5, и следовательно, стационарные решения определяются выражением (8.162) (8.163)
8.2. Принцип максимума 233 При |^А| < р управление принимает значения на интервале [—1,1], и следова¬ тельно, полученное решение соответствует отрезку оптимальной траектории. При |(7тА| > р наибольшее значение гамильтониана достигается на граничных точках, а управление определяется выражением (8.153). Таким образом, в общем случае оптимальное решение u*(t) представлено отрезками функций, удовлетворяющих условиям (8.153) и (8.163). Полученные решения можно записать в компактном виде (рис. 8.13, 6) и (8.164) Пример 8.10. Рассмотрим задачу синтеза оптимального управления объектом (8.154), полагая, что заданы граничные условия х(0) = хо, x(tf) = 0 и комби¬ нированный функционал затрат времени и энергии (8.148). Функция Гамильтона принимает вид Я(х,и, А) = — 1 — + Х(ах + Ьи), (8.165) а уравнение сопряженной системы сохраняет форму (8.156). Условие стационарности гамильтониана принимает вид ВН — = —ри + ЬА = О, *6.166) ои и следовательно, стационарные решения находятся из выражения и = -А. (8.167) Р При |ЬА| < р получаем и е [-1,1], и следовательно, решение (8.167) соответствует отрезку оптимальной траектории. При |ЬА| > р наибольшее значение гамильтониана достигается на граничных точ¬ ках, а управление определяется выражением (8.158). Таким образом, для опти¬ мального решения u*(t) можно записать (рис. 8.13, 6) и = sat(^A)- (8-168) На рис. 8.14, б для случая а = —1, b = 1 представлены оптимальные процессы и соответствующая функция Гамильтона р = maxu Я = 0 при х(0) = 2. □ Оптимальный расход топлива. Для функционала (8.149) функция Гамильтона определяется выражением Н(х,и, А) = — 1 — р\и\ + Хт f(x) + Хтд(х) и. (8.169) Производная функции претерпевает разрыв в точке и = 0. Нетрудно получить, что это решение действительно доставляет максимум Я при условии |firTA| < р.
234 Глава 8. Методы оптимального управления При |ртА| > р наибольшее значение гамильтониана достигается на граничных точках, а управление определяется выражением (8.153). Таким образом, в общем случае оптимальное решение u*(t) представлено отрезками и = 0 (при \дтХ\/ < р), и (8.153). Решение можно записать в компактном виде (рис. 8.13, в) и = dez (8.170) Пример 8.11. Рассмотрим задачу синтеза оптимального управления объектом (8.154), полагая, что заданы, граничные условия ж(0) = хо, x{tf) = 0 и комби¬ нированный функционал затрат времени и топлива (8.149). Функция Гамильтона принимает вид Я(х,и, А) = — 1 — р|и| + Х(ах + Ьп), (8.171) а уравнение сопряженной системы сохраняет форму (8.156). Производная гамильтониана ятт —— = —р sign и + ЬА (8.172) ои претерпевает разрыв в точке и = 0. Это решение доставляет максимум Н при условии |6А| < р. При |ЬА| > р наибольшее значение гамильтониана достигается в граничных точках, а управление определяется выражением (8.158). Таким образом, для оптимального решения u*(t) можно записать (рис. 8.13, в) и = dez(^A). (8.173) На рис. 8.15 для случая а = —1, b = 1 представлены оптимальные процессы и соответствующая функция Гамильтона р, = maxu Я = 0 при х(0) = 2. □ 0 0,5 1 tf t, с Рис. 8.15. Процессы системы, оптимальной по затратам топлива (пример 8.11)
235 8.2. Принцип максимума Отметим, что рассмотренные задачи допускают единственные решения и являются нормальными при условии, что функция дт\ принимает нулевые значения только в изолированные моменты времени. 8.2.3. Оптимальное быстродействие линейных объектов Рассмотрим линейную систему с одним входом х = Ах + Ви (8.174) и фунционал оптимального быстродействия ftf J(x,u) = / dt — tf. (8.175) Jo Здесь и — скалярное управляющее воздействие, удовлетворяющее ограничению М < 1, (8.176) tf > 0 — время окончания процесса, величина которого не задана. ф Функция Гамильтона принимает вид ff(x,u,A) = -1 + \тАх + \тВи, (8.177) где вектор-функция Л = X(t) является решением сопряженной системы (рис. 8.16) Л = -Атх, (8.178) и следовательно, Л = е~АТ%, где Л0 = Л(0). (8.179) Рис. 8.16. Каноническая система задачи оптимального быстродействия Решением оптимальной задачи является кусочно-постоянное управление и* = sign(BTA). (8.180)
236 Глава 8. Методы оптимального управления В этом случае функция Гамильтона принимает вид Н(х*,и*,\) = —1 + Хт Ах* + |АТ5|, (8.181) а в конечной точке имеет место -1 + \\Jb\ = 0. (8.182) Если условие sign(BTA) = 0 выполняется только в изолированные моменты време¬ ни, то задача не вырождена и имеет единственное оптимальное решение (8.180). Необходимым и достаточным условием невырожденности является полная управ¬ ляемость пары (А, В). Пусть матрица А имеет только вещественные корни: Im Аг{Л} = 0, г = г,п. Тогда по теореме Фельдбаума (см. [9]) функ¬ ция (8.179) имеет не более п — 1 корней, т. е. при t € [0, оо) переключается не более п—1 раз. При дополнительном условии полной управля¬ емости пары (А, В) это же справедливо и для функции BTX(t), а следовательно и для управ¬ ляющего воздействия u(t), рассчитываемого по формуле (8.180). Таким образом, имеет место следующее положение. Теорема 8.6 (об п интервалах). Если матрица А имеет только вещественные корни и пара (Л, В) полностью управляема, то оптимальное управление принимает граничные значения ±1 и имеет не более п интервалов постоянства. Отметим, что при некоторых начальных условиях оптимальное управление может содержать и менее чем п интервалов постоянства (см. пример 8.12). Пример 8.12. Рассмотрим задачу оптимального быстродействия системы второго порядка (см. также примеры 2.5 и 6.2) Х\ — Х2) Х2 = и (8.183) с ограничением на управление (8.176). Нетрудно показать, что система полностью управляема, и в соответствии с теоремой об п интервалах оптимальное управление принимает значения ±1 и допускает два интервала знакопостоянства. Напомним, что для постоянных значений управления система имеет решения U о X2(t) = Х20 + Ut, Xi(t) — X10+X20t+~t,
8.2. Принцип максимума 237 и ее фазовые траектории описываются выражением (см. рис. 2.3) XI = Xio+—{x2-X2o) + ^-{x2-X2o)2. (8.184) и ZU Принимая во внимание наличие не более двух интервалов знакопостоянства, сле¬ дует заключить, что оптимальная фазовая траектория из произвольного начального состояния (хю,х2о) в начало координат (0,0) может быть реализована с помощью следующих импульсных последовательностей: и = 1, -1, и = -1, 1, а также (для определенных начальных состояний) — и — 1, и — — 1 Анализ множества фазовых траекторий (8.184) (см. рис. 2.3) показывает, что до¬ стижение нулевого конечного состояния за один интервал знакопостоянства управ¬ ления возможно из точек, принадлежащих отрезкам фазовых траекторий (участкам парабол, рис. 8.17, а) * (8.187) (8.188) (8.185) (8.186) 5+ : г2 = 0, х2 < 0 S~ : г2 = 0, х2 > 0, полученных при значениях и — 1 и u = -1 соответственно. а б *1 а б Рис. 8.17. Структура фазовой плоскости и траектории системы, оптимальной по быстродействию
238 Глава 8. Методы оптимального управления Определим кривую 5 = S+(JS-tj0: ф(хъх 2) = О, где Ф{х 1,х2) = хг + i(sign x2)xl, (8.189) соответствующую оптимальному переходному процессу, осуществляемому с помо¬ щью указанных управлений. Отметим, что кривая S делит фазовую плоскость R2 на две области R+ : ф{х1,х2) < О, RT : ф{х\, х2) > 0. При этом фазовые траектории, начинающиеся в области R+ (при xq е R+), до¬ стигают начала координат при использовании управляющей последовательности (8.185), а фазовые траектории, начинающиеся в области R~ (при xq е R~), — при использовании управляющей последовательности (8.186). Переключение зна¬ ка управления происходит точно на кривой <S, называемой оптимальной линией переключений системы (8.183). Таким образом, можно сделать вывод, что оптимальное управление рассматривае¬ мым объектом имеет вид: u*(t) Г 1 при х е R+{JS+, \ -1 при х € R~ U 5“. (8.190) Оптимальное управление может быть реализовано с помощью замкнутых алго¬ ритмов управления релейного типа. Первый из них описывается выражением (см. примеры 2.6 и 6.2-6.3) и = —sign v, (8.191) v = k\X\ + k2x2, (8.192) где коэффициенты обратной связи к\ > 0 и к2 > 0 должны выбираться в за¬ висимости от начального состояния системы (8.183). При постоянных значениях коэффициентов регулятор обеспечивает лишь приближенное решение оптимальной задачи и является квазиоптимальным. Второй тип регулятора является оптимальным и представлен формулами (8.191) и v = ф(х i,x2), (8.193) или = —signal + i(signx2)a^) (8.194) Фазовые траектории оптимальной системы представлены на рис. 8.17, б, а кривые оптимальных переходных процессов при х0 = 2 — на рис. 8.18. □
8.3. Принцип оптимальности и уравнение Веллмана 239 Рис. 8.18. Переходные процессы системы, оптимальной по быстродействию 8.3. Принцип оптимальности и уравнение Веллмана Принцип оптимальности был разработан в 50-е годы Р. Веллманом для решения многошаговых задач оптимизации дискретных процессов и является основой так называемого метода динамического программирования [3, 13]. Формулировка принципа остается справедливой и для систем непрерывного времени, где он часто используется для решения задач оптимального управления, основой чего является уравнение Веллмана. При этом если для стационарных задач управления результа¬ ты практически повторяют некоторые формулировки принципа максимума, то для задач управления, в которых описание объекта и функцинала содержит функции времени, уравнение Веллмана может служить основой для синтеза нового класса регуляторов. Сначала рассмотрим нелинейную стационарную систему х = f{x,u) (8.195) и функционал J(x,u) = где х е Мп, ж(0) = х0, и — ш-мерный вектор управления, удовлетворяющий огра¬ ничению и € W, (8.197) t е [0,i/], / и /° — достаточно гладкие функции. Принцип оптимальности Веллмана. Пусть существует решение задачи опти¬ мального управления (задачи 8.4), т. е. допустимое управление и = u*(t) и пере¬ ходный процесс х = x*(t), доставляющие минимум функционалу J(x,u): {x*(t), w*(t)} = arg min J(x,u). f f°{x{t),u{t))dt, (8.196)
240 Глава 8. Методы оптимального управления Зафиксируем произвольный промежуточный мо¬ мент времени t\ е (0,i/) и точку оптимальной траектории х = x*(£i). Рассмотрим поведение си¬ стемы (8.195) на интервале t е [£i,£/] и функци¬ онал Jf(x, и) = f f°(x(t),u(t))dt, (8.198) Jti полагая, что начальным состоянием является точ¬ ка х = x*(ti). Пусть управление и = u*f(t) и пе¬ реходный процесс х = Xj(t) доставляют минимум функционалу Jf(x,u), т. е. {x*f{t),u*f(t)} = arg min Jf(x,u), J J u&A где Запишем s}(*i) = /’tl J(x,u) = / f°(x(t),u(t))dt + Jf(x,u) Jo и в силу оптимальности решения u*(t),x*(t) — rti in J(x,u) = I f°(x*(t), u*(t))dt + Jf(x*, u*). '■u Jo min u&A (8.199) (8.200) Так как по определению минимальное значение функционала J/ доставляется функциями x*f(t) и uy(t), то оптимальное решение на интервале [ti,tf] обеспе¬ чивается именно этими функциями. Таким образом, справедливо следующее положение, соответствующее принципу оптимальности для рассматриваемого случая стационарных непрерывных систем. Теорема 8.7. Если функции ж*(£) и u*(t) при t е [0,£/] доставляют минимум функционалу J(x,u), а функции xy(t) и u*f(t) при t е [ti,tf], где ti е (0,tf) и x*f(ti) = x*(ti), — минимум функционалу Jf(x,u), то при t е [ti,tf] имеет место: x*(t)=Xj(t) и u*(t) = u*f(t). Иными словами, установлено следующее. Вне зависимости от предшествующего решения оптимальной задачи до произвольного момента ti е (0,tf) (т. е. предыстории оптимальных процессов), последующие отрезки оптимальных процессов (x*(t),w*(i)} должны доставлять оптимальное решение задаче с начальным состо¬ янием x*(ti), полученным в результате оптимизации на предыдущем интервале. Принцип оптимальности используется при выводе уравнения Веллмана.
8.3. Принцип оптимальности и уравнение Веллмана 241 Уравнение Веллмана. Сначала рассмотрим задачу оптимального управления 8.4, т. е. будем искать допустимое управление и = u*(t), обеспечивающее получение переходного процесса х = x*(t) объекта управления (8.195) с граничными усло¬ виями -ж(0) = ж0 и x(tf) = Xf и доставляющее минимум функционалу (8.196), полагая, что время окончания процесса tf > 0 не задано. Зафиксируем момент времени t € [0, tf] и введем в рассмотрение функцию Веллмана Ctf S(x(t)) = min / f°(x(t),u(t))dT. (8.201) u€U Jt Полагая, что x(t) = x*(t) и используя принцип оптимальности (теорема 8.7), за¬ пишем ftf S(x*(t)) = J f°(x*(t),u*(t)dr, (8.202) т. e. функция S(x) представляет собой минимальное значение функционала (8.196) при движении из промежуточной точки x(t) оптимальной траектории. Очевидно, что S(x о) = mmJ(x,u), S(xf) = 0. и&А Функция S{x) обладает следующим свойством. Теорема 8.8. Если функции S(x) является достаточно гладкой, то она является решением уравнения * пйп(/°(ж,«) + ^/(ж,и)) = 0 (8.203) с краевым условием S(xf) = 0. Для доказательства теоремы рассмотрим момент времени t + At, где At > 0 — малое приращение, и соответствующее значение S(z*(£ + Д£)) = min f f°(x(t),u(t))dT = f f°(x*(t),u*(t)dT. (8.204) ueU Jt+At Jt+At 't+At Jt+At Принимая во внимание (8.204) и (8.202), найдем •t+At f°(x*(t),u*(t)dr + S(x*(t + At)), (8.205) и следовательно, •t+At in (Г f°(x(t), u(t))dr + S(x(t + At)) — S(z(t))^ = 0. (8.206) mm u£U Если функции /° и S(x) являются достаточно гладкими, то для малых At имеет место •t+At (8.207) /г f°(x{t),u(t))dr ~ f°(x(t),u(t))At, S{x{t + At)) - S{x(t)) ~ ^^At=^f(x,u)At, (8.208) 9 Зак. 281
242 Глава 8. Методы оптимального управления и следовательно, min (^f°(x(t), u(t))At + и) At + o(At) j = 0, (8.209) где o{At)/At —> 0 при At —> 0. После деления всех слагаемых на At и перехода к пределу при At —> 0 получаем искомое выражение (8.203). Замечание 8.5. Введем обозначение А(*) = - (g)Т (8.210) и перепишем уравнение (8.203) в виде max ( — f°(x(t), u(t)) + \T(x)f(x, и)) = 0. (8.211) u£U \ / Нетрудно видеть, что выражение (8.211) совпадает с формулой (8.140), полученной для принципа максимума (см. замечание 8.4, 8.2.1). Соответственно, совпадают и способы нахождения оптимального управления. □ Пример 8.13. Рассмотрим задачу синтеза оптимального управления объектом х = и, (8.212) где х и и — скалярные переменные, полагая, что tf = оо, заданы граничные условия х(0) = х0, х(оо) = 0 и квадратичный функционал качества J(x,u) = - I (qx2 + pu2)dt, (8.213) 2 Jo где q > 0, p > 0 (см. также пример 7.7). Уравнение Веллмана принимает вид = °- (8-214) где 5(оо) = 0. Из условия стационарности минимизируемой функции получаем д /1 о о\ &S \ 8S .0 .... _(_(,* +pu) + _u) = Р«+^ = 0. (8.215) и следовательно, 1 8S и ~ р дх После подстановки (8.216) в (8.214), получаем 1 2 2ЧХ + ±(9S\2 _l(9S\2 2 р\дх) р\дх) (8.216) О, (8.217)
8.3. Принцип оптимальности и уравнение Веллмана 243 и следовательно, — = y/qp х. (8.218) Подстановка последнего выражения в (8.216) дает искомый алгоритм управления (см. также пример 7.7) и = (8.219) Отметим, что процедура синтеза регулятора не требует нахождения функции 5. Тем не менее эта функция может быть легко получена как решение уравнения (8.217) *и для краевых условий 5(оо) = 0, гг(оо) = 0 принимает вид 5 - т2 ~ 2 Ж (8.220) Так как 5(0) = J*, то наименьшее значение функционала (8.213) находится как J* (8.221) Рис. 8.19. Оптимальные процессы и функция Беллмана (пример 8.12) Найденные оптимальные решения и функция S(t) для случая q = 1, р = 4 пред¬ ставлены на рис. 8.19. □ Теперь рассмотрим более общий случай задачи оптимального управления, соот¬ ветствующий нестационарной системе х = f(x,u,t) (8.222) и функционалу J(x,u)=[ f°(x(t),u(t),t)dt, J о (8.223)
244 Глава 8. Методы оптимального управления где вектор управления и удовлетворяет ограничению (8.197), время окончания про¬ цесса tf > 0 фиксировано, а конечное состояние Xf полагается произвольным. Введем в рассмотрение нестационарную функцию S(x(t),t) = min [ f°(x(t), u(t), t)dr = f f°(x*(t),u*(t),t)dr. (8.224) Jt Jt Функция S(x, t) удовлетворяет уравнению в частных производных, которое назы¬ вается уравнением Веллмана. Теорема 8.9. Если функции S(x,t) является достаточно гладкой, то она является решением уравнения Веллмана (99 / (99 \ -ж = (8-225) Решение задачи оптимального управления с использованием уравнения Веллмана предусматривает: а) нахождение управления и* = 1Г(х,— ,t) (8.226) ох из условия и* = argmin (j°(x,u,t) + ^f(x,u,t)^; (8.227) б) решение уравнения в частных производных -Ж - S-0) + ^,*))) (8-228) и получение функции S = S(x,t); в) нахождение окончательного алгоритма управления после определения dS/dx и подстановки в (8.226).
Гпава 9. Практикум Целью практикума является освоение методов исследования нелинейных и опти¬ мальных динамических систем. Практикум включает циклы практических занятий по основным разделам учебного пособия, ориентированые на наглядное подтвер¬ ждение изучаемых концепций и приобретение навыков анализа и синтеза систем различного типа.- Основное содержание занятий составляют расчеты и модельные эксперименты, выполняемые с использованием известных программных средств (см., например, [2, 10]), а также анализ полученных результатов. 9.1. Анализ нелинейных систем Задание 1.1. Простейшие нелинейные системы Исследовать системы 1-го порядка х = f(x), (9.1) определенные в R1, для следующих функций f(x)\ —х, х, -х2, -х-х2, -х3 4, - sin х, -1/х, -sign ж, sign ж. 1. Построить функции f(x) и установить их класс (кусочно-непрерывные, непре¬ рывные, гладкие), определить стационарные и сингулярные точки. 2. Построить графики переходных процессов х = x(t, х0) для различных значений начальных условий х0. 3. Исследовать вопросы существования и единственности решений, а также пол¬ ноты (существования решений для любых t > 0). 4. Найти положения равновесия (стационарные точки) х = х*, оценить их устой¬ чивость, показать области притяжения.
246 Глава 9. Практикум Замечание. Следует обратить внимание на следующее: а) нелинейные системы могут иметь несколько положений равновесия; б) поведение нелинейной системы качественно зависит от начальных условий; в) нелинейные системы могут не иметь решений (для определенных начальных условий х0) или иметь несколько решений для одного и того же значения х0; г) решения нелинейных систем не обязательно определены для всех t > 0; д) одна и та же система может иметь неустойчивые, устойчивые и асимптотически устойчивые положения равновесия. Задание 1.2. Фазовые портреты и особенности нелинейной динамики Исследовать системы 2*го порядка, содержащие объект управления xi == ж2, (9.2) х2 = f2{u) (9.3) и линейный регулятор и = —kiXi — к2Х2, (9.4) где кх, к2 — коэффициенты обратных связей. 1. Рассмотреть линейную систему, для которой f2{u) = и. (9.5) По заданным значениям корней а) Pl = -1, р2 = -3; б) Pi = -1+ j, Р2 = -1 - i; в) Pi = j, Р2 = ~j характеристического полинома а(р) = р2 + к2р + h (9.6) рассчитать коэффициенты обратных связей к2. Найти положения равновесия. Построить фазовые портреты системы в области хг е [-2, 2], х2 € [—2, 2]. 2. Рассмотреть две гладкие нелинейные системы, для которых /2(и) = sin и (9.7)
9.1. Анализ нелинейных систем 247 и h(u) = и3, (9.8) а коэффициенты обратной связи к2 выбраны, как указано в п. 1 (варианты а, б, в). 3. Найти положения равновесия. Построить фазовые портреты систем в области xi е [-3, 3], х2 G [-2, 2]. В нескольких точках {xi,x2) построить векторы / = Х2 f2(xi,x2) ’ соответствующие векторным полям рассматриваемых систем. 4. Оценить устойчивость систем, отметить области притяжения, указать типы переходных процессов (апериодические, колебательные, затухающие, незатухаю¬ щие), указать характерные линии фазовой плоскости (инвариантные множества, аттракторы). Задание 1.3. Фазовые траектории релейных систем и метод припасовывания (см. также задание 4.1, п. 9.4). * Исследовать системы 2-го порядка, содержащие объект управления х\ — х2, (9.9) х2 = м, (9.10) и регуляторы вида « = fi(v)t (9.11) v = —kixi - к2х2. (9.12) Выбрать коэффициенты обратных связей ki = 1, к2 = 0.25 и рассмотреть: а) релейный регулятор, где и = sign v; (9.13) б) релейный регулятор с зоной нечувствительности, где и = dez ~ , (9.14) 5 = 0.2;
248 Гпава 9. Практикум (9.15) 1. Найти уравнения фазовых траекторий объекта управления (9.9)—(9.10) при по¬ стоянных значениях управления и = —1, 0, 1. Построить фазовые портреты в диапазоне хг е [-2, 2], Х2 е [-2, 2]. 2. Методом припасовывания построить фазовые траектории замкнутых систем с регуляторами (9.11)-(9.12) из начальных точек х10 = 0.5, 1, 1.5, 2, х2о = 0 (по 4 траектории). Для этого найти линии переключения, выделить области постоян¬ ства управления и и воспользоваться полученными ранее траекториями объекта управления. 3. На фазовых портретах показать линии переключения, выделить области знако- постоянства управления, показать стационарные точки (множества). Задание 1.4. Устойчивость нелинейных систем 1. Исследовать нелинейную систему а) а = 0.05; б) а = —0.1. Рассчитать положения равновесия. Построить фазовые портреты в области xi е [-2, 2], х2 е [-2, 2]. Проанализировать устойчивость системы, определить типы положений равновесия (узлы, центры, фокусы, седловые точки), показать области притяжения. 2. Исследовать нелинейные системы xi = — х2 — а(1 — х\ — x|)xi, х2 = Xi — а(1 - х\ - Хз)х2, (9.16) (9.17) где xi = х2, х2 = —х2 — 25(xj — 1.4xj + 0.27x1) (9.18) (9.19) и Xi = х2, х2 = — 25(xi — 1.4xf 4- 0.27xj). (9.20) (9.21)
9.1. Анализ нелинейных систем 249 Рассчитать положения равновесия, построить фазовые портреты в области xi е [—3, 3], Х2 € [—10, 10]. Проанализировать устойчивость систем, определить типы положений равновесия (узлы, центры, фокусы, седловые точки), показать области притяжения. 3. Исследовать нелинейную систему х\ = х\ — х2, (9.22) х2 = 2xiX2, (9.23) где xi е [-2, 2], х2 € [—2, 2]. Найти положение равновесия, построить фазовый портрет, проанализировать аттрактивность и устойчивость положения равновесия. Задание 1.5. Инвариантные множества и частичная устойчивость 1. Исследовать нелинейную систему х\ = -xi+xix2, (9.24) х2 = xi (9.25) с выходом * у = xi (9.26) в области xi е [—2, 2], х2 € [—1, 1]. 2. Исследовать нелинейную систему (9.16)-(9.17) с выходом у = 1 — х\ — х% (9.27) (см. задание 1.4). 3. Исследовать нелинейную систему х\ = axi+Xi+X2, (9.28) х2 = -3xf(axi + х\ + х2) - 4(х\ + х2) (9.29) с выходом у = х\ + х2, (9.30) где а) а = 0.2, б) а = —1. 4. Рассчитать положения равновесия. 5. Построить фазовые портреты и переходные процессы выходных переменных y(t). Показать инвариантные множества, аттракторы, предельные циклы.
250 Глава 9. Практикум 6. Проанализировать устойчивость и частичную устойчивость (по выходу), пока зать области притяжения. Задание 1.6. Абсолютно устойчивые системы Исследовать нелинейную систему, состоящую из линейного блока ±1 = х2, (9.31) х2 = — Zx\ — Х2+ и (9.32) с входом и и выходом У = ®1, (9.33) и нелинейного статического блока и — f2(v) — a sin v, (9.34) v = -у, (9.35) где а — коэффициент. Проанализировать устойчивость системы при различных значениях а. 1. Найти положения равновесия системы. 2. Построить типовые переходные процессы y(t) для начальных условий х1(0) = 5, х2(0) = 0 и а е [-5, 15]. 3. Получить секторные условия, т. е. найти значения параметров к1у к2: к\ < /2 И < к2, v соответствующие границам устойчивости системы относительно точки (a;i, 2:2) = = (0, 0). 4. Построить графики функции f2(v), соответствующие предельно допустимым значениям коэффициента а. Задание 1.7. Гиперустойчивые системы Исследовать нелинейную систему, состоящую из линейного блока xi = х2, (9.36) Х2 = —3^1 — 4^2 + и (9.37) с входом и и выходом У С\Хх + С2х2, (9.38)
9.2. Синтез нелинейных систем 251 и динамического блока где Проанализировать выхода (9.38): а) ci = 1, б) С1 = 1.5, U = r(t) 2, (9.39) Z = 4r(t)y, (9.40) V -- -У, (9.41) r{t) = sin Ы. устойчивость системы для различных параметров уравнения с2 = 0; с2 = 1. 1. Найти положения равновесия системы. 2. Для начальных условий х\(0) = 5, Х2(0) = 0, z(0) = 0 построить переходные процессы y(t), z(t), r(t). 3. Найти передаточные функции линейной части W(s), рассчитать нули и полюсы системы, построить годографы W(jaj) (АФЧХ). ф 4. Обосновать полученные результаты. 9.2. Синтез нелинейных систем Задание 2.1. Преобразование координат и эквивалентные модели Построить модели, эквивалентные системе первого порядка 1 х = —, х определенной на множестве х € (0, оо) и имеющей решения х = \J — 21. (9.42) 1. Осуществить преобразование координат & = х2 Т’ (9.43) получить эквивалентную модель, найти решения & и проверить экви¬ валентность систем.
252 Глава 9. Практикум 2. Осуществить преобразование координат 6 = я3, (9.44) получить эквивалентную модель, найти решения £2 = £2(£,£20) и проверить экви¬ валентность систем. 3. Построить переходные процессы x(t,xo), £i(£,£io) и £2(i,£2o). Проверить полно¬ ту и устойчивость основной и преобразованных систем. Замечание. Ввиду особых свойств модели (9.42) эквивалентность рассматривае¬ мых систем имеет место в ограниченных множествах и на ограниченных интерва¬ лах времени. Задание 2.2. Преобразование к нормальной форме Исследовать следующие системы (объекты управления) второго порядка. ОУ1: с выходом ОУ2: с выходом для случаев, когда ОУЗ: с выходом для случаев, когда xi — -xj + x2, х2 = 2хгх2 + (х2 + 1)« У = х2; xi = fi(xi) + x\ + x2, х2 = и у = х\+х2 fi = хи -xi, 1, -х\\ х\ = — ах^ — Х\и, Х2 = OiX\X2— х2и у = l-x^-xl а = -1, 0, 1. (9.45) (9.46) (9.47) (9.48) (9.49) (9.50) (9.51) (9.52) (9.53)
9.2. Синтез нелинейных систем 253 Найти относительную степень каждой системы, привести системы к нормальной форме и проанализировать устойчивость нулевой динамики. Замечание. Для ОУ1-ОУ2 следует выбрать 2 = XU а для ОУЗ — 2 Arctg —. Xi Задание 2.3. Точная линеаризация и стабилизация выхода Рассмотреть объекты ОУ1-ОУЗ из задания 2.2. 1. Найти линеаризирующие управления (алгоритмы точной линеаризации). 2. Стабилизировать системы относительно выхода у = 0, обеспечив время пере¬ ходного процесса U = 1 с. 3. Проанализировать полноту и устойчивость замкнутых систем. 4. Построить фазовые портреты и переходные процессы выходных переменных y(t). Показать инвариантные множества, аттракторы и области притяжения, проанали¬ зировать частичную устойчивость (по выходу). Задание 2.4. Попятный синтез и стабилизация каскадных систем Исследовать объект ОУ1 из задания 2.2. 1. Найти виртуальное управление х2 = U(x i), обеспечивающее стабилизацию подсистемы (9.45) и время переходного процесса ^ni = 1 с. 2. Ввести в рассмотрение ошибку е = х2 - U(xi) и найти преобразованную модель системы в координатах {xi, е). 3. Найти управляющее воздействие и, обеспечивающее стабилизацию ошибки и время переходного процесса tne = 0.3 с. 4. Построить графики переходных процессов xi(t) и e(t) для случаев использова¬ ния виртуального и реального управления.
254 Глава 9. Практикум 5. Построить фазовый портрет и сравнить его с полученным для ОУ1 в задани¬ ях 2.2-2.3 . Показать инвариантные множества и аттракторы. Проанализировать устойчивость и частичную устойчивость (по функции е), показать области притя¬ жения. Задание 2.5. Попятный синтез и стабилизация выхода Исследовать объект ОУ2 из заданий 2.2-2.3 при Д = — х\. 1. Записать нормальную форму системы, т. е. уравнения внешней динамики £(£) и внутренней (нулевой) динамики z(t), выбрав 2 = Х\. 2. Осуществить точную линеаризацию системы (см. задания 2.2-2.3). 3. Для нормальной формы найти виртуальное управление i = щ*), обеспечивающее стабилизацию нуль-динамики и заданное время переходного про¬ цесса tnl = 1 с. 4. Ввести в рассмотрение ошибку е = £-U(z) и найти преобразованную модель системы в координатах (z,e). 5. Найти управляющее воздействие и, обеспечивающее стабилизацию ошибки и заданное время переходного процесса tne = 0.3 с. 6. Построить графики переходных процессов z{t) и e(t). 7. Построить фазовые портреты системы и сравнить их с полученными для ОУ2 (Д = — xf) при выполнении заданий 2.2-2.3 . 8. Показать инвариантные множества и аттракторы. Проанализировать устойчи¬ вость и частичную устойчивость системы. 9.3. Согласованное управление и траекторные задачи Задание 3.1. Линейные условия согласования Исследовать двухканальную систему, состоящую из двух независимых объектов управления первого порядка = -xf + щ, = х\ + U2 Х2 (9.54) (9.55)
9.3, Согласованное управление и траекторные задачи 255 с входами иь ti2 и выходами УХ = XI, У2 = х2. Условия согласования заданы в виде тождества г/i = у2, или Ух-Уч = О, а обобщенная (усредненная) переменная — Ух + У2 S 2 ■ (9.56) (9.57) (9.58) 1. Построить заданно-ориентированную модель системы. 2. Синтезировать алгоритм управления, обеспечивающий согласование движений за время переходного процесса Ы = 0.5 с и получение обобщенной (усредненной) скорости s = V* — 1. 3. Построить фазовый портрет и графики переходных процессов выходных пере¬ менных yi(t), y2(t). Показать инвариантные множества и аттракторы. Проанали¬ зировать устойчивость и частичную устойчивость системы. Задание 3.2. Нелинейные условия согласования Рассмотреть нелинейную систему (9.54)-(9.56) и условия согласования вида ~у\ — 2/1 + 2/2 = 0. (9.59) Усредненная переменная определяется выражением (9.58). 1. Построить задачно-ориентированную модель сиртемы. 2. Синтезировать алгоритм управления, обеспечивающий согласованное движение за временя переходного процесса £п = 0.5 с и получение обобщенной (усредненной) скорости V* = 1. 3. Построить фазовый портрет и графики переходных процессов выходных пере¬ менных yi(t), y2{t). Показать инвариантные множества и аттракторы. Проанали¬ зировать устойчивость и частичную устойчивость системы. Задание 3.3. Прямолинейное движение Рассмотреть систему (9.54)-(9.56) и прямую, заданную уравнением - sin а* у\ + cos а* у2 + ip0 = 0, (9.60)
256 Глава 9. Практикум длина которой определяется выражением , . s = cosa* у\ + sina* уч + фо- (9.61) Здесь а* = const, фо = const, фо = const. 1. Найти матрицу Якоби дф _ дф/дх дх дф/дх и показать, что прямая задана в нормализованной форме. 2. Построить задачно-ориентированную модель системы. 3. Синтезировать алгоритм управления, обеспечивающий компенсацию отклонения е = — sin а* у\ + cos а* уч + <^о (9.62) за время переходного процесса tn = 0.5 с и получение обобщенной (контурной) скорости V* = 1. 4. Для случая а* = 7г/6, ф0 = 0.5, фо = 0 построить фазовый портрет. Показать инвариантные множества и аттракторы. Задание 3.4. Движение по окружности Рассмотреть систему (9.54)-(9.56) и окружность, заданную уравнением ±-(& - - Ау1) = О, (9.63) где R = const, Дг/i = у\ - у?; Дг/2 = У2 - Длина дуги которой определяется как S = R Arctg Дуг Дух' (9.64) 1. Найти матрицу Якоби ^(ДуьДЫ и ее значение для точек (г/1,2/2), удовлетворяющих уравнению (9.63). Показать, что окружность задана в нормализованной форме. 2. Построить задачно-ориентированную модель системы. 3. Синтезировать алгоритм управления, обеспечивающий компенсацию отклонения е = ^(ДЗ-Д^-Дй2) (9.65)
9.3. Согласованное управление и траекторные задачи 257 за время переходного процесса tn = 0.5 с и получение обобщенной (контурной) скорости V* = 1. 4. Для случая R ^ 1, Ai/i = Ау2 = 1.2 построить фазовый портрет. Показать инвариантные множества и аттракторы. Задание 3.5. Синхронизация колебательных систем Исследовать два идентичных маятника, описываемых уравнениями yi+v%yi = щ, (9.66) Уй + ь>оУ2 = «2, (9.67) где и>0 > 0. Условия согласования (синхронизации) заданы в форме (9.57), а усред¬ ненная переменная определяется выражением (9.58). 1. Привести систему к форме вход-состояние-выход и построить задачно-ориен- тированную модель. 2. Синтезировать алгоритм управления, обеспечивающий синхронизацию маятни¬ ков и усредненное движение, заданное эталонной моделью (осциллятором) 5*+о;25* = 0, s*(0) = 1, s*(0) = 0, J9.68) где и > и>о- 3. Для случая и> = 2, шо = 0.5 построить фазовый портрет, а также графики переходных процессов разомкнутой и замкнутой систем. Показать инвариантные множества и аттракторы. Проанализировать устойчивость и частичную устойчи¬ вость. Задание 3.6. Управление круговым движением динамической модели Рассмотреть двухканальную линейную систему 4-го порядка = Х2, (9.69) Х2 = и, (9.70) У = XI, (9.71) где х{ = (xn,xi2), у = (уьуг). и = и окружность, представленную в нормализованной форме (9.63)-(9.64) (см. также задание 3.4). 1. Построить задачно-ориентированную модель системы. 2. Синтезировать алгоритм управления, обеспечивающий устойчивое движение по окружности с контурной скоростью s = V* = 1. 3. Для случая R = 1, Ayi = Ду2 = 1-2 построить фазовый портрет. Показать инвариантные множества и аттракторы.
258 Глава 9. Практикум 9.4. Релейные системы Задание 4.1. Релейное управление системой второго порядка Исследовать систему 2-го порядка, содержащую объект управления хг = х2, (9.72) Х2 = и, (9.73) и релейные регуляторы (см. также п. 9.1, задание 1.3). 1. Осуществить моделирование и проанализировать поведение замкнутой системы с релейным регулятором и = —sign v, (9.74) v = к\Х\ + к2Х2 (9.75) при различных значениях коэффициентов обратной связи h = 1, к2 = 0, 0.25, 0.5, 1. Построить фазовые портреты системы, представленные траекториями из началь¬ ных точек х10 = 0.5, 1, 1.5, 2, х2о = 0, для всех указанных значений коэффици¬ ентов. 4. Для начальных условий хю = 1, х2о = 0и всех указанных значений коэффици¬ ентов построить графики переходных процессов xi(t) и u(t). 5. На фазовых портретах показать линии переключения, выделить области знако- постоянства управления, показать векторные поля системы (векторы / = (2:2,и)) до и после пересечения линии переключения, дать характеристику переходных процессов (апериодический, колебательный и т. д.), показать скользящие режимы. 6. Найти кривую (оптимальную линию переключения), обеспечивающую наиско¬ рейшее достижение начала координат из всех начальных точек. Построить опти¬ мальный (по быстродействию) регулятор и получить фазовый портрет оптимальной системы (см. также п. 9.4, задание 5.6, б). Задание 4.2. Релейное управление возмущенной системой Исследовать возмущенную систему первого порядка х = (3b(u + w), (9.76) и = —sign х, (9.77) где х(0) = 1,6 = const > 0, (3 — варьируемый параметр, w = A sin Ш — сигнальное возмущение с параметрами 4>ОиО = const > 0.
9.5. Оптимальное управление 259 1. Построить переходные процессы x(t), u(t) невозмущенной системы: /3 = 1, w — = 0. Проверить условия скользящего режима, определить эквивалентное управле¬ ние, оценить устойчивость нулевого положения равновесия. 2. Полагая w = 0, построить переходные процессы x(t), u(t) параметрически возму¬ щенной системы для нескольких значений параметра /3. Найти область изменения /3, в которой сохраняются условия скользящего режима, определить эквивалентное управление и оценить устойчивость системы. 3. Полагая /3 = 1, построить переходные процессы x(t), u(t), w(t) сигнально возму¬ щенной системы для нескольких значений параметра А. Найти область значений w(t), в которой сохраняются условия скользящего режима, определить эквивалент¬ ное управление, оценить устойчивость системы. 9.5. Оптимальное управление Задание 5.1. Исследование быстродействия линейного объекта Найти управляющие воздействия, обеспечивающие достижение наилучшего быст¬ родействия линейного объекта управления х\ = х2, х2 = и, ^9.78) у = Х1, (9.79) где xi(0) = 1, х2(0) = 0 (см. также задание 5.6, б). 5.1 а (задача без ограничений) Воспользоваться линейным регулятором и = — к\Х\ — к2х2 (9.80) и найти значения коэффициентов обратной связи к\, к2, соответствующие пере¬ ходному процессу y(t) с заданным перерегулированием а = 20% и наименьшим временем переходного процесса tn. 1. Выбрать начальные значения ki = 5, к2 = 2, при которых достигается заданное значение перерегулирования. По графику y(t) определить значение tn. 2. Последовательно увеличивать ki и подбирая новые значения к2, при которых обеспечивается а = 20%, определить соответствующие значения tn. Полученные значения коэффициентов и времени переходного процесса tn свести в таблицу и построить зависимость к2 от Ац. 3. Построить графики переходных процессов y(t), u(t), соответствующие началь¬ ным, средним и «наилучшим» значениям параметров регулятора. 4. Пояснить полученные результаты.
260 Глава 9. Практикум 5.1 б (задача с ограничениями на управление) Воспользоваться релейным регулятором и = —sign (kixi 4- к2х2) (9.81) и найти значения коэффициентов к\, к2, обеспечивающие перевод системы из начального состояния хю = 1, хг(0) = 0 в точку (0,0) за минимальное время tf. 1. Выбрать ki = 1 и подобрать значение коэффициента к2, обеспечивающее полу¬ чение наименьшего значения tf. 2. Построить фазовый портрет и графики переходных процессов xi(£), u(t). 3. Пояснить полученные результаты. Задание 5.2. Нахождение условного экстремума функции Найти значения х\ и х2, при которых достигается минимум функции 2 I 2 у = aix 2 + а 2х2 при ограничении (условии) х\ — х2 — С — 0, где <2i, а2, С — заданные константы. Рассчитать минимальное значение у. Постро¬ ить график. Задание 5.3. Нахождение экстремума функционала 1. Найти уравнение линии у*(х), соответствующей кратчайшему пути 1(у) между заданными точками (х0,у(х0)) и (х/,у(х/)). Рассчитать путь I* = 1{у*) и постро¬ ить график. 2. Найти уравнение линии у*(х), соответствующей кратчайшему пути 1(у) между прямой S0 : у = kix + к0 и ближайшим отрезком окружности Sj •. х2 4 г*2 = R2, где fci, ко, R — заданные константы. Рассчитать путь I* = 1(у*) и построить гра¬ фик.
9.5. Оптимальное управление 2S1 Задание 5.4. Нахождение условного экстремума функционала в задачах оптимального управления 5.4 а (задача минимизации интегрального квадратичного критерия) Найти экстремум функционала 1 Г°° J = - / (qx2 4- pu1 2 3)dt (9.82) 2 J Q при ограничении (условии), вводимом уравнением объекта управления х — ах 4 Ьи, (9.83) где х(0) = хо, х(оо) = 0; q > 0, р > 0, а, Ъ — заданные константы. 1. Получить каноническую систему уравнений. 2. Для различных значений А(0) построить фазовые траектории в пространстве (х,Х) и найти оптимальную. Построить оптимальные переходные процессы x*(t), u*{t), X(t). 3. Получить замкнутый алгоритм управления и = кх, (9.84) рассчитать к и определить минимальное значение функционала J*. 4. Построить оптимальные переходные процессы замкнутой системы x*(t), u*(t). 5.4 б (задача о мягкой посадке) Минимизировать функционал затрат энергии- J = I Г и2dt (9.85) 2 J о при ограничениях, вводимых уравнениями движения материальной точки х\ = Х2, тх 2 = и — mg, (9.86) где хДО) = х0 = 1, Х2(0) = хо < 0, xi(tf) = x2(tf) = 0, д = 9.8; £/, m, Х20 — заданные константы. 1. Получить каноническую систему уравнений и из условий задачи найти началь¬ ные значения Ai(0), А2(0). 2. Построить оптимальную фазовую траекторию в пространстве (xi,x2) и переход¬ ные процессы х*(£), х% (£). u*(t). 3. Рассчитать минимальное значение функционала J*.
262 Глава 9. Практикум Задание 5.5. Синтез управления в задачах ЛКР 5.5 а (терминальная задача оптимального управления) Для объекта управления х = ах + Ьи (9-87) найти управление u(t), доставляющее минимум квадратичному функционалу J = I [ f {qx1 2 3 4 + u2)dt, (9.88) 2 Jo где tf = 1, x(0) = xo = 1, x(tf) = 0; q > 0, a, b — заданные константы. 1. Получить каноническую систему уравнений и из условий задачи найти началь¬ ное значение А(0). 2. Для различных значений А(0) построить фазовые траектории в пространстве (х, А) и найти оптимальную. Построить оптимальные переходные процессы x*(t), u*(t), \{t). 3. Получить уравнение Риккати и замкнутый алгоритм управления и = k(t)x. (9.89) Рассчитать минимальное значение функционала J*. 4. Построить переходные процессы замкнутой системы x*(t), u*(t), k(t). 5.5 б (задача оптимального управления со свободным правым концом) Для объекта управления (9.87) найти управление u(t), доставляющее минимум функционалу J = \*2f + \ Г(ях2 + и2)М, (9.90) где tf = 1, х(0) = xo = 1, х/ = x(tf) не задано; q > 0, а, Ь — заданные константы. 1. Получить каноническую систему уравнений и используя условие трансверсаль¬ ности найти значения А(0), A (tf) и х/. 2. Для различных значений А(0) построить фазовые траектории в пространстве (х,А) и найти оптимальную. Построить оптимальные переходные процессы x*{t), A(t), u*(t). 3. Получить уравнение Риккати и замкнутый алгоритм управления (9.89). Рассчи¬ тать минимальное значение функционала J*. 4. Построить переходные процессы замкнутой системы x*(t), u*(t), k(t).
9.5. Оптимальное управление 263 5.5 в (задача линейного квадратичного регулирования 1) Для объекта управления Х\ = Х2, Х2 — Ьи, (9.91) (xi,Х2) = х е R2, (ari(0),x2(0)) = (ж10,х2о) = хо найти линейный алгоритм управ¬ ления вида и = kixi+k2X2, (9.92) обеспечивающий для любых начальных состояний xq е R2 получение наименьших значений квадратичного функционала 1 С°° J = - / (xTQx -f pu2)dt, (9.93) * J о где р > О, Q = 1 О О q асимптотические свойства оптимальной системы. , a q > 0, 6 — заданные константы. Проанализировать 1. Найти решение уравнения Риккати Р > 0 и матрицу обратной связи К = fo) при р = 1. Рассчитать полюсы разомкнутой и замкнутой систем. 2. Построить корневые годографы замкнутой системы по параметру р е (0, сю). 3. Построить типовые оптимальные переходные процессы х*(£) и u*(t) для трех значений параметра р и найти значения J*. 5.5 г (задача линейного квадратичного регулирования 2) Для объекта управления х\ = Х2, Х2 — Ьи, (9.94) у = xi 4- ух2 (9.95) (х1,хг) = х € R2, (xi(0),x2(0)) = (х10,Х2о) = найти линейный алгоритм управ¬ ления вида (9.92), обеспечивающий для любых начальных состояний х0 е R2 получение наименьших значений квадратичного функционала 1 Г°° J — 2 JQ (V2 + pu2)dt, (9.96) где р > 0, а у > 0, 6 — заданные константы. Проанализировать асимптотические свойства оптимальной системы. |1<?1 Замечание. Рассматриваемая задача сводится к задаче 5.5, в, где Q = 1 Я
264 Глава 9. Практикум Задание 5.6. Задачи оптимального быстродействия 5.6 а (оптимальное управление объектом первого порядка) Для нелинейного объекта управления = —ах3 + Ъи, (9.97) где х(0) = 1, а, Ь — заданные константы, найти управление u{t), которое удовле¬ творяет ограничению М < 1, (9.98) обеспечивает перевод системы в точку х = 0 и доставляет минимум функционалу затрат времени 1. Получить каноническую систему уравнений. 2. Записать гамильтониан Н(х,и,\), найти оптимальный закон управления и* — = и*(Л) и допустимые значения А/ = А(£/). 3. Построить типовые переходные процессы х(£), X(t), u(t), H(t), соответствующие различным значениям А/, и найти оптимальные решения. 5.6 б (оптимальное управление объектом второго порядка) Для линейного объекта управления Х\ = Х2, Х2 = и, (9.100) где xi(0) = хю, Х2(0) = Х2о, найти управление, которое удовлетворяет ограниче¬ нию (9.98), обеспечивает перевод системы в начало координат (0,0) и доставляет минимум функционалу затрат времени (9.99) (см. также задание 5.1). 1 2 31. Построить фазовые траектории в пространстве (х^хг) при и = ±1 и с их помощью найти графически оптимальные траектории из заданных точек (хю,^2о)- 2. Построить квази-оптимальный (релейный) регулятор и = -sign (&ixi 4- А:2Х2), (9.101) где klt &2 — коэффициенты обратной связи. Выбрать ki — 1 и для ряда начальных состояний хю € [—2, 2], Х20 = 0 подобрать значения коэффициента &2> обеспечива¬ ющие получение наименьших значений £/. Полученные значения свести в таблицу и построить линии переключения. Получить фазовый портрет оптимальной систе¬ мы и графики переходных процессов Xj(£), u*(t). 3. Найти оптимальную линию переключения, построить оптимальный (по быстро¬ действию) регулятор. Получить фазовый портрет оптимальной системы и графики переходных процессов x\{t), u*(t) из точек хю € [-2, 2], х2о = 0.
Литература 1. Андреев А. Ю. Управление конечномерными линейными объектами. М.: Наука, 1976. 2. Андриевский Б. Р., Фрадков А. Л. Избранные главы теории автоматического управления с приме¬ рами на языке MATLAB. СПб: Наука, 1999. 3. Атанс М., Фйлб П. Оптимальное управление. М.: Машиностроение, 1968. 4. Бесекерский В. А., Попов Е. П. Теория систем автоматического управления. М.: Наука, 1975. 5. Брайсон А., Хо Ю-Ши. Прикладная теория оптимального управления. М.: Мир, 1972. 6. Бурдаков С. Ф., Мирошник И. В., Стельмаков Р. Э. Системы управления движением кжесных роботов. СПб: Наука, 2001. 7. Введение в топологйю / Ю. Г. Борисевич, Н. М. Близняков, Я. А. Израилевич, Г. Н. Фоменко. М.: Наука, Физматлит, 1995. 8. Гантмахер Ф. Р. Теория матриц. М.: Наука, 1988. 9. Дроздов В. Н, Мирошник И. В., Скорубский В. И. Системы автоматического управления с микро- ЭВМ. Л.: Машиностроение, 1989. 10. Дроздов В. Н., Никифоров В. О., Бендюговский А. Е, Математические основы теории систем. М.: Мир книги, 1994. 11. Елкин В. И. Редукция нелинейных управляемых систем. Дифференциально-геометрический подход. М.: Наука, 1997. 12. Зубов В. И. Устойчивость движения. (Методы Ляпунова и их применение.) М.: Высшая школа, 1973. 13. Иванов В. А., Фалдин И.В. Теория оптимальных систем автоматического управления. М.: Наука, 1981. 14. Калман Р., Фалб П., Арбиб М. Очерки по математической теории систем. М.: Мир, 1971. 15. Квакернаак X., Сиван Р. Линейные оптимальные системы управления. М., 1977. 16. Колесников А. А. Основы теории синергетического управления. М.: Испо-сервис, 2000. 17. Корн Г., Корн Т. Справочник по математике. М.: Наука, 1984. 18. Королев С. М., Мирошник И. В. Анализ динамики и управление пространственным движением нелинейных динамических систем // Автоматика и телемеханика. 2000. № 1. 19. Крутько П. Д. Обратные задачи динамики управляемых систем. Линейные модели. М.: Наука, 1987. Нелинейные модели. М.: Наука, 1988.
266 Литература 20. Малинецкий Г. Г., Потапов А. Б, Современные проблемы нелинейной динамики. М.: Эдиториал УРСС, 2000. 21. Мирошник И. В. Согласованное управление многоканальными системами. Л.: Энергоатомиздат, 1990. 22. Мирошник И. В. Частичная устойчивость и геометрические проблебы нелинейной динамики // Автоматика и телемеханика. 2002. № 1. 23. Мирошник И. В. Нелинейные системы. Анализ и управление. СПб: СПбГИТМО, 2002. 24. Мирошник И. В. Теория автоматического управления. Линейные системы. СПб: Питер, 2005. 25. Мирошник И. В., Никифоров В. О. Адаптивное управление пространственным движением нели¬ нейных объектов // Автоматика и телемеханика. 1991. № 9. 26. Мирошник И. В., Никифоров В. О., Фрадков A. J1. Нелинейное и адаптивное управление сложными динамическими системами. СПб: Наука, 2000. 27. Мирошник И. В., Ушаков А. В. Синтез алгоритма синхронного управления системой квазиодно- типных объектов // Автоматика и телемеханика. 1977. № 11. 28. Мищенко А. С., Фоменко А. Г. Курс дифференциальной геометрии и топологии. М.: Изд-во МГУ, 1980. 29. Никифоров В. О. Адаптивное и робастное управление с компенсацией возмущений. СПб: Наука, 2003. 30. Никифоров В. О., Ушаков А. В. Управление в условиях неопределенности: чувствительность, адап¬ тация и робастность. СПб: СПбГУ ИТМО, 2003. 31. Первозванский А. А. Курс теории автоматического управления. М.: Наука, 1986. 32. Полушин И. Г., Фрадков А. Л., Хилл Д. Д. Пассивность и пассификация нелинейных систем // Автоматика и телемеханика. 2000. № 3. 33. Понтрягин Л. С., Болтянский В. Г., Гамкрелидзе Р. В., Мищенко Е. Ф. Математическая теория оптимальных процессов. М.: Наука, 1983. 34. Попов Е. П. Теория нелинейных систем автоматического регулирования и управления. М.: Наука, 1988. 35. Румянцев В. В., Озиранер А. С. Устойчивость и стабилизация движения по отношению к части переменных. М.: Наука, 1987. 36. Теория автоматического управления /под ред. А. А. Воронова, ч. 1-2. М.: Высшая школа, 1977. 37. Теория автоматического управления: Нелинейные системы управления при случайных воздей¬ ствиях / А. В. Нетушил и др. М.: Высшая школа, 1972. 38. Теория систем с переменной структурой / под ред. С. В. Емельянова. М.: Наука, 1970. 39. Фурасов В. Д. Устойчивость движения, оценки и стабилизация. М.: Наука, 1977. 40. Фрадков А. Л. Кибернетическая физика: принципы и примеры. СПб: Наука, 2003. 41. Цлаф Л. Я. Вариационное исчисление и интегральные уравнения. М.: Наука, 1970. 42. Цыпкин Я. 3. Основы теории автоматического управления. М.: Наука, 1977. 43. Чу раков Е. П. Оптимальные и адаптивные системы. М.: Энергоатомиздат, 1987. 44. Уткин В. И. Скользящие режимы и их применение в системах с переменной структурой. М.: Наука, 1974. 45. Уонем М. Линейные многомерные системы управления: Геометрический подход. М.: Наука, 1980.
Литература 267 46. Fradkov A. L., Miroshnik I. V., Nikiforov V. O. Nonlinear and adaptive control of complex systems. Dordrecht: Kluwer Academic Publishers, 1999. 47. Isidori A. Nonlinear control systems. 3^ edition. Berlin: Springer-Verlag, 1995. 48. Khalil H. K. Nonlinear systems. 2nc* edition. New Jersey: Prentice-Hall, 1996. 49. Marino R., Tomei P. Nonlinear control systems design. New Jersey: Prentice Hall, 1995. 50. Miroshnik /. V. Partial stabilization and geometric problems of nonlinear control // 15 IFAC World Congress. Barcelona, 2002. 51. Miroshnik I. V. Attractors and partial stability of nonlinear dynamical systems // Automatica, 40, 2004, pp. 473-480. 52. Sastry S. Nonlinear systems: analysis, stability and control. New-York: Springer-Verlag, 1999.
•Предметный указатель А 3 автоколебания, 59 аппроксимация, 115 аттрактивность, 64,143 аттрактор, 48, 57 точечный, 49, 64 Б Барбалата лемма, 21 биекция, 17 блок динамический, 28 нелинейный, 27 положительный, 28, 29, 32 В векторное поле, 21, 37,44 ^-связанность, 102 полное, 53 Г гамильтониан, 199-200, 226 гиперплоскость, 26 инвариантная, 48 гиперповерхность, 23 аттрактивность, 48, 57 градиент, 25 инвариантная, 47 локальные координаты, 24 гистерезис, 28, 43 градиент, 17, 25 Д динамика внешняя, 120 нуль-динамика, 84 продольная, 133 диффеоморфизм, 19 условие, 20 задача ЛКР, 191, 203, 208 асимптотика, 222 избыточность, 214, 219 на бесконечном интервале, 216 синтез регулятора, 209 свойства, 204, 217, 220 о брахистохроне, 176, 184 о кратчайшем пути, 177, 182, 188 со свободным правым концом, 207 терминальная, 206 условие трансверсальности, 209 вариационная, 176 Лагранжа, 189 на условный экстремум, 189 простейшая, 176 с подвижными концами, 186 И изоклина, 46 инвариантность, 47 скользящего режима, 154 инволютивность, 22 интегральная кривая, 37 К каноническая форма, 103, 106, 107 нормальная, 123 основная, 109 координаты локальные, 24, 122, 133, 144 задачно-ориентированные, 133, 144 кривая, 23 нормализованное описание, 136, 139 критерий, 167, 230 быстродействия, 231, 235 динамической точности, 203 затрат топлива, 233 затрат энергии, 205, 230 комбинированный, 230
Предметный указатель 269 Л Н Лагранжа задача, 189 критерий, 174 уравнения, 190 функция, 174 Лежандра условие, 183 Ли производная, 22 Липшица условие, 18 Лурье уравнение, 198, 217 Ляпунова второй метод, 69 первый метод, 68 уравнение, 76 функция, 71 лагранжиан, 190, 200 лемма Барбалата, 21 Ляпунова, 77 линеаризация аппроксимация, 68, 115 точная, 112, 118, 125 линия переключения, 42, 150-151, 155, 158 оптимальная, 238 люфт, 28 нелинейные звенья, 27 соединение, 30, 32 неустойчивость, 74 норма евклидова, 16, 70 функциональная, 13, 21 нуль-динамика, 84, 122-123 линейной системы, 124 устойчивая, 127 О область притяжения, 64, 66 оптимальное быстродействие, 231 линейных объектов, 235 оптимальное управление, 166 задачи с ограничениями, 225 методы, 202 по быстродействию, 231 по затратам топлива, 233 по затратам энергии, 232 принцип оптимальности, 249 синтез, 195, 200 регулятора, 208-209, 217 относительная степень, 118, 119 отображение, 11 функциональное, 12 свойство линейности, 14 м метод Ляпунова, 68-69 изоклин, 45-46 припасовываения, 41 согласованного управления, 131, 134, многообразие, 23 множество инвариантное, 46, 57, 153, 160 нуль-динамики, 84, 90, 122, 124 притягивающее, 57 множители Лагранжа, 174, 190 модель задачно-ориентированная, 135, 138 каноническая, 103, 106-108 в форме Гамильтона, 199-200 задачи ЛКР, 209 нормальная форма,123 оптимальная, 192, 196, 226 основная форма, 108 линейная каноническая, 124, 209 эквивалентная, 101, 106 п Попова неравенство, 29, 92 пассивность, 92 линейной системы, 94 136 поверхность, 23 переключения, 140, 156, 163 подмногообразие, 24 положение равновесия, 62 частичное, 79, 83 предельный цикл, 59 преобразование координат, 100 основное, 108, 118 принцип максимума, 228 оптимальности, 240 производная Ли, 22 Р равновесие, 62 частичное, 79, 80, 83 распределение, 22
270 Предметный указатель регулятор квазиоптимальный, 169, 238 оптимальный, 169 решение системы, 37 единственность, 51 продолжимость, 53 стационарное, 38, 55 существование, 50 С свойства глобальные, 60, 67 локальные, 60, 62 сепаратриса, 60 система гладкая, 35, 38 каноническая форма, 105-107, 109 каскадная, 128 квази-оптимальная, 155, 169, 238 линейная, 26, 33-34 вещественно-положительная, 95, 157 нормальная форма, 125 пассивная, 94 устойчивая, 76 устойчивая по входу, 97 многоканальная, 131 нелинейная, 11, 26, 33 аффинная, 34 неустойчивая, 62 нормальная форма, 123 оптимальная, 169, 230 относительная степень, 117 пассивная, 91 переменной структуры, 148 полная, 53 релейная, 147, 235 устойчивая, 157 решение, 37, 49 сопряженная, 192, 209, 228 стабилизация, 112,117 управляемость, 111 устойчивая, 62, 68-69 фазовый портрет, 38 цепная форма, 113, 126 эквивалентность, 101, 105 скользящий режим, 151, 160, 163 стабилизация каскадной системы, 128 состояния, 114-115, 117 выхода, 126 стационарная точка, 38 т теорема Барбашина-Красовского, 76 Ляпунова, 73-74 Ляпунова-Пуанкаре, 68 Ферма, 171 об п интервалах, 236 об обратной функции, 20 > точка притяжения, 64 равновесия, 62 сингулярная, 50, 170 стационарная, 38, 55, 171 траектория заданная, 132 круговая, 140 фазовая, 38 У управление каскадной системой, 128 линеаризирующее, 111, 126 оптимальное, 168, 195, 200, 202 пространственным движением, 142, 144, 148 релейное, 156, 231, 235 согласованное, 131, 134, 136,139 стабилизирующее, 114, 126-127, 203 траекторное, 136, 139-140 эквивалентное, 153, 160 управляемость, 111 матрица, 106 уравнение Веллмана, 241, 244 Ляпунова, 76 Риккати, 198, 217 дифференциальное, 210 Френе, 140 Эйлера-Лагранжа, 182, 185 Эйлера-Пуассона, 185 уравнения Гамильтона, 200 Лагранжа, 190-191, 195 условие Лежандра, 183 Попова, 29, 92 переключения, 150, 152 скользящего режима, 151, 163 согласования, 132 стационарности, 55, 171,174 гамильтониана, 201, 226 трансверсальности, 187, 209, 228 устойчивость, 61 асимптотическая, 64, 73 равномерная, 66 глобальная, 67, 75 линейной системы, 76 по Ляпунову, 62, 73
Предметный указатель 271 по входу, 96 по выходу, 88, 90 по части переменных, 79 равномерная, 65 релейной системы, 157 частичная, 78, 86, 88 экспоненциальная, 66, 74, 78 Ф Ферма теорема, 171 Френе уравнение, 140 фазовая траектория, 38 построение, 40-41, 45 свойства, 43 фазовый портрет, 38, 43 функционал, 12, 176 вариации, 179 качества, 167, 230 квадратичный, 203 вход-выход, 219 параметризация, 180 расширенный, 190 функция, 14 Беллмана, 241 Гамильтона, 199, 226 Лагранжа, 174, 190 Ляпунова, 69 векторная, 15 гладкая, 17 знакоопределенная, 69 квадратичная, 16, 71 липшицева, 18 неограниченно возрастающая, 70 норма, 13, 21 обратная, 16 однозначная (биекция), 17 свойство линейности, 15 штрафа, 167 экстремум, 169, 173 э экстремаль, 177 вариации, 178-179 экстремум, 169, 177 условный, 173, 189 Я Якоби матрица, 18, 101, 135, 144 # системы, 68 якобиан, 19
Мирошник Илья Васильевич Теория автоматического управления Нелинейные и оптимальные системы Главный редактор Заведующий редакцией Руководитель проекта Художник Корректор Е. Строганова А. Кривцов В. Шачин Л. Адуевская Н. Солнцева Лицензия ИД № 05784 от 07.09.01. Подписано к печати 04.08.05. Формат 70x100 Уел. п. л. 21,93. Тираж 2000. Заказ 281 ООО «Питер Принт», 194044, Санкт-Петербург, пр. Б. Сампсониевский, 29а. Налоговая льгота — общероссийский классификатор продукции ОК 005-93, том 2; 95 3005 — литература учебная. Отпечатано с готовых диапозитивов в ОАО «Техническая книга» 190005, Санкт-Петербург, Измайловский пр., 29