Текст
                    УДК 621.37
П26
ББК 32. 965
Учебное пособие
Рецензенты
докт. техн. наук, профессор В.Н. Юдин:
канд. техн. наук, профессор А.М. Бонч-Бруевич
Перов А.И.
П26 Статистическая теория радиотехнических систем. Учеб, пособие для
вузов. - М.: Радиотехника, 2003,400 с., ил.
ISBN 5-93108-047-3
Рассмотрены проблемы статистической теории радиосистем. Кратко изложены ос-
новы статистического описания событий и процессов: приведены статистические моде-
ли сигналов, сообщений и помех, используемые в радиолокации, связи, навигации, ра-
диоуправлении: даны основы теории статистических решений; представлены различные
типы задач синтеза оптимальных устройств и систем, решаемые статистической теорией
(обнаружение, различение, согласованная фильтрация, оценка параметров сигналов, ли-
нейная и нелинейная фильтрация, экстраполяция и интерполяция информационных
процессов): изложены основы оптимальной прос гране гвенно-временной обрабозки сиг-
налов.
Для студентов радиотехнических специальностей вузов; может быть полезна
аспирантам и инженерам, занимающимся синтезом радиотехнических устройств
и систеи.
УДК 621.37
ББК 32. 965
ISBN 5-93108-047-3
© Перов А. И.. 2003
© Издательство “Радиотехника”. 2003

ОГЛАВЛЕНИЕ Предисловие........................................... 9 Введение.............................................. 10 Глава 1. СТАТИСТИЧЕСКОЕ ОПИСАНИЕ СОБЫТИЙ И ПРОЦЕССОВ........................................... 13 1.1. Понятие вероятности............................. 13 1.2. Элементарные события. Случайная величина........ 14 1.3. Вероятностное описание случайных величин........ 15 1.4. Многомерные случайные величины.................. 22 1.5. Условные функции распределения и плотности вероятности случайных величин..................................... 26 1.6. Случайные процессы.............................. 27 1.7. Гауссовские случайные процессы.................. 34 1.8. Марковские случайные процессы................... 41 1.8.1. Марковские случайные последовательности.... 41 1.8.2. Цепи Маркова............................... 43 1.8.3. Марковские процессы........................ 45 Глава 2. СТАТИСТИЧЕСКОЕ ОПИСАНИЕ СИГНАЛОВ, СООБЩЕНИЙ И ПОМЕХ..................................... 51 2.1. Общие определения............................... 51 2.2. Узкополосные сигналы............................ 54 2.3. Статистические модели сигналов.................. 55 2.4. Статистические модели сообщений................. 63 2.5. Статистические модели помех..................... 67 Глава 3. ОСНОВЫ ТЕОРИИ СТАТИСТИЧЕСКИХ РЕШЕНИЙ............................................... 70 3.1. Общие положения................................. 70 3.2. Решения, функция потерь, риск................... 71 3.3. Оптимальные решения........................... 76 3.4. Оптимальные решения при наличии случайных неинформативных параметров сигнала.................... 79 3.5. Оптимальные решения при наличии случайных параметров сообщения.................................. 81 Глава 4. ОБНАРУЖЕНИЕ СИГНАЛОВ........................ 83 4.1. Постановка задачи обнаружения сигналов.......... 83 4.2. Обнаружение детерминированного сигнала.......... 84 4.2.1. Байесовское решение. Простая функция потерь. 84 4.2.2. Байесовское решение. Обобщенная функция потерь ... 86 4.2.3. Небайесовское решение. Критерий Неймана—Пирсона 88 4.2.4. Формула для отношения правдоподобия........ 90 3
4.2.5. Структура оптимального обнаружителя............ 92 4.2.6. Характеристики обнаружения..................... 94 4.2.7. Обнаружение сигнала при коррелированной помехе ... 97 4.3. Обнаружение сигнала со случайными параметрами...... 102 4.3.1. Общее решение задачи обнаружения сигнала со случайными параметрами.......................... 102 4.3.2. Оптимальный приемник обнаружителя сигнала со случайной начальной фазой....................... 104 4.3.3. Оптимальный приемник обнаружителя сигнала со случайными амплитудой и начальной фазой........ 107 4.3.4. Оптимальный приемник обнаружителя сигнала со случайными начальной фазой, амплитудой, временем запаздывания и смещением частоты......... 110 4.4. Обнаружение сигнала по дискретной выборке.......... 113 4.5. Обнаружение сигнала на фоне негауссовских помех.... 119 4.5.1. Обнаружение детерминированного сигнала........ 119 4.5.2. Обнаружение сигнала со случайными параметрами .... 121 4.6. Обнаружение пространственно-временного сигнала..... 123 4.6.1. Отношение правдоподобия для пространственно- временного сигнала................................. 124 4.6.2. Оптимальный алгоритм обнаружения пространственно-временного сигнала................. 126 Глава 5. ОПТИМАЛЬНАЯ СОГЛАСОВАННАЯ ФИЛЬТРАЦИЯ СИГНАЛОВ.................................... 134 5.1. Общие положения теории согласованной фильтрации сигналов............................................... 134 5.2. Согласованные фильтры для некоторых типов сигналов. 137 5.2.1. Согласованный фильтр для когерентной пачки радиоимпульсов..................................... 137 5.2.2. Согласованный фильтр для когерентной пачки радиоимпульсов с фазовой манипуляцией.............. 140 Глава 6. РАЗЛИЧЕНИЕ СИГНАЛОВ............................ 144 6.1. Различение двух детерминированных сигналов......... 144 6.2. Различение двух квазидетерминированных сигналов.... 150 6.3. Различение т детерминированных сигналов............ 152 Глава 7. ОЦЕНКА ПАРАМЕТРОВ СИГНАЛА...................... 158 7.1. Постановка задачи оценки параметров сигнала........ 158 7.2. Общее решение задачи оптимального оценивания параметров сигнала на основе теории статистических решений.............................................. 159 7.3. Оценки максимального правдоподобия................. 160 4
7.4. Свойства оценок максимального правдоподобия...... 162 7.4.1. Несмещенность .............................. 162 7.4.2. Эффективность............................... 162 7.4.3. Достаточность............................... 167 7.5. Свойства оценок случайных параметров............. 168 7.5.1. Смещенность оценок случайного параметра..... 168 7.5.2. Граница Рао—Крамера для оценки случайного параметра......................................... 168 7.6. Оценка параметров сигнала, принимающих дискретные значения.............................................. 173 7.6.1. Байесовское решение......................... 173 7.6.2. Небайесовское решение. Оценки максимального правдоподобия..................................... 177 7.7. Оценка параметров сигнала с непрерывной областью значений............................................ 177 7.7. 1. Прямые методы решения задач оценки параметров сигнала........................................... 177 1.12. Оценка параметров сигнала с помощью дискриминаторов................................... 182 7.8. Потенциальная точность оценок параметров сигнала. 184 7.9. Оценка параметров сигнала по наблюдениям дискретной выборки............................................... 195 7.10. Оценка информативных параметров сигнала при наличии случайных неинформативных параметров.................. 197 7.10.1. Оценка параметров сигнала со случайной начальной фазой............................................. 197 7.10.2. Оценка параметров сигнала со случайными амплитудой и начальной фазой...................... 200 7.11. Оценка параметров сигнала, наблюдаемого на фоне коррелированного шума................................. 201 Глава 8. РАЗРЕШЕНИЕ СИГНАЛОВ.......................... 204 8.1. «Разрешение - обнаружение» сигналов.............. 204 8.2. «Разрешение - измерение» сигналов................ 206 8.3. Функция неопределенности сигнала по задержке и частоте .. 209 Глава 9. ОСНОВЫ ТЕОРИИ ФИЛЬТРАЦИИ СЛУЧАЙНЫХ ПРОЦЕССОВ................................... 216 9.1. Уравнение для апостериорной плотности вероятности непрерывных процессов................................. 218 9.2. Рекуррентное уравнение для апостериорной плотности вероятности дискретных процессов...................... 223 5
9.3. Рекуррентное уравнение для апостериорной плотности вероятности дискретных процессов при наличии случайных неинформативных параметров сигнала..................... 225 9.4. Рекуррентное уравнение для апостериорной плотности вероятности непрерывных процессов при наличии случайных неинформативных параметров сигнала........... 227 9.5. Рекуррентное уравнение для апостериорной плотности вероятности дискретных процессов, зависящих от случайных параметров................................... 229 9.6. Рекуррентное уравнение для апостериорной плотности вероятности непрерывных процессов, зависящих от случайных параметров................................. 232 Глава 10. ОПТИМАЛЬНАЯ ЛИНЕЙНАЯ ФИЛЬТРАЦИЯ ИНФОРМАЦИОННЫХ ПРОЦЕССОВ............................... 236 10.1. Оптимальная линейная фильтрация непрерывных процессов 236 10.1.1. Общие уравнения оптимальной линейной фильтрации 236 10.1.2. Некоторые обобщения алгоритмов оптимальной линейной фильтрации............................... 241 10.1.3. Использование теории оптимальной линейной фильтрации для синтеза сглаживающих цепей следящих измерителей.............................. 242 10.1.4. Примеры синтеза оптимальных линейных систем фильтрации........................................ 245 10.1.5. Оптимальный фильтр Винера........................ 249 10.2. Оптимальная линейная фильтрация дискретных процессов 257 10.2.1. Рекуррентные алгоритмы оптимальной дискретной линейной фильтрации............................... 257 10.2.2. Пример синтеза оптимальной дискретной системы фильтрации........................................ 264 10.2.3. Некоторые обобщения алгоритмов оптимальной дискретной линейной фильтрации.................... 266 10.2.4. Дискретный фильтр Винера......................... 268 10.3. Оптимальная комбинированная калмановско-винеровская фильтрация............................................. 270 10.3.1. Непрерывно-дискретная калмановско-винеровская фильтрация........................................ 271 10.3.2. Дискретная калмановско-винеровская фильтрация ... 275 10.4. Оптимальная линейная экстраполяция и интерполяция. 278 10.4.1. Оптимальная линейная экстраполяция............... 278 10.4.2. Оптимальное линейное интерполяция................ 280 6
10.5. Оптимальная линейная фильтрация при 286 коррелированных шумах наблюдения................... Глава 11. ОПТИМАЛЬНАЯ НЕЛИНЕЙНАЯ ФИЛЬТРАЦИЯ ИНФОРМАЦИОННЫХ ПРОЦЕССОВ..................................... 292 11.1. Уравнения оптимальной нелинейной фильтрации в гауссовском приближении......................... 292 11.2. Дискриминатор и фильтр в оптимальной системе фильтрации........................................ 298 11.3. Уравнения дискретной нелинейной фильтрации в гауссовском приближении......................... 306 11.4. Оптимальная непрерывно-дискретная фильтрация и дискретная фильтрация с оптимальным накоплением... 309 11.4.1. Оптимальная непрерывно-дискретная фильтрация ... 309 11.4.2. Дискретная фильтрация с оптимальным накоплением 315 11.5. Оптимальная нелинейная фильтрация при случайных неинформативных параметрах сигнала................ 317 11.5.1. Общие алгоритмы оптимальной фильтрации в гауссовском приближении..................... 317 11.5.2. Оптимальная фильтрация информационных процессов, переносимых сигналом со случайной начальной фазой............................... 319 11.5.3. Оптимальная фильтрация информационных процессов, переносимых сигналом со случайными начальной фазой и амплитудой.................. 322 11.5.4. Оптимальная фильтрация при переменных неинформативных параметрах сигнала............ 325 11.6. Оптимальная фильтрация информационных процессов в присутствии дополнительных узкополосных помех..... 328 11.7. Оптимальная фильтрация при негауссовских помехах. 330 Глава 12. ОПТИМАЛЬНАЯ КОМПЛЕКСНАЯ ФИЛЬТРАЦИЯ................................ 333 12.1. Радиолокационный двухдиапазонный комплексный измеритель дальности.............................. 333 12.2. Комплексный измеритель дальности и радиальной скорости 338 12.3. Модифицированный вариант комплексирования........ 344 Глава 13. АДАПТИВНАЯ ФИЛЬТРАЦИЯ СООБЩЕНИЙ ... 350 13.1. Постановка задачи адаптивной фильтрации.......... 350 13.2. Показатели качества адаптивных систем фильтрации. 352 13.3. Общее решение задачи адаптивной фильтрации....... 358 13.4. Многоканальные адаптивные системы фильтрации..... 361 7
13.5. Алгоритмы скользящей адаптации............... 368 13.5.1. Общее решение задачи по методу скользящей адаптации...................................... 368 13.5.2. Алгоритм скользящего адаптивного приема в непрерывном времени.......................... 370 13.5.3. Понятие контура адаптации.............. 375 13.5.4. Алгоритм скользящего адаптивного приема в дискретном времени........................... 376 Глава 14. ОПТИМАЛЬНАЯ ФИЛЬТРАЦИЯ ПРИ ПРИЕМЕ ПРОСТРАНСТВЕННО-ВРЕМЕННЫХ СИГНАЛОВ 380 14.1. Оптимальная фильтрация при приеме пространственно- временного сигнала на фоне внутренних шумов........ 380 14.1.1. Оптимальная фильтрация при известном направлении на источник сигнала................ 380 14.1.2. Оптимальная фильтрация при неизвестном направлении на источник сигнала................ 384 14.2. Оптимальная фильтрация при наличии пространственно- распределенных помех............................... 389 Литература......................................... 398 8
ПРЕДИСЛОВИЕ Предлагаемая вниманию читателя книга является учебным пособи- ем по курсу «Статистическая теория радиотехнических систем». Этот курс, в соответствии с Государственным образовательным стандартом высшего профессионального образования (2000 г.) по направлению подготовки дипломированного специалиста 654200, «Радиотехника», входит в раздел «Специальные дисциплины» (СД), СП.01 - 200700 «Ра- диотехника», курс СД.05, объемом 100 часов. В предыдущих стандартах образования данного курса не было, а отдельные его разделы входили в различные курсы: «Радиоавтоматика», «Радиотехнические системы», «Радиолокация», «Радиоуправление» и др. При работе над книгой автор опирался на опыт чтения лекций на радиотехническом факультете Мос- ковского энергетического института (технического факультета). Учебник включает 14 глав, каждая из которых посвящена отдель- ной проблеме в общей статистической теории радиосистем. В первой главе дается краткое изложение основ статистического описания собы- тий и процессов. Если читатель хорошо знаком с теорией вероятностей и теорией случайных процессов, то данная глава при изучении может быть опущена. Во второй главе приводятся статистические модели сиг- налов, сообщений и помех, которые часто используются в радиотехни- ческих приложениях: радиолокации, связи, навигации, радиоуправле- нии. Третья глава посвящена основам теории статистических решений, которая является методологической базой, четко определяющей поня- тие оптимальности принимаемых решений (алгоритмов обработки). В последующих десяти главах рассматриваются основные типы задач, решаемые статистической теорией радиосистем: обнаружение, различе- ние, разрешение, согласованная фильтрация, оценка параметров сигна- лов, фильтрация информационных процессов. Порядок изложения ма- териала данных глав принят таким, чтобы последующий материал мог использовать те или иные положения и формулы, полученные в пред- шествующем материале. В то же время, данные главы написаны доста- точно «автономно», что допускает их изучение в произвольном порядке, используя ряд необходимых формул как справочный материал. Автор надеется, что данное пособие окажется полезным не только студентам радиотехнических специальностей вузов, но и аспирантам и инженерам, занимающихся вопросами синтеза радиотехнических уст- ройств и систем. 9
ВВЕДЕНИЕ Радиотехнические системы (РТС) являются информационными сис- темами, осуществляющими передачу, прием и обработку информации в интересах потребителя с использованием радиосигнала в качестве пере- носчика. Отличительной особенностью условий функционирования РТС является наличие радиоканала, под которым понимают совокуп- ность источника радиосигнала, среды его распространения и приемни- ка. Основное требование, предъявляемое к радиосистеме, состоит в дос- товерном и своевременном получении необходимой информации по- требителем. Однако достоверному приему и извлечению информации мешают реальные физические свойства приемопередающих устройств и среды распространения сигнал, суть которых заключается, во-первых, в случайных изменениях их параметров, а, во-вторых, в возникновении помех, тоже имеющих случайную природу. Действительно, при распро- странении радиосигнала через турбулентную атмосферу и ионосферу, обладающих случайными коэффициентами поглощения и преломления, происходит случайная модуляция радиосигнала по амплитуде, частоте и фазе. Внешние естественные помехи создаются различными электро- магнитными процессами, происходящими в атмосфере, ионосфере и космическом пространстве, которые также имеют случайный характер. В приемных устройствах возникают случайные процессы (шумы), обу- словленные тепловым хаотическим движением электронов и т.д. Таким образом, задача приема и извлечения информации в РТС решается в условиях искажений сигнала и информации случайного характера. Оче- видно, что такие искажения снижают достоверность извлекаемой ин- формации, а, следовательно, надо принимать меры по ослаблению влия- ния данных факторов, т.е., по сути, решать задачу оптимизации РТС. Математическим аппаратом, позволяющим оперировать случайны- ми величинами и случайными процессами, является теория вероятно- стей и математическая статистика. На возможность и целесообразность использования статистических методов в радиотехнике одними из пер- вых указали работы А.Н. Колмогорова (1939 г.) и Н. Винера (1942 г.) по синтезу оптимальных линейных систем фильтрации [2, 17]. Фундамен- тальной работой, посвященной систематическому применению методов математической статистики в задачах радиосвязи, является теория по- тенциальной помехоустойчивости В.А. Котельникова (1946 г.). За про- шедшие более чем 60 лет статистические методы настолько прочно во- шли в теорию РТС, что ни одна новая разработка не начинается без де- тального анализа функционирования проектируемой системы в услови- ях влияния случайных процессов и синтеза отдельных устройств и под- 10
систем статистическими методами. Все наиболее совершенные радио- системы, такие, например, как системы мобильной связи, спутниковой радионавигации, спутникового телевидения, дистанционного зондиро- вания Земли и планет, базируются на рекомендациях и выводах, полу- ченных в статистической теории РТС. Задачи анализа радиотехнических устройств и систем, подвержен- ных случайным воздействиям, рассматриваются в курсах «Радиотехни- ческие цепи и сигналы», «Радиоавтоматика» и др. В настоящем курсе основное внимание уделяется методам статистического синтеза опти- мальных, т.е. в том или ином смысле наилучших, систем. Конечно, по- сле синтеза оптимальной системы естественно встает вопрос об анализе характеристик полученной системы. Другими словами, синтез не ис- ключает необходимости анализа. Однако для проведения анализа в учебнике не рассматриваются какие-либо новые методы, а используют- ся уже известные. Задачи синтеза РТС классифицируются не по типу радиосистем (радиолокационные, радионавигационные, радиоуправления или радио- связи), а по смыслу решаемой задачи: обнаружение, распознавание, раз- решение, оценка параметров сигнала и т.д. Такой подход позволяет дать решение соответствующей задачи с единых теоретических позиций, а особенности ее применения в той или иной РТС (характер априорных данных, статистика распределений, тип сигнала и др.) иллюстрируются на примерах. Итогом синтеза РТС и конечной его целью являются: оптимальный алгоритм обработки принимаемых сигналов в РТС; структура оптимальной РТС, реализующая синтезированный алго- ритм; количественная оценка качества работы РТС. Все задачи синтеза РТС рассматриваются с единых позиций, осно- ванных на рассмотрении апостериорных плотностей вероятности ин- формационных процессов и байесовской методологии, предусматри- вающей использование априорных сведений о сигналах, помехах и ин- формационных процессах. Если априорных сведений для решения зада- чи статистического синтеза оказывается недостаточно, то используется методология параметрической априорной неопределенности, также до- пускающая рассмотрение апостериорных плотностей вероятности, но в другом пространстве состояний. В рамках такого подхода естественным образом возникают адаптивные РТС, которые в процессе работы при- спосабливаются к параметрической априорной неопределенности усло- вий работы. Для достижения наилучших характеристик РТС в условиях априорной неопределенности адаптивные системы являются более 11
предпочтительными перед другими, такими, например, как инвариант- ные или робастные системы. Для решения отдельных задач (например оценки постоянных параметров сигнала) рассматриваются небайесов- ские методы (например, метод максимального правдоподобия), которые хорошо зарекомендовали себя на практике. В учебнике рассматриваются задачи синтеза РТС как в непрерыв- ном, так и в дискретном времени. Последние приобретают все большее значение в связи с бурным развитием вычислительных средств, позво- ляющих в реальном времени реализовывать сложные оптимальные ал- горитмы обработки сигналов. Так, например, в цифровых приемниках спутниковых радионавигационных систем (ГЛОНАСС, GPS) обрабаты- ваются сигналы 12 спутников и реализуются оптимальные корреляци- онные алгоритмы, алгоритмы поиска, обнаружения и слежения за фа- зой, частотой и задержкой сигнала. Различным аспектам проблем статистического синтеза РТС посвя- щена обширная литература (статьи, монографии, научные доклады на конференциях и симпозиумах) как отечественная, так и зарубежная, и число публикаций постоянно растет. Поэтому в списке литературы к учебнику даны лишь основные (по мнению автора) отечественные рабо- ты, в которых отдельные вопросы синтеза рассматриваются более под- робно, чем в учебнике, и с которыми будет целесообразно ознакомиться особо заинтересовавшемуся читателю. 12
Глава 1 СТАТИСТИЧЕСКОЕ ОПИСАНИЕ СОБЫТИЙ И ПРОЦЕССОВ 1.1. Понятие вероятности Результаты многих физических измерений, опытов, наблюдений меняются (возможно, незначительно) от одного сеанса их проведения к другому. В этих случаях говорят о том, что интересующее нас событие (результат) является случайным. При этом подразумевается, что оно в принципе может быть осуществимо неограниченное число раз. Для ма- тематического описания случайных событий вводят понятие вероятно- сти. Пусть некоторое случайное событие А може. принимать конечное число исходов А1,А2,...,А„ . Практическое понятие вероятности заклю- чается в том, что относительная частота того или иного исхода случай- ного события в каждой последовательности независимых повторных испытаний приближается к соответствующей вероятности. Таким обра- зом, если имеется N результатов экспериментов, среди которых собы- тие А = 4 наступило пА (/) раз, то вероятность такого события опреде- ляется как Р(А = 4 ) = lim пА (i)/N . В строгой математической теории вероятностями называют зна- чения некоторой действительной функции Р(А), определенной на множестве (классе) некоторых событий Ае А, которые представля- ют собой результаты испытаний (опыта или наблюдения). Вероятно- сти (т.е. функцию Р(А)) вводят посредством определенных аксиом. Пусть имеем множество событий А , которое обладает следующи- ми свойствами: если Ае А и Ве А, то данному множеству событий принадлежат также события АВ — произведение событий, заключающееся в наступ- лении обоих событий А и В ,(А+В) — сумма событий, под которой понимаю событие, состоящее в наступлении хотя бы одного из собы- тий А и В ,(А-В) — разность событий, т.е. событие, состоящее в том, что А происходит, а Л не происходит; множество А содержит достоверное / и недостоверное О события. Вероятностью Р(А) события А называется определенная на А однозначная действительная функция, удовлетворяющая трем аксиомам'. 13
Аксиома!. Р(Л)> О для любого А е А, Аксиома 2. Р(/) = 1 для достоверного события А = I, Аксиома 3. P(4 kjA2 о....) = Р(Л1)+Р(Я2)+... для любой по- следовательности попарно несовместных событий А1,А2,— Из аксиом 1—3 следует, что 0<Р(Л)<1. Если А = О — невоз- можное событие, то Р(О) = 0 . Дополнительно к трем основным аксиомам вводится четвертая, ко- торая связывает «абсолютную» вероятность Р(А), относящуюся к дан- ному испытанию, и условную вероятность Р(л|5), относящуюся к ис- пытанию, ограниченному дополнительным условием осуществления события В . Условная вероятность Р(Л|5) определяется следующей аксиомой. Аксиома 4. Вероятность совмещения событий АпВ равна Р(АпВ) = Р(В)Р(х\в). (1.1) Формулу (1.1) иногда называют правилом умножения вероятно- стей. Если Р(5) = 0, то вероятность Р(АпВ) не определена. Два события А и В называются независимыми (по вероятности), если Р(ЛпР) = Р(Я)Р(й). 1.2. Элементарные события. Случайная величина Каждое множество событий А = {Л;} может быть представлено как множество G ={^у} попарно несовместных событий Xj *0, так что каждое событие At есть объединение некоторого подмножества собы- тий Xj 6 Ху из G . Тогда Xj называется элементарным событием, а G = {XJ- множеством элементарных событий (или пространст- вом выборок). Каждое множество элементарных событий Хк из G соответствует некоторому событию Ак из множества А . В частности, само G соответствует достоверному событию, а пустое множество из G — невозможному событию. 14
Пусть Л],т42,...,Лл — последовательность попарно несовместных событий, образующих полную группу, т.е. At о А2 и....иАп = / . Тогда из (1.1) для каждой пары событий А,, В имеет место формула Байеса . 1»1-f(4^) f(4)f(g|4) И| Р(г) ’ZP(4)P(«|4)' i Случайная величина (СВ) есть любая переменная х, значения кото- рой Те X образуют множество элементарных событий, или, другими словами, обозначают точки в пространстве выборок. В дальнейшем будем полагать, что все рассматриваемые случайные величины заданы на интервале (-00,00). 1.3. Вероятностное описание случайных величин Если СВ X принимает конечное (или счетное) число значений {.г,}, i = 1, N, то она называется дискретной, и ее вероятностное описа- ние задается соответствующими вероятностями {/* = Р(Х = х,)}, i = 1, N, совокупность которых называют законом распределения веро- N ятностей. Очевидно, что У. /}• = 1. 1=1 Если область возможных значений СВ непрерывна, то говорят о не- прерывной СВ, для которой аналогом закона распределения вероятно- стей является функция распределения F% (х) = F (х) = Р(Х < х). Другим определением непрерывной СВ может быть следующее: действительная случайная величина X называется непрерывной, если ее функция распределения F(x) непрерывна по х и имеет кусочно- непрерывную производную, которая называется плотностью распреде- ления вероятностей случайной вечичины (кратко — плотностью веро- ятности (ПВ)) Из определения (1.2) следует 15
X Р(Х < х) = F(x) = J p(v)Jv, Хэ 00 P(X] <X <x2) = F(x2)-F(x,) = [ p(v)dv, J /?(v)Jv = F(oo) = l. x, •— Иногда вместо плотности вероятности СВ удобнее использовать ха- рактеристическую функцию, под которой понимают математическое ожидание случайной величины Y - или, что то же самое, преобра- зование Фурье от ПВ Ф(_)д) = м[е^х]= J ejdvp(v)Jv. (1.3) Обратное преобразование Фурье дает Числовые характеристики плотности вероятности. Матема- тическим ожиданием (МО) функции <р(Л') от дискретной или непре- рывной случайной величины X называют Л/[<р(Х)] = ^<р(х|)Р(х|) , X — дискретная СВ, i J <p(v)p(v)</v, X - непрерывная СВ. Существуют различные числовые характеристики плотности веро- ятности. Наиболее часто используются моменты. Моментом порядка к случайной величины X относительно числа Р называется МО Л/[(Х-Р)*]= / (х-Р)*р(х)Л. Начальным моментом (или просто моментом) порядка к называют м[х*]. Центральный момент порядка к — это момент порядка к относи- тельно центра распределения тх = М [X], т.е. М (X - тх )к 16
Второй центральный момент — ^х') j называют дисперсией D% Дисперсия характеризует концентрацию ПВ р(х) в окрестности МО тх = М [ЛГ] • Используя неравенство Чебышева, можно записать Р(|л-т%|>£)<о/е2, где е > 0 — произвольное положительное число. Таким образом, дисперсия характеризует меру рассеяния (разброса) значений СВ относительно математического ожидания. Примеры распределений и плотностей вероятностей случайных величин. Пример 1. Равномерное распределение (рис. 1.1): р(х)=1/((?-а), хе (a,bi). (1.4) Среднее значение, второй момент и дисперсия равномерного рас- пределения равны "’Х = ЛФ] = |(а + ^). Л/р2] = -^р2 + Z>2 + а(>] , ^=Л/[(х-^)2] = ^(6-а)2. Равномерное распределение используется в радиотехнике, напри- мер, для описания случайной фазы сигнала, принимающей значения на интервале [-л, тс]. Рис. 1.1. График ПВ равномерного распределения Пример 2. Нормальное (гауссовское) распределение (рис. 1.2) / Их) = -/г=^=ехР 7^57 [ [х~тХ )2 2£>х где тх = М [х] — среднее значение; Dx — дисперсия. Момент 2-го порядка определяется выражением УК
М [х2 j = Dx + тх2 Гауссовское распределение широко используется в радио- технике, например, для описа- ния флуктуационных явлений в аппаратуре. ПримерЗ. Хи-квадрат распределение (рис. 1.3). Рис. 1.2. График ПВ нормального Пусть X;, i = l,n — сово- распределения купность независимых гаус- совских случайных величин, имеющих нулевые МО и одинаковые дис- персии о2 . Рассмотрим случайную величину п > Y=^X2. (1.5) (=1 Распределение случайной величины Y называют хи-квадрат рас- пределением с п степенями свободы. Плотность вероятности такого распределения описывается формулой Р W =-------1 /1 ’ у - 0 ’ ол2"/2Г -п I2 J где Г(<у) — гамма-функция, определяемая как Г(<?)= Jv9-1e-v</v , при q>d, (1.6) О Г (<?) = (#-!) !,при рОи q - целое число , о г г(3) 1 г Например: Г — = ул , Г — =—ул. I2 J 12 J 2 На рис. 1.3 приведены графики ПВ хи-квадрат распределения для некоторых значений п при о - 1. Случай, когда л = 2, определяет экспоненциальное распределение. Первые два начальных момента и дисперсия хи-квадрат распре- деления соответственно равны 18
mY =M[Y] = no2, Л/[у2] = 2п<14 + n2a4, D = 2ло4. Если случайные вели- чины Xt, i = l,n имеют ненулевые математические ожидания тх , то распреде- ление случайной величины Рис. 1.3. График ПВ хи-квадрат Y, определяемой (1.13), распределения называется нецентральным хи-квадрат распределением, а соответст- вующая ПВ имеет вид 1 -(y+mjA/la2 , Р1У) = ~г=г~е ch у , У^О, ( у]2пуо cr J где ch(z) = (е’ + е-2 —гиперболический косинус. Первые два начальных момента и дисперсия ПВ (1.7) равны mY - М [К] = пег2 + nnix, М[у2]= 2па4 + 4о2пп1д< + (по2 + птх Dy = 2по4 +4с2л7п^ . Хи-квадрат распределение с двумя степенями свободы описывает, например, распределение квадрата огибающей (или мощности) радио- сигнала. П р и м е р 4. Рэлеевское распределение (рис. 1.4) Рассмотрим частный случай (1.5), а именно Y = X2 +Х%, где Xj, 1 = 1,2 — независимые гауссовские случайные величины, имеющие нулевые МО и одинаковые дисперсии о2. Определим новую случай- ную величину Z = y/Y =у[х^+Х^. (1.8) Данная случайная величина имеет рэлеевское распределение с ПВ 19
/Ч-’) = Ле ^2°2 > z>0. о" На рис. 1.4 приведен график рэлеевской ПВ при 0 = 1. Первые моменты и дис- персия рэлеевской ПВ равны , (1-Ю) A/[z2] = 2o2, nz=(2-n/2)o2. В общем случае рассматри- вается СВ Z = л/У , где СВ У Рис. 1.4. График ПВ рэлеевского распределения определена в соответствии с (1.5). При этом ПВ СВ Z определяется выражением 2) =-------z>0. 2(л Для момента к -го порядка данной ПВ а дисперсия распределения Dz =A/[z2]-ot|. П р и м е р 5. Распределение Райса (рис. 1.5) Данное распределение является обобщением рэлеевского распреде- ления на случай, когда случайные величины Xt, 1 = 1,2 в (1.5) имеют ненулевые математические ожидания тх , в общем случае неравные. Плотность вероятности для распределения Райса определяется в виде 20
p(z) 2 2 2 5 + ТИ_у2 > 2>0, где Zq(v) — модифицированная функция Бесселя нулевого порядка, которую можно представить рядом v>0. На рис. 1.5 приведены ПВ распределения Райса при о = 1 и 5 = 1; 4. Распределение Райса мож- но обобщить, если СВ Y оп- ределяется в соответствии с (1.5), а СВ Z = VF . Плотность вероятности в этом случае определяется соотношением Рис. 1.5. Графики ПВ распределения Райса p(z) = *п/2 ^п~2У2 s2 = tm2x /=1 (1.11) z > 0, где /a(v) — модифицированная функция Бесселя порядка а, которая представляется рядом (v/2)a+2' А ' .—v>0. Распределения Рэлея и Райса часто используют для описания ам- плитудных флуктуаций радиосигнала, в том числе в многолучевых ка- налах распространения радиосигнала. Преобразование случайных величин и их плотностей вероятно- стей. При рассмотрении примеров различных распределений и соот- ветствующих им ПВ уже использовались функциональные преобразо- вания СВ, например (1.5), (1.7). Рассмотрим общий случай. Пусть СВ X с заданной плотностью вероятности рх (х) подвергается функцио- 21
нальному преобразованию У = /(А"), где /(*) — однозначная детер- минированная функция. Найдем ПВ ру (у) СВ Y. Поскольку преобразование СВ детерминированное и однозначное, то из того факта, что значение СВ X заключено в интервале [x,x + tfr], следует, что значение СВ Y будет находится в интервале [/(x),/(x+dx)] = [y,y+tZy], где dy = f'{x)dx. Положим, что сущест- вует однозначная функция /г(*) =/-1 (*). Тогда можно утверждать, что вероятности указанных двух событий равны. Поэтому запишем Py(y)dy = px (x)dx ИЛИ Py (у) = Рх (*)|‘&М'| = Рх (й(у))|й'(т)| • О !2) Если функция й(*) = /-1(*) — неоднозначная (например, дву- значная), тогда одному значению у соответствует два значения X] = Л] (у) и х2 = Л2 (у). При этом выполнению события у < Y < y + dy (1-13) соответствует два несовместных события X] < X < X; + с/х] и х2 < X < х2 + dx-i. (1.14) Следовательно, вероятность события (1.12) равна сумме вероятно- стей событий (1.14), т.е. ру (y)dy = р% (л) )*&) + Рх (х2 )^2 > 41,0 приво- дит к следующей форме преобразования ПВ: Py (у) = Рх (й1 (у))|й]'(у)|+ Рх (йг (У))|Й2 (у)| • ’ (И5) Обобщение на более сложные случаи (многозначные функции h (*) = /-1 (*)) проводится аналогично. 1.4. Многомерные случайные величины Пусть имеется совокупность случайных величин X,, i = l,n. Если нас интересует вся совокупность в целом, то удобно ввести понятие векторной случайной величины Х = {ЛГ1,А'2, ... ,А"Л}. По аналогии с обычной СВ, векторная случайная величина (ВСВ) описывается вероят- 22
ностями {/} = Р(Х = х,)}, i = \,N, если множество возможных значе- ний всех СВ Xj конечно (или счетно), или функцией распределения Рх(х) = Р{х)^Р(Х1<х{,Х2<х2, ... <Х„<х„), (1.16) если множество возможных значений СВ непрерывно. В первом случае говорят о дискретной векторной СВ, а во втором — о непрерывной ВСВ. Для непрерывной ВСВ вводится ПВ Р(х] <Xi <xj+Дх], ... ,хл <х„+Лхп) dnF(x) р (х) = пт -------------------------------------------=---------------— . Дх]-»о Ах| ...Дхл Эх1 ... охл Дт2~>0 Дх„-»0 (1-17) Функция распределения (1.16) обладает следующими свойствами: 1) Fx (х) —> 0, когда хотя бы одна из компонент вектора х стре- миться к -ос и (х) —> 1, когда все компоненты вектора х стремятся к +оо; 2) Fx (х) — неубывающая и непрерывная слева функция по каж- дой из компонент вектора х ; 3) /=х (х1,...,х,_1,~,х/+1.х„) = Fx (х,,х,_( ,х/+1,...,х„ ). Плотность вероятности (1.17) удовлетворяет следующим условиям: 1) 2) J ... J p(x1,...,x„)dx1...<&„ =1; 3) р(х1,...,хл) симметрична относительно любых перестановок ар- гументов х,; 4) при любом т < п выполняется равенство p(xb...,xw) = J ... f р(х1,...,хл1,хл1+1,...,хл )t/rm+i...(Zrn . (1.18) Свойство (4) называется условием согласованности ПВ. Оно пока- зывает, что из п -мерной ПВ всегда можно получить любую ПВ мень- шей размерности. 23
Характеристическая функция случайного вектора Х = {Х„Х2,...,ХЛ} , по аналогии с (1.3) вводится формулой р(х)Л. (119) Обратное преобразование Фурье имеет вид Р(х) = -Ц- J®(j0)e-jeT’d0. (2л)" Д Характеристическая функция обладает следующими свойствами: 1) Ф()0) — непрерывна и симметрична относительно своих аргу- ментов; 2)|ф()0)|<1, Ф(0) = 1; 3)Ф0д1,..„)0т) = Ф0д1,...,]0и,О,...,О); 4) если СВ Х,, i = 1,л — независимые, то Ф(]61,-,Ш = ПФ()’М- <=1 При работе с ВСВ наиболее часто приходится сталкиваться с ситуа- цией, когда компоненты Xj, i = 1, п являются гауссовскими СВ с МО tnL, дисперсиями of и взаимными дисперсиями а,у . Как и выше, вве- дем векторную СВ X = {Xj,X2, ...,Х„}, МО которой обозначим как шх. Определим корреляционную матрицу данной ВСВ как Rx=A/[(X-mx)(X-mx)T]. Совместная ПВ гауссовских случайных величин дается формулой Р =-------TiTT------й/2ехр 1 -mx)TBx(*-mx)L (2л)"/2 (det(Rx))/2 I 2 J Характеристическая функция, соответствующая этой п -мерной ПВ и вычисленная по (1.19), равна Ф()0) = ехр^ jmx0“0TRx0>. 24
Разложив экспоненту в правой части (1.19) в ряд Маклорена и взяв затем МО от каждого члена ряда, получаем Ф()6) = Л/ i+j£x,A+|j2 i J=i i,*=i = l+jZA/k]ty+|j2 Z . 1=1 2 i,*=l Таким образом, коэффициенты разложения характеристической функции в ряд Маклорена определяются через начальные моменты со- ответствующей ПВ. Коэффициенты разложения логарифма характеристической функ- ции в ряд Маклорена называются кумулянтами (или корреляционными функциями). Поскольку моменты и кумулянты получаются в результате разложения характеристической функции или ее логарифма, то можно найти выражения, связывающие эти характеристики. При нелинейном преобразовании многомерной СВ с компонентами Xj, i = 1, п i;=Z(^^2,...,^),i = u 0-20) совместная ПВ рх (х],х2,...,хл )преобразуется аналогично тому, как это было в случае скалярных СВ (1.12). Положим, что для системы уравне- ний (1.20) существуют однозначные обратные функции Х^ЛДУ],^,...,^), 1 = й. (1.21) Тогда совместная ПВ определяется формулой Py (л>У2>-^л) = = РЛ'(Л1(Л.№,->УЛ),-,ЛЛ(У],U-22) ЭЛ] Эу] ЭЛ] Эул где Л(У1,У2.->>'Л) = dh„ (1.23) ЭЛ„ — якобиан преобразования переменных. 25
Если обратные функции (1.21) неоднозначны, то в правой части (1.22) следует брать сумму по каждой из однозначных областей, как это было сделано в (1.15). 1.5. Условные функции распределения и плотности вероятности случайных величин В статистической теории радиосистем широко используются услов- ные функции распределения. Пусть имеем СВ X и некоторое событие А. Условной функцией распределения Е’(х|Л) называется условная вероятность выполнения неравенства X < х при условии осуществле- ния события А , т.е. £(х|л) = Р(Х < х|л) = Р(Х < х,А)/Р(А). (1.24) Условная ПВ определяется выражением . Р(х< X < х + Дх|л) tZFfxl/l) p(xU)=lim —i---------------— =—L_!_2. (1.25) V 1 ’ Ax->0 Ax dx Если в качестве события А определить факт принятия другой СВ У значения у , то (1.24) принимает вид о-ад р(у) Если СВ X и У независимы, то из (1.26) получаем р{х,у) = р(х)р(у). (1.27) Эта формула выражает необходимое и достаточное условие незави- симости двух СВ. Приведенные выше соотношения естественным образом обобщают- ся на случай ВСВ, если в (1.24)-(1.27) вместо скаляров подставить соот- ветствующие вектора. Для ВСВ полезным оказывается еще ряд свойств и определений. Положим, что в совокупности случайных величин X,, / = 1,л определены вектора Х = {АГЛ}, ¥ = {.¥], ... ,А'Л_|}. Тогда (1.26) преобразуется к виду р (х„ |х,,..., хп_|) р (xj.Х„_] ) = р (х,, ...,х„). Повторив последовательно данную процедуру для р(х1,...,хл_1), р(х] ,...,хл_2) и т.д., получим такое выражение: 26
п-2 Р(*Ъ-,Хп ) = p(xt ) П p(*n-i ^b-^n-i-l ) • i=0 Используя свойство согласованности ПВ (1.18), можно получить сле- дующие правила «исключения» отдельных аргументов в условной ПВ: 1) исключение левого аргумента в условной ПВ р(х| ,х2 |х3, х4) оп- ределяется формулой /»(х1|х3,х4) = J р(х1,х2|х3,х4)Л2 ; 2) исключение правого аргумента в условной ВП р(х},х2 |х3,х4) определяется как p(xbx2|x4) = f p(x1,x2,x3|x4)dx3 = = J P(x\,x2\x3,x4)p(x3\x4)dx3 . (1.28) Частным случаем (1.28) является формула Р(Ч |*з) = J р(ч|*2,*з)р(л2|*з)^2 , которая широко используется в теории марковских процессов. Случайные величины X,, i = l,n называют взаимно независимыми, если события X,<xt, i = l,n независимы при любых значениях х,, i = 1, п . Для взаимно независимых СВ справедливы формулы п п F(xi,..„х„ ) = J] F (х,), р (xi,...,х„ ) = J] р(х,). 1=1 1=1 Если случайные величины , i = 1,л взаимно независимы, то они и попарно независимы. 1.6. Случайные процессы Наряду со случайной величиной, определенной как единичное (ра- зовое) событие или явление, для описания событий, развивающихся во времени, вводят понятие случайного процесса (СП). Случайный процесс 27
можно определить как случайную функцию X(t) от независимой пе- ременной t. Термин «случайная функция» характеризует тот факт, что при каждом фиксированном t значение функции X (z) есть случайная величина. Каждое испытание (опыт) дает вполне определенную функ- цию x(z), которая называется реализацией СП или выборочной функци- ей. Случайный процесс можно рассматривать как совокупность реали- заций (x(z)}. Другая трактовка СП — совокупность случайных вели- чин, зависящих от времени z. Из нее следует, что для вероятностного описания СП должны быть заданы распределения вероятностей систем случайных величин А"] = Х(/}), Х2=Х [t2),.... Случайный процесс называют дискретным или непрерывным, если дискретно или непрерывно распределение случайных величин Х} = X(ty), Х2 = X(t2),.... Значение х; случайной величины Xt = X (z,) в момент времени Z, называется выборочным значением. Случайный процесс называется случайной последовательностью (процессом с дискретным временем), если независимая переменная Z может принимать лишь счетное число значений. Рассмотрим для определенности непрерывную случайную последо- вательность X(tj), / = 1,2,.... Для описания такой последовательности надо задать распределение случайной величины x(z,) и распределения систем случайных величин [Ar(Z|),A'(z2)], [A'(Zi),.¥(Z2),Ar(r3)], ... для каждого конечного множества значений t\,t2,ti,.... Для вероятност- ного описания таких систем СВ можно использовать определения (1.16) для функций распределения и (1.17) для ПВ, которые обладают соответствующими свойствами. Так, например, для непрерывной случайной последовательности необходимо задать совокупность ПВ P(*b'l)> P(x\>t\W2 ). /’(^I.Z1;x2,z2pc3,Z3 ) ит.д. Если /(x(Z[),x(z2),...,x(zn)) —некоторая функция от п выбороч- ных значений xt = x(Z] ),х2 = x(z2),...,х„ = x(z„), то формула = /•••/ /(x1,x2,...,xn)p(x1,z1;x2,z2;...,x„,z„)<£r1iZx2,...,dx„ 28
определяет среднее по ансамблю реализаций (множеству наблюдений), если интеграл сходится абсолютно. На практике наиболее часто используют М [x(f])] — среднее зна- чение; — средний квадрат, Л/ (х^-Лф-^)])2 дисперсию, Л/[х(Г] )x(f2)J — корреляционную функцию. Раздел тео- рии случайных процессов, посвященный изучению лишь тех их свойств, которые определяются указанными выше характеристиками, называется корреляционной теорией. Эта теория дает полное описание одного очень важного класса случайных процессов — гауссовских. Для СП условные функции распределения и условные ПВ вводятся аналогично тому, как это сделано в п. 1.5. Например, можно записать p(x1,Z1;x2,f2) = p(x2,/2)p(x1,r1|x2,/2). Для совместного вероятностного описания двух (или нескольких) СП вводят совместные функции распределения и совместные плотно- сти вероятности. Например, для совместной ПВ имеем p(x!,q; ... ,xm,tm-,yx,t\-, ... \yn,tn^. (1.29) Два СП X(t) и Y(t) называются независимыми, если совокупность значений первого процесса X(t}), X ), ..., X(/„) не зависит от сово- купности значений второго процесса j, Y(z2 j, ... ,y(rn) при любых rl>f2>->6n и rl>r2’->zn • Необходимым и достаточным условием того, что два процесса не- зависимы, является то, что совместная ПВ (1.29) равна произведению ПВ каждого из процессов, т.е. p(xi,Z]; ... ,хт,1т;у},([; ...;yn,tn) = = p(xi,t}; ... ,xm,tm)p[yi,tl; ... ;y„,t'„y (1.30) Для случайных процессов можно ввести условные функции распре- деления и условные плотности вероятности p(xi,/i; ... ,xm,zOT;y],/;; ... ;y„,in] = = p(xl,t{-, ... ,хт,1т)р(у{,1{; ... ^„.zjx,,/!; ... ,xm,Zm). (1.31) 29
Для независимых СП (1.31) переходит в (1.30). Наряду с ПВ, для описания случайного процесса могут быть ис- пользованы характеристические функции (1.19). Стационарные и нестационарные процессы. Случайный процесс А" (/) называется стационарным в узком (строгом) смысле, если все конечномерные функции распределения вероятностей (и плотности ве- роятности) любого порядка инвариантны относительно сдвига по вре- мени, т.е. р(х1,?1-?0;х2Д2-?(ь - >Vn-'o) =p(x},ti;x2,t2-, ...,xm,tm). При решении ряда технических задач многомерные ПВ не рассмат- ривают, а оперируют только МО и корреляционными функциями (кор- реляционная теория). В связи с этим вводят понятие стационарности в широком смысле. Случайный процесс 2Г (?) с конечной дисперсией называется ста- ционарным в широком смысле, если его МО и корреляционная функция инвариантны относительно сдвига по оси времени. Из этого определе- ния следует, что для таких процессов тх - const, Rx(h ^2) = Лх(г2 _,1)- Два стационарных случайных процесса X(t) и У(?) называются стационарно связанными в широком смысле, если их взаимная корреля- ционная функция инвариантна относительно сдвига по времени rxy (Л > 12 ) - м 01)(f2 )] = = М[^(г1)У(?1+т)] = 7гЛУ (?2-?,). (1.32) Заметим, что, если каждый из процессов ЛГ(?) и Y(?) является ста- ционарным в широком смысле, то это вовсе не означает, что они явля- ются стационарно связанными в широком смысле. Корреляционная функция случайного процесса. Ввиду важности корреляционных функций (КФ) стационарных процессов при иссле- довании радиотехнических систем, приведем некоторые их свойства. 1. Абсолютное значение КФ при любом т = ?2 - ?] не превышает ее значения при т = 0, т.е. Rx (т) < Rx (0) = Dx . 30
2. Корреляционная функция вещественного стационарного процесса % (г) является четной функцией своего аргумента, т.е. = Rx (“'О • 3. Взаимная КФ двух вещественных СП A'(z) и К(г) обладает свойством: R^y (т) = Ryx (-т) • 4. Если КФ непрерывна при т = 0, то она непрерывна при всех дру- гих значениях т. 5. Для многих стационарных СП выполняется условие lim Rx (т) = 0. 6. Преобразование Фурье от КФ есть неотрицательная функция, ко- торую принято называть спектральной плотностью случайного процесса Sx^)=l (1.33) Обратное преобразование Фурье от спектральной плотности СП да- ет корреляционную функцию (1.34) 27t На практике бывает удобно пользоваться нормированной КФ которая при т = 0 принимает значение гх (0) = 1. Для упрощенного описания нормированной КФ часто указывают лишь интервал тк , при котором два значения СП A'(z) и Ar(f±xK) в среднем имеют заметную корреляцию. В качестве определения тк можно принять । оо оо о Геометрически тк равно основанию прямоугольника с высотой 1, имеющего ту же площадь, что и площадь между кривой гх (т) и осью абсцисс. 31
Спектральная плотность случайного процесса. Спектральная плотность СП определяется в соответствии с (1.33) как преобразование Фурье от КФ. Полагая в (1.34) т = 0, получаем Я%(О) = ЯХ = J Sx(p)df, (1.36) где со = 2 л/. Следовательно, дисперсия стационарного СП равна интегралу от спектральной плотности. Так как корреляционная функция СП четная относительно аргумен- та т, то из (1.33) следует, что спектральная плотность Sx (со) — четная функция относительно своего аргумента. Из определений (1.33), (1.34) и свойства четности функций Rx (т) и Sx (со) следует оо $х(со) = J Rx (т)(cos(сот)-jsin(cOT))Jx = = J Rx (t)cos(cot)Jt = 2\RX (t)cos(cot)Jt, (1-37) о Лх(т) = 2рх(2л/)со8(2л/т)#. (1.38) о Спектральная плотность Sx (co) определена на положительных и отрицательных частотах, т.е. является некоторой «математической» конструкцией. В отличие от такого двустороннего спектра введем одно- стороннюю («физическую») спектральную плотность Nx (со) = = 2SX (со). При этом выражения (1.37), (1.38) принимают вид Nx (co) = 4j/?A- (t)cos(27c/t)Jt, />0, о Ях(т)= J^(/)cos(2^t)c//, />0. (1.39) О В радиотехнике «протяженность» спектральной плотности по оси частот часто характеризуют термином ширина спектра или эффектив- ная ширина спектра. Ширину спектра Д/ можно определять по- разному, например, 32
^ = ~-----------, Sx (Wo) где /о — некоторая характерная частота. Иногда в качестве Д/ выбирают ширину Д/"о 5 спектральной плот- ности на уровне 0,5Nx (/о) • По параметру «ширина спектра» среди всех СП выделяют узкопо- лосные. Узкополосным называется СП, спектральная плотность которо- го сконцентрирована в узкой полосе частот /у около частоты /о » Д/. Если данное условие не выполняется, то процесс не * м является узкополосным. Л'о -----------— ; Рассмотрим СП, спектраль- j_______ ная плотность которого приве- j 1 дена на рис. 1.6 и рассчитаем Рис. 1.6. Спектральная плотность СП КФ такого СП , „ 7 , . , , sinfrtaft) я(т)= J W(/)cos(2n/T)# = NQbf----——-cos(2y0T) = 0 7СД/ Т sin(7CzV*T) . ч = £>х----—^cos(27cf0T), лД/т где Dx = N0Af — дисперсия (мощность) СП (1.36). Эргодические и неэргодические стационарные процессы. Для неко- торых стационарных процессов рассмотренные выше статистические характеристики (МО, моментные функции, КФ и др.), полученные в ре- зультате усреднения по большому числу реализаций, могут быть найдены путем усреднения соответствующих величин по одной реализации боль- шой длительности. Стационарные случайные процессы, для которых это обстоятельство справедливо, называют эргодическими: 1 Т „ ! т 2 «х= Hm-Jx(/)A, Dx = lim-J(x(/)-mx) dt, Г->оо 1 Q /—>«• 1 Q 1 т Rx{y)= Нт -/(х(/ + т)-т^)(х(/)-тх)<*. 0 2—2041 33
1.7. Гауссовские случайные процессы Как отмечалось выше, для вероятностного описания СП необходи- мо использовать совокупность соответствующих ПВ. Рассмотрим слу- чайную последовательность X^t,}, i = l,2,..., развивающуюся во вре- мени. В момент времени имеем СВ ), для вероятностного опи- сания которой необходимо задать ПВ В момент времени t2 для описания всего СП, т.е. совокупности СВ X(/[), X(t2), следует задавать совокупность трех ПВ— р(*1Д1). р(х2^2^ р(хь,ьл2’/2 ) В следующий момент времени полное вероятностное описание зада- ется системой ПВ р(х2,12), p(xy,ty), p(xl,tl,x2,t2 ), p(x\J\',x3^3 )> Р(х2>{2’х3’13 )» р(х1^х2^2>хзА ) Для последую- щих моментов времени вероятностное описание СП будет все более и более сложным. На практике использовать такую математическую кон- струкция неудобно. Поэтому целесообразно найти СП, для вероятност- ного описания которых в любой момент времени г, требуется ограни- ченное число ПВ, например, одномерной р(х],/]) и/или двумерной p(x],t],x2,t2 ) Простейшим примером такой СП является случайная последовательность X(tj), z = l,2,... с независимыми значениями X (tj), для которой можно записать p(xi,tl;x2,i2; -;xn,t„ ) = ripU<.^)- i=l Такая СП задается совокупностью одномерных ПВ p(xj,tj), а для стационарной СП требуется задание одной ПВ р (х, t). Другим классом СП, для описания которых необходимо задавать ограниченное число ПВ, являются гауссовские случайные последова- тельности (ГСП), для которых ПВ любой конечной совокупности СВ X(tj), / = 1,2,...,л в произвольные моменты времени Г|,г2,...,?л имеет совместную гауссовскую (нормальную) ПВ ₽(’)-----; exp|-|(t-MrxnTR-r'(»-M|Xbl, <1.40) (2Ж)%7МКИ I 2 1 34
где х = |х,л2 ...хл|т, RX=M (x-Af[Х])(х-Л/[Х]) — корреляци- онная матрица, элемент которой определяется как А,у =A/^(x(r, )-mz.)(x(/y)-w1Xy )], (1.41) здесь тх. = М [X (/,)]. Для гауссовского процесса характеристическая функция записыва- ется в виде T(j0) = exp{jm1A-0-eTRxe/2} = = ехр' j У znvdv У X v=l 2v=lp=l (1.42) Определения, приведенные для ГСП, остаются справедливыми и для гауссовского случайного процесса, поэтому в дальнейшем для про- стоты будут рассматриваться только ГСП. Свойства гауссовских случайных последовательностей. 1. ГСП 1 = 1,2,... полностью определяется заданием МО Л/[Х(г,)] и КФ Ях(г„Г?) (см.(1.40Н1.42)). 2. Для ГСП некоррелированность значений последовательности, т.е. выполнение условия Rx тождественна их независимости. Действительно, рассмотрим p(xl,tl;x2,t2-, ,хп,1п) Так как Лд- , tj ) = 0 для любых tj Ф tj, то матрица R х будет диагональной. Таким образом, соотношение (1.40) можно записать в виде PM =------,/Т -'ехР “уX------------------ (2ny2^DiD2..J)n 2'=1 п = ПНХ, л), 1=1 где Dj = Яц — дисперсия СВ А",. 35
Справедливо и обратное утверждение: если значения ГСП незави- симы, то они и некоррелированы. 3. Для ГСП понятие стационарности в широком и узком смысле совпадают. 4. Условные ПВ значений совместно гауссовских последовательно- стей X (j,) и У (/;) или значений одной ГСП являются также гауссов- скими. Это следует из формулы р(хк)=р(.х’У)/р(у) • О-43) Пусть имеем два вектора: X — п -мерный, Y — т -мерный. Тогда (1.43) принимает вид ^(X|Y) = p(X,Y)/p(Y). (1.44) 5. При линейных преобразованиях ГСП свойство «гауссовости» со- храняется. Если на вход линейной системы с импульсной характеристи- кой воздействует ГСП X(/,), то при выполнении надлежащих к условий интегрируемости процесс У (fy) = X ) X ([i ) > получаю- 1=1 щийся на выходе системы, будет также гауссовским. Справедливо и обратное утверждение: если каждый линейный функционал от Х(/( ) есть ГСП У (tk ), то X (/,•) также является ГСП. Это важное свойство часто принимается за исходное определение гауссовской последова- тельности A'(Zi). 6. При нелинейных преобразованиях свойство гауссовости утрачи- вается. Если ГСП X(ti) подвергается нелинейному преобразованию, например, вида У(г() = / (г,, Л" (г;)), где /(•) - нелинейная функция относительно X, то последовательность У(/,) будет негауссовской. Однако, если негауссовская случайная последовательность с интерва- лом корреляции тк воздействует на инерционную линейную систему (с постоянной времени тс»тк ), то процесс на выходе такой системы приближается к гауссовскому (ПВ стремится к нормальной). Это при- ближение тем лучше, чем сильнее выполняется неравенство тс » тк . 7. С помощью линейного преобразования коррелированные значе- ния ГСП можно привести к некоррелированным. Заметим, что, если корреляционная матрица диагональная, то совместно гауссовские 36
СВ - некоррелированные. Поэтому линейное преобразование, в резуль- тате которого корреляционная матрица для преобразованных величин будет диагональной, приводит к совместно гауссовским некоррели- рованным величинам. Методика приведения матрицы к диагональной форме с помощью линейного преобразования известна. 8. Гауссовские случанйные последовательности с дробно-рацио- нальной спектральной плотностью являются одновременно марков- скими (марковские случайные порследовательности будут более под- робно описаны в п. 1.8). 9. При заданной дисперсии (средней мощности) ГСП обладает мак- симальной энтропией, т.е. максимальной степенью неопределенности. Гауссовские случайные последовательности наиболее часто встре- чаются на практике, поэтому занимают особое место среди других слу- чайных последовательностей. Большинство встречающихся на практике электрических явлений, таких, например, как дробовой шум, тепловые флюктуации, собственный шум типового радиоприемника до детектора, атмосферные и космические шумы, представляют собой суммарный эф- фект большого числа сравнительно слабых элементарных импульсов, возникающих в случайные моменты времени. Согласно центральной предельной теореме теории вероятностей плотность вероятности суммы СВ неограниченно приближается к нормальной с увеличением числа слагаемых, независимо от того, какие ПВ имеют отдельные слагаемые. При этом важно лишь, чтобы влияние отдельных слагаемых на сумму было равномерно малым (приблизительно одинаковым). Белый гауссовский шум. В дальнейшем будет часто использоваться идеализированный случайный процесс — белый гауссовский шум (БГШ). Приведем его определение и укажем специфические свойства. Под БГШ w(z) понимается стационарный гауссовский СП с нуле- вым МО и дельтаобразной корреляционной функцией: /?(т) = 1И[л(/)л(г+т)] = ^-5(т), (1.45) где Nq — односторонняя спектральная плотность. Преобразование Фурье от (1.45) дает равномерную спектральную плотность Sn(f) = Nq/2 для всех частот -°°< f <°°. Такой процесс имеет бесконечную дисперсию (мощность), поэтому является физически нереализуемым, т.е. некоторой математической моделью. Однако такая математическая модель оказывается очень удобной и широко использу- ется в статистической теории радиосистем. 37
Модель белого шума может быть получена из модели случайного процесса, имеющего равномерную спектральную плотность в некоторой полосе частот (рис. 1.6) и, следовательно, конечную дисперсию. Введем для спектральной плотности (рис. 1.6) /min=/o_A/72 и /max = = /0 + Af/2 . Корреляционная функция для такого процесса, в соответст- вии с (1.39), описывается выражением Л(т) = “Y No cos(2jt/t)# , f > 0. (1.46) fmin Используя представление cos и введя в (1.46) условия /min -> 0, -> оо , получаем Я(т) = ।(eW4e-)df = J е^тdf = ^8(т). o' 2 С другой стороны, условия /min —> 0, /щах -> °° соответствуют тому, что полосовая спектральная плотность (рис. 1.6) переходит в рав- номерную с физическим уровнем Nq для положительных частот f > 0. Поэтому, оперируя в дальнейшем в статистической теории радиосистем с белым шумом, определенным в соответствии с (1.45) и имеющим рав- номерную двустороннюю спектральную плотность N0/2, необходимо помнить, что Nq — уровень спектральной плотности физического шу- ма, определенного лишь для положительных частот. Наряду с БГШ, определенным как случайный процесс, можно рас- сматривать белую гауссовскую последовательность, которую часто на- зывают дискретным белым гауссовским шумом (ДБГШ). Последний термин, строго говоря, противоречит определениям, данным в п. 1.7, где термин «дискретный» характеризует тот факт, что СП в каждый фикси- рованный момент времени может принимать лишь конечное (счетное) число значений. Когда говорят о ДБГШ, то имеют в виду, что дискрет- ны моменты времени, а значения процесса в каждый момент времени принимают значения в некоторой непрерывной области. Тем не менее, в учебной и научной литературе термин «дискретный белый гауссовский шум» устоялся, поэтому в дальнейшем он и будет использоваться. Для ДБГШ КФ задается в виде Лу =A/[n(f,)n(r7)J = CT^5,7, 38
где 5,у = 1, О, J' — дисперсия процесса. i * J, Мгновенные значения ДБГШ, т.е. случайные величины п (t(-), име- ют гауссовскую ПВ (1.47) Дискретный белый гауссовский шум и (/,) может быть получен из непрерывного и(г) с помощью его усреднения на интервале Т = tj "(0 = 7 J «0)Л- 1 Очевидно, что среднее значение СВ п ) равно нулю, а дисперсия =ТТ I J M[n(l)n^)]dtds=-^. (1-48) * 6-i 6-1 27 Возможен и обратный переход от дискретного времени к непрерыв- ному при Т —> 0. Однако здесь возникает некоторая сложность с пред- ставлением (1.47), так как в этом случае а„ —» «>. Для преодоления этой трудности для непрерывного БГШ определяют не ПВ мгновенного зна- чения процесса, а ПВ отрезка реализации, например длительностью Тр, т.е. р(и(/)) =.•>е р,/ + Гр j). Тогда, записав совместную (гаус- совскую) ПВ р(х1,/1;х1,Г2;..;хя,/л) для совокупности дискретных от- счетов и выполнив предельный переход при Т —>0, «—>«>, Тр =пТ = = const, можно получить следующее выражение: 2 t+’I' р(л(<))~ехр< —— J п2 (s)ds . (1.49) Формулу (1.49) можно трактовать как гауссовский закон распреде- ления для отрезка реализации БГШ. Следствия для условных плотностей вероятности. Пусть имеем два гауссовских вектора: X — п -мерный, Y — т -мерный. Для данных векторов можно записать 39
Их) =---ГГ* expJ-|(X-mx)TRx'(X-mx)l, (2к)Л I 2 J p(Y) = ——L=rexp{-l(Y-mY)TRY,(Y-inY)l. (1.50) (2л) ^/det(RY) I 2 J Положим также, что X и Y — совместно гауссовские процессы, т.е. совместная плотность вероятности - гауссовская Р(ХЛ) =----п+т/\ exp(-l(Z-mz)TRz1(Z-mz)l, (1.51) (2л) /2 7det(Rz) I 2 J rxy ry Из свойства (1.44) следует, что условная плотность вероятности p(X|Y) — гауссовская, т.е. можно записать 1 p(X|V) = (2«)^det(Rx|Y) (1.52) Подставляя (1.50)—(1.52) в (1.44) и проделав несложные преобра- зования, можно получить следующие соотношения mX|Y =mx + rxyry' (Y-mY), (1-53) rx|y = Rx ~rxyry1ryx • (1-54) Из (1.53) следует, что условное математическое ожидание nix|Y является линейной функцией от величин, входящих в условие, т.е. от Y. Но условное математическое ожидание, как будет показано далее, является оптимальной оценкой вектора X при квадратичной функции потерь. Отсюда вытекает еще одно следствие. Пусть наблюдаем случайную выборку Х],х2, ... ,х„. Определим X = х,, Y — все остальные наблюдения. Будем интересоваться оценкой х, = М [х, |Y] . Тогда из (1.53) следует, что данная оценка является ли- нейной функцией от остальных наблюдений. 40
Определим теперь вектор X = X-mX|Y . Докажем, что вектор X не зависит от Y, имеет нулевое МО и корреляционную матрицу RX = Rx -RxyRy’Ryx Действительно, подставляя (1.53), получаем М[х] = Л/[х-шх -Rx|YRy (y-mY= 0. Аналогично рассматривается A/^X(Y-mY)T]= М |х-шх-RxyRy (Y-mY)}(Y-mY)Т = = Rx — RxyRyRy Это доказывает некоррелированность рассматриваемых процессов, а, следовательно, и их независимость. 1.8. Марковские случайные процессы 1.8.1. Марковские случайные последовательности Пусть имеем моменты времени /],/2,...,гл,..., для которых опреде- лена последовательность случайных величин Х^ = X(ty),X2 = X(t2), ... ,Хп = X(t„),... . Рассмотрим ПВ p(x\,tl;x2,t2^ивыразимее через условную ПВ p(x1,/1;x2,/2;...;xn,fn) = = р (*« , t„ h х2 <f2; v-i. '«-I) р (*i ; х2 . ‘2; • хл-1Л-1) • Случайная последовательность Х] = х(Г] ),х2 = х(?2), ... , хп =х(г„),... называется марковской, если для любого п условная ПВ р(хл,гл|х1,/1;х2,г2;...;хл_|,/л_1) зависит только от х(?л_]),т.е. р(хл>'л|хь'1;х2^2;-;хл-13л-1)=р(хл^л|хи-1.'л-1)- О-55) Рассмотрим три произвольных момента времени 4-i>4>^+l • На ос- новании (1.55) можно записать р(х1+1Л+1 |х*Л1х*-1»**-1 ) = р(хк+1’1к+1 \xk’lk ) • (1-56) 41
Анализируя (1.56), можно сказать, что, если известно состояние марковской последовательности (МПС) в момент времени tk, то буду- щее МПС (т.е. ее значение при /*+1) не зависит от прошлого состояния МПС (при ). Это характерное свойство МПС часто принимают за определение. Дадим еще одно возможное определение. Рассмотрим Р (х*+1 > r*+i S Л-1 Л-1 Iх* Л ) = = Р (л+1 > 4+1 |х*-1 Л-ь Л Л )р (Л-1 Л-1 Iх* Л ) = = Р (л+1 > 4+1 Iх* > 4) Р (л-1 > 4-1 Iх* > 4) • Данная запись означает, что при фиксированном значении МПС в настоящий момент времени tk будущее (при /Л+1) и прошлое (при tk_x) состояния МПС независимы. Из приведенных определений следует, что для марковских последо- вательностей любая п -мерная ПВ (совокупность которых полностью описывает случайную последовательность) может быть представлена в виде л-1 р (х,, /j; х2,4; •••; л > ln)=р (xi, '1) П р (х«+1 . 4и Iх/ л) • (1 -57) 1=1 Следовательно, описание МПС задается ПВ распределения начально- го значения p(xi,l|) и совокупностью условных ПВ р(Х|+],4+1 |Х(Л), которые называют плотностями вероятности перехода случайной по- следовательности из одного состояния в другое. Для стационарных МПС условная ПВ р (х,+] ,/;+1 |л;-) не зависит от времени, т.е. имеем р(х1+1 |Х1 )• Рассмотрим определение условной ПВ для произвольных случайных векторов X и Y. По определению (1.26) p(X|Y) = p(X,Y)/p(Y). (1.58) Умножим обе части равенства (1.58) на /?(Y) и проинтегрируем по Y. Тогда получаем Jp(x|Y)/,(Y)i/Y = p(X). (1.59) Y 42
Применяя свойство (1.59) к МП, получаем J Р{хп, 1п |х„_|,/„_])р(хл_(,/л_|)dxn_{ =p(x„,tn). (1.60) Зная начальное значение р (xj, t\), переходные ПВ р (х1+1, zl+1 |х;, /,) и используя (1.60), можно вычислить ПВ p(xn,tn) в любой момент вре- мени tn . Таким образом, вместо описания случайной последовательности в виде совокупности ПВ имеем компактное правило (процедуру) (1.57) для вычисления произвольной многомерной ПВ и выражение (1.60) для вычисления одномерной плотности в любой момент времени tn . Формула (1.60) может быть обобщена для условных вероятностей перехода из одного состояния в другое J P(xn^n\xj>‘j)p(xj<tj\xk>tk)dxj • (1-61) —оо Соотношение (1.61) называют уравнением Маркова или уравнением Смолуховского. 1.8.2. Цепи Маркова Пусть случайная последовательность X(tj), i = 1,2,... может прини- мать конечное число К дискретных значений х^\х^2\...,х^\ В дис- кретные моменты времени ti,t2, —>tn,— значение процесса скачкообраз- но изменяется, т.е. имеют место переходы Х| —> х2 —>... —>хп —>..., при- чем х (^ ) = X! — начальное значение. Полагаем также, что заданы веро- ятностные законы изменения СП на каждом шаге из любого состояния х^‘\ i = 1,К в любое другое состояние x^J\ j = 1, К, т.е. известны ус- ловные вероятности перехода p|xj/\r„ xf.U-1 |. Заданное описание случайной последовательности является доста- точно общим. Простой цепью Маркова (ПЦМ) называется случайная последовательность, для которой вероятность значения х^ процесса в момент времени t„ зависит лишь от того, какое значение имел процесс 43
в предшествующий момент времени /„_! и не зависит от значений про- цесса в более ранние моменты времени, т.е. р{х^ 2 лп Кроме ПЦМ можно определить сложную цепь Маркова порядка т, как случайную последовательность, у которой вероятность нового зна- чения зависит от т предыдущих значений pf * I Лп .(') >) Можно показать, что сложная цепь Маркова порядка т с помощью известной методики может быть сведена к ПЦМ, но для /я-мерного векторного процесса. Поэтому в дальнейшем ограничимся рассмотре- нием лишь ПЦМ. Аналогично случайным последовательностям, для ПЦМ справедли- во выражение для совместной вероятности Для полного вероятностного описания ПЦМ необходимо записать алгоритм, в соответствии с которым можно вычислить вероятности тех или иных значений ПЦМ в произвольный момент времени t„ по из- вестным вероятностям значений ПЦМ в другой произвольный (но более ранний) момент времени. Пусть в некоторый момент времени /v заданы вероятности нахож- дения ПЦМ в том или ином состоянии Р(хр) 1 = Pj (5), j = 1,К. Рас- смотрим произвольный момент времени t„ >ts. Пусть известны веро- ятности переходов Р х„ .(-) д» i = \,К, для кото- рых справедливы соотношения К к Zp7(s) = 1, Y*ji(s,n) = \, j = \,K, J=l i=l К n л (*>«)=2л л ('”>«)• /=1 (1-62) 44
Теперь вероятность р, (л) = р(х^ j может быть рассчитана по фор- муле к Pi(n)='Znji(s,n)pj(s). (1.63) 7=1 Приведенные выражения удобно представлять в векторно-матрич- ной форме. Введем вектор Р(л) = |/?] (л) р\ (и) ...рк (л)|т и матрицу jr(j,л) = {лу7 (5, л)} • Тогда формулы (1.62), (1.63) принимают вид р(л) = ЛТ($,л)Р(.у), л(5,л) = л($,л1)я(л1,и). (1.64) Кроме того, для матрицы л(5,л) оказывается справедливым выра- жение n-j-\ n(s,n) = П л(у'+/,у + / + 1), (1.65) i=0 из которого следует, что для определения данной матрицы достаточно знать последовательность матриц одношаговых вероятностей перехода. Среди ПЦМ различают однородные и неоднородные. Однородная цепь Маркова характеризуется тем, что вероятности перехода зависят только от разности аргументов, т.е. л($,л) = л(л -s). Обозначим л(1) = л. Тогда из (1.65) имеем л(л) = л""1, (1.66) а из (1.64), (1.65) получаем Рт (л) = Рт (1)лл-1. Однородная цепь Маркова, для которой вероятности Рт(л) не за- висят от л называется стационарной. 1.83. Марковские процессы Непрерывный случайный процесс А'(/) является марковским (МП), если для любых последовательных моментов времени /0 < <... < t„ условная ПВ p(x„,t„ \xi,tl;x2,t2',-.-',xn-l>tn-\) зависит лишь от послед- него значения хл_] в момент времени t„_^, т.е. 45
P(,xn'ln ) — Р{хп^п |хл-1 >^л—1) • (1-67) Определение (1.67) формально совпадает с определением (1.55) для марковских случайных последовательностей. Справедливыми остаются и другие определения и свойства. В частности: 1) плотность вероятности перехода неотрицательна и нормирована к единице />(x„,r„|x„_Ij„_1)20, J р(хя,/л|хл_1,/л_1)Л:л =1; (1.68) 2) плотность вероятности перехода р(хп ,tn |xn_t,rn_]) переходите 5 -функцию при совпадении рассматриваемых моментов времени, т.е. lim р(х„,гл|хл_1,гл_1) = 5(хл-хл_1); (1.69) '„-4,-1 3) плотность вероятности перехода p(xn,tn |х*,^) удовлетворяет соотношению (1.61); 4) если задана начальная ПВ р(хо,/о) и найдена ПВ перехода р(хя,/л|х*,^) для произвольных xn,t„ и xk,tk, то можно вычислить все другие ПВ, например, двумерная ПВ в произвольный момент вре- мени t > to определяется p(x0,/0;xj) = p(x0,z0)p(x,/|x0,/0); (1.70) 5) интегрирование (1.70) по х0 позволяет получить одномерную ПВ марковского процесса в произвольный момент времени p(x,r)= f p(xo,'o)p(x,z|xo,/o)dro i (I-71) оа 6) если ПВ перехода зависит только от разности временных аргу- ментов т = /-/', то р(х, г|х', /') = р(х, т|х'), (1.72) а МП называется однородным во времени. Из приведенного описания МП следует, что при их описании суще- ственную роль играет ПВ перехода р (х, t |х0, t0), t > t0. Для нее можно получить дифференциальное уравнению в частных производных [12] 46
Z (1-73) ot Я=1 л! Эх где K„(x,t)= lim^^- j [х(/4-Д/)-х(/)]" p(x,/ + Ar|x,z)</x. Если первые два коэффициента Л?] (x,z), К2 (х,/) отличны от нуля, а остальные коэффициенты Kn(x,t) = 0 (л>3), то МП называется диффузионным. В дальнейшем будут рассматриваться только диффузионные МП, поэтому введем более удобные обозначения (x,z) = a(x,t), К2 (x,z) = Z>(x,z). Коэффициенты a(x,z) и />(х,г) называют коэффициентами сноса и диффузии соответственно. Для диффузионных МП уравнение (1.73) принимает вид Эр(х,<|хо,1о)=Э ,г0)]+1[ь(х,г)р(х,г|хо Jo)] at ax'- -* 2 Эх (1-74) и называется уравнением Фоккера—Планка—Колмогорова (ФПК). При фиксированном начальном значении х0 уравнение (1.74) ре- шается при начальном условии р (х, Iq |хд , /0 ) = 5 (х - х0). Если значение МП в начальный момент времени /д является слу- чайным и имеет ПВ р(х0,г0), то эта ПВ должна выбираться в качестве начального условия для (1.74). Одномерная ПВ p(x,z) для произвольного момента времени может быть определена из (1.71) и (1.74), что приводит к уравнению ^^ = Z(p(x,z)) = ~[a(x,z)p(x,z)]4-y^y[Z>(x,z)p(x,z)], (1.75) Ot ox Z Эх в котором оператор £(*) называют оператором Фоккера—Планка— Колмогорова. Диффузионный МП с коэффициентами сноса a(x,z) и диффузии Л(х,/) удовлетворяет стохастическому дифференциальному уравнению 47
л(<о)=*о. «’б) где ^(z) — БГШ с КФ /^(т) = 5^/25(т), a f(x,t) и g(x,t) опреде- ляются из соотношений fl(x>f) = /(x,z)+ls^(x,r)^), b(x,t) = ^g2(x,t). (1.77) Важной особенностью стохастических дифференциальных уравне- ний типа (1.76) является то, что при их интегрировании в подынте- гральной функции стоит БГШ, который не удовлетворяет необходимым требованиям «гладкости», для которых определен интеграл Римана. В связи с этим в математике разработана специальная теория стохастиче- ских интегралов. Существуют различные определения стохастического интеграла, одно из которых введено Р.Л. Стратоновичем и получило название симметризованного [9]. Не углубляясь в математические тон- кости (более подробно можно ознакомиться в [9, 12, 13]), отметим лишь, что при таком определении стохастического интеграла справед- ливы формулы классического дифференциального исчисления и выра- жения (1.77) для коэффициентов сноса и диффузии. Отметим также, что если в (1.77) коэффициент диффузии g(x,z) не зависит от х, то все оп- ределения стохастических интегралов эквивалентны. В частности, это справедливо для линейного уравнения ^ = F(z)x + G(z)^(z), x(zo) = xo. (1.78) at Наряду со скалярным МП x(z) важную роль играют векторные (многомерные) МП. Рассмотрим случайный вектор x(z) = = |x|(r)x2(/) ...x„(z)| . Если в выражениях (1.74)—(1.77) вместо ска- лярной величины x(z) подставить векторную x(z), то тем самым будет определен векторный марковский процесс. Уравнение (1.75) для вектор- ного диффузионного МП преобразуется к виду ^=6(р(.,))= О1 -j • °-”’ 48
где a,(x,z), i = l,п —коэффициенты сноса; fy(x,z), /,у = 1,и —ко- эффициенты диффузии. Векторный диффузионный МП может быть описан векторным сто- хастическим дифференциальным уравнением ^ = f(x,z)+g(x,z)§(z), x(z0) = x0, (1.80) at где ij(z) — т -мерный вектор БГШ с диагональной корреляционной матрицей 1Ц(т) = St /28(т), т.е. (т) = /28(т), i = 1,п , R (т) = 0, j; f(x,z) — л-мерный вектор; g(x,z) —матрица размером пхт. Связь между коэффициентами сноса и диффузии и коэффициента- ми уравнения (1.80) определяется выражениями 41,р=} дхр Mx’')= 7 SllSil MgjuM- (1 81) 2/=1 Линейная модель векторного МП описывается уравнением ^ = F(z)x+g(z)§(z), x(z0) = x0. (1.82) at Описание марковских процессов с помощью дифференциальных уравнений очень удобно, так как позволяет поучить описание опти- мальных систем обработки таких процессов также в форме дифферен- циальных уравнений. Учитывая это обстоятельство, приведем описание марковских последовательностей в форме разностных уравнений. Пусть имеем векторную случайную последовательность х (z^) = х* = = |х] (z^) х2 (tk) ... хп (tk )| , которая описывается разностным уравнением х* *('о) = хо> О-83) где — векторный дискретный БГШ с матрицей дисперсий к Доказано, что случайная последовательность хк, описываемая (1.83), является марковской. Линейная модель марковской последовательности задается уравне- нием 49
4 =F*-14-1 +G*-i£*-i > x(/o) = xo- (1-84) Для линейных моделей (1.82), (1.84) и начальном условии х0, рас- пределенном по гауссовскому закону, процесс х(/) и последователь- ность являются гауссовскими. Поэтому их иногда называют гаус- совско-марковскими процессами. Марковские процессы играют основополагающую роль в теории оп- тимальной фильтрации, которая подробно будет рассмотрена в гл. 9—13. Контрольные вопросы к главе 1 1. Как преобразуются плотности вероятности распределения случайных величин при их функциональном преобразовании? 2. Что такое корреляционная функция случайного процесса и какую роль она играет при его статистическом описании? 3. Чем отличаются определения стационарности случайных процессов в широком и узком смыслах? 4. Какими вероятностными характеристиками описывается произвольная случайная последовательность? 5. Какими вероятностными характеристиками описывается гауссовская случайная последовательность? 6. Какими вероятностными характеристиками описывается марковская случайная последовательность? 7. При каких условиях понятия марковский и гауссовский процессы тождественны? 8. Дайте определение белого гауссовского шума. Какими свойствами об- ладает такой шум? 50
Глава 2 СТАТИСТИЧЕСКОЕ ОПИСАНИЕ СИГНАЛОВ, СООБЩЕНИЙ И ПОМЕХ 2.1. Общие определения Радиотехнические системы (РТС) различного назначения являются информационными системами, т.е. системами, которые предназначены для передачи и извлечения информации. Под информацией понимают совокупность сведений, данных о каких-либо событиях, явлениях или предметах. Информацию, в широком смысле, можно определить как совокупность знаний об окружающем нас мире. В таком понимании информация является важнейшим ресурсом научно-технического и со- циально-экономического развития общества. В отличие от материаль- ного и/или энергетического ресурсов, информационный ресурс не уменьшается при потреблении, накапливается со временем, сравнитель- но легко и просто с помощью технических средств обрабатывается, хранится и передается на значительные расстояния. Для представления, передачи или хранения информации использу- ют различные знаки, символы, параметры и т.д., позволяющие выразить (представить) ее в некоторой форме. Совокупность знаков, символов, параметров, отображающих ту или иную информацию, называют сооб- щением. Так, при телеграфной передаче сообщением является текст те- леграммы, представляющий собой последовательность отдельных зна- ков — букв и цифр. При разговоре по телефону сообщением является непрерывное изменение во времени звукового давления, отображающее не только содержание, но и интонацию, тембр, ритм и иные свойства речи. В радиолокации сообщение представляет собой изменяющиеся во времени координаты объекта. Сообщения могут быть функциями вре- мени Х(/), например, речь при передаче телефонных разговоров, тем- пература или давление при передаче телеметрических данных, спек- такль при передаче по телевидению, координаты движущегося объекта и т.п. В других случаях сообщение не является функцией времени (на- пример, текст телеграммы, неподвижное изображение и т.д.). Если сообщение представляет собой функцию 1(f), принимающую только определенные дискретные значения (например, 1 и 0), то его называют квантованным или дискретным по уровню (амплитуде). Со- общение (сигнал) с конечным числом дискретных уровней часто на- 51
зывают цифровым, поскольку уровни можно пронумеровать числами с конечным числом разрядов. Если же сообщение может принимать любые уровни в некотором интервале, то они называются непрерывными или аналоговыми. В некоторых случаях сообщение задают не на всей оси времени, а в определённые моменты tk . Такие сообщения называют дискретными по времени в отличие от непрерывных по времени, заданных на всей оси i. Например, речь является сообщением непрерывным как по уровню, так и по времени, а датчик температуры, выдающий ее значения через каждые 5 мин, служит источником сообщений, непрерывных по вели- чине, но дискретных по времени. Если сообщение (сигнал) принимает дискретные по уровню (кван- тованные) значения в дискретные моменты времени, то его называют дискретным квантованным сообщением. На рис. 2.1 проиллюстрированы различные виды сообщений. Рис. 2.1. Виды сообщений: а — непрерывное; б — дискретное по времени; в — квантованное; г — дискретное квантованное Перенос сообщений (а следовательно, и информации) на расстояние осуществляется с помощью какого-либо материального носителя (бу- 52
маги, магнитной ленты и т.д.) или физического процесса (звуковых или электромагнитных волн, тока и т.д ). Физический процесс, несущий пе- редаваемое сообщение, называется сигналом. В качестве сигнала можно использовать любой физический процесс, изменяющийся в соответст- вии с переносимым сообщением. В РТС (например, радиолокационных, радионавигационных, системах радиосвязи) перенос сообщений осуще- ствляется электромагнитными волнами. В то же время, в радиоаппара- туре электромагнитное поле антенной системой преобразуется в элек- трические сигналы S(k,l), которые в последующем тракте приемника являются переносчиками сообщений. Физической величиной, опреде- ляющей такой сигнал, является ток или напряжение. В современных системах управления и связи также используют электрические сигначы. Передача сообщения с помощью сигналов реализуется путем изменения тех или иных параметров физического носителя в соответствии с пере- даваемым сообщением. Этот процесс (изменения параметров носителя) принято называть модуляцией. Сигнал передает (развертывает) сообще- ние во времени. Следовательно, он всегда является функцией времени, даже если сообщение (например, неподвижное изображение) таковым не является. Также как и сообщения, электрические сигналы могут быть не- прерывными и дискретными по времени, непрерывными и дискретными по уровню, цифровыми. Электромагнитное поле можно рассматривать как пространственно- временной сигнал S(r,X,/), где г —радиус-вектор некоторой точки пространства. Такой сигнал всегда является непрерывным во времени и по уровню. Во многих РТС пространственно-временной сигнал S(r,X,f) на входе системы может быть представлен в виде произведения S (г,Х,/) = = /’(r)S(X,/), т.е. в виде разделяющихся пространственной F(r) и временной 5(Х,г) функций. В этом случае обработка сигнала разделя- ется на пространственную (в антенне) и временную (в приемнике). Учи- тывая это, в дальнейшем (если не рассматривается обработка простран- ственно временного сигнала) под сигналом будем понимать временную функцию 5(X,z). В общем случае в радиосигнале могут переноситься несколько со- общений, поэтому там, где это необходимо, будем рассматривать вектор сообщений Х(/). Каждое отдельное сообщение X, (/) связано с тем или 53
иным параметром сигнала (амплитудой, частотой, фазой, задержкой), который в этом случае называется информативным. Для удобства даль- нейшего изложения сообщение A,(z) будем отождествлять с информа- тивными параметрами сигнала. Параметры сигнала, не несущие полез- ной информации (сообщений), называются неинформативными. В раз- личных приложениях в качестве информативных и неинформативных могут выступать различные параметры сигнала. Например, в системах связи с частотной модуляцией сообщение содержится в частоте сигнала, а амплитуда и начальная фаза сигнала являются неинформативными параметрами. При измерении дальности до объекта в радиолокации со- общение закодировано в задержке сигнала, которая в этом случае явля- ется информативным параметром. Если кроме дальности измеряется и угловое положение объекта с использованием фазовых методов пелен- гации, то к информативным параметрам следует относить и фазу сигна- ла. При приеме и обработке сигналов в РТС неинформативные парамет- ры не извлекаются и не передаются потребителю, однако их и их свой- ства необходимо учитывать. Поэтому введем вектор ц неинформатив- ных параметров сигнала. При этом сигнал в общем виде представляется как 5(X,p,z). 2.2. Узкополосные сигналы Рассмотрим общие статистические свойства радиосигналов безот- носительно к типам и свойствам передаваемых сообщений. В связи с этим сигнал 5(X,p.,z) будем рассматривать как простой временной процесс S(z). Такой сигнал можно представить в виде процесса с изме- няющейся амплитудой A(t) и фазой <p(z) S(t) = y4(z)cos((o0z + (p(z)), (2.1) где соц = 2тг/о ; f0 — несущая частота сигнала. Амплитуда и фаза сигнала в большинстве приложений меняются существенно медленнее, чем несущая частота. Полоса спектра такого сигнала Л/^ « fa , и поэтому сигнал называют узкополосным. Для узкополосного сигнала широко используется комплексная запись S(z) = ReL(z)ej(°v+<p('))’ . 54
При этом вводится медленно меняющаяся комплексная амплитуда сигнала (2.2) а сам сигнал выражается через комплексную амплитуду 5(f) = Re[5 0)eJOV ] = l[5(/)ej<a')'+5* (z)e~ j<0°' ], где * — знак комплексного сопряжения. Комплексная амплитуда сигнала (2.2) несет всю информацию о со- общении X, что и определяет целесообразность ее введения. Пусть заданы два узкополосных сигнала 5(f) и (7(/), для которых, в соответствии с (2.2), определены комплексные амплитуды 5(f) и U (/) . Рассмотрим произведение 5(r)t/(v) = |Re 5(z)t7*(v)ej<ao(' i * * * v)+5(f)t7(v)ejffl°('+v) . (2.3) При t = v первое слагаемое в квадратной скобке (2.3) описывает медленно меняющийся процесс, а второе — колебание с удвоенной не- сущей частотой. Поэтому при вычислении корреляционного интеграла можно записать i 2 L t (2.4) где т»1//0. Свойство (2.4) позволяет существенно упростить анализ многих РТС, содержащих инерционные звенья при использовании метода ком- плексных амплитуд. В таких системах вместо (2.3) можно использовать приближенное равенство 5(f)t7(f) = |Re[5(f)C/‘(f)], (2-5) в котором не учитывается слагаемое с удвоенной частотой изменения. 2.3. Статистические модели сигналов Пусть радиосигнал, излучаемый передающей системой, имеет вид (2.1). При его распространении от места передачи до места приема он 55
подвергается различным случайным воздействиям (флуктуациям пара- метров среды распространения, эффектам многолучевого распростране- ния, многоточечным отражениям от объектов и подстилающей поверх- ности в радиолокации и др.), поэтому принимаемый сигнал становится случайным. Для математического описания принимаемого сигнала не- обходимо задаться той или иной его моделью. В литературе описано множество моделей принимаемого сигнала, которые в той или иной мере соответствуют рассматриваемой РТС и условиям ее функционирования. Одной из таких моделей может слу- жить следующая. Сигнал в месте приема представляется в виде двух составляющих: детерминированной и случайной, т.е. 5(z) = ol4(z-t)cos(coo (z-t)+<p(z-t)+8)+ +P(z)/4(z-t)cos(<o0(z-t)+(p(z-t)+£(z)), (2.6) где а и 5 — соответственно амплитудный коэффициент и фазовый сдвиг детерминированной составляющей сигнала, которые полагаются постоянными на интервале наблюдения; P(z) и е(г) — амплитудный коэффициент и фазовый сдвиг случайной составляющей сигнала, кото- рые в общем случае могут меняться во времени; т — задержка прини- маемого сигнала относительно переданного. Сигнал (2.6) можно записать в виде узкополосного колебания S (z) = a (z) A (t - x)cos ((Oq (/ - т)+<p(z - т)- \|/(/)), (2.7) где a(z) = cos (8)+p(z) cos (e(z)))2 +(asm(8) + p(/)sin(e(z))} = = ^a2 +P(z)2 + 2ap(z)cos(8-£(z)), (2.8) asin(8)+p(r)sin(£(r)) a cos (8) + p(z) cos (e (z)) — соответственно амплитуда и фаза принимаемого узкополосного ко- лебания, при этом a(z) характеризует амплитудные флуктуации (замирания), a v(z) —фазовые флуктуации сигнала. В ряде задач допустимо считать P(z) и e(z) независимыми случай- ными величинами, причем фаза е распределена по равномерному зако- 56
ну на интервале -л < е < п: p(d) = i/2n, а амплитудный множитель 0 — по рэлеевскому закону (1.9): р(Р) = -^-е"р2/2°2, р>0. Перейдем от случайных переменных р, € к новым переменным а,у и рассчитаем ПВ р(а,у), используя (1.22). При выполнении усло- вия |у-8|<л из (2.8)—(2.9) можно записать однозначные обратные функции „ ~ a sin (<p)-asm (8) Р = da2 + a2 + 2аа cos (у - 8), е = arctg--—-------—-. v a cos (<р)-a cos(8) Якобиан преобразования (1.23) переменных равен а +а +2aacos(y-8) Следовательно, совместная плотность вероятности амплитуды а и фазы \|/ принимаемого сигнала, рассчитанная по (1.22), определяется формулой P(a,V) = а ----уехр 2 ла2 0, a2 + a2 -2aacos(\|/-8) 2a2 , при a > 0, |y - 3| < л, при других а, у. (2.10) Интегрируя (2.10) по у или а , получим одномерные плотности ве- роятности для случайной амплитуды и фазы принимаемого сигнала для модели (2.7) Р(а) = -^-ехр а2 +а2 2 ст2 г аа I Л /0 -г 1 а>0> (2.11) г,/ ч 1 «cos (у-8) fa P(w) =—е 2 ° +-----—-Ф — cos 2л adldt ( о ~2sin2(v-8) (2.12) 57
где Ф(х)= J— ( е 1 dt — интеграл вероятности. >/2л Описанная модель принимаемого случайного сигнала часто исполь- зуется в системах радиосвязи. При а = 0 формула (2.11) переходит в рэлеевский закон распределения амплитуды сигнала, который часто используют в задачах радиолокации. Рэлеевскому закону подчиняются также медленные замирания сигналов в радиолиниях, использующих ионосферное или тропосферное рассеяние. В дальнейшем при решении отдельных задач статистической тео- рии радиосистем будут использоваться следующие частные случаи мо- дели (2.7). 1. Детерминированный сигнал, т.е. сигнал с полностью известными параметрами 5(/) = a0A(r-T0)cos(col1(z-T0) + <p(r-T0) + Vo)- (2.13) Такой сигнал является в определенном смысле идеализацией, так как он не несет никакой информации. Однако его удобно использовать для получения потенциальных (предельных) характеристик оптималь- ных приемников. 2. Сигнал со случайной начальной фазой $(') = «()А (г - т() )cos (оди (t - тп) + ф(/ - т0) + у). (2.14) Здесь, в отличие от (2.13), начальная фаза у принимаемого сигнала полагается случайной величиной с равномерным законом распределе- ния на интервале [-л, л]. 3. Сигнал со случайными амплитудой и начальной фазой 5(г) = аА(/-т0)со8(ц)(г-т0)+ф(г-т0)+ф). (2.15) При этом начальная фаза, по-прежнему, распределена равномерно на интервале [-л, л], а амплитуда распределена по рэлеевскому закону (1.9). Сигналы, описываемые детерминированными функциями, в кото- рых один или несколько параметров являются случайными величинами, называют квазидетерминированными. В радиолокации часто используют сигнал в виде пачек из N ра- диоимпульсов с длительностью пачки тп . Различают когерентную и не- когерентную пачки радиоимпульсов. Если фазы высокочастотного за- полнения радиоимпульсов связаны между собой детерминированной зависимостью, то имеем когерентную пачку, в противном случае гово- 58
рят о некогерентной пачке радиоимпульсов. Когерентная пачка радио- импульсов с известной начальной фазой и амплитудой является детер- минированным сигналом, а аналогичная пачка со случайной начальной фазой (для всей пачки) — квазидетерминированным сигналом. Если амплитудные и/или фазовые флуктуации сигнала нельзя счи- тать медленными, то вместо случайных величин а и у в модели (2.7) следует рассматривать случайные процессы а(т) и ). В этом случае удобно перейти к представлению сигнала его комплексной огибающей (2.2), которую во многих случаях можно считать комплексным стацио- нарным гауссовским СП. Под комплексным гауссовским СП 5(т) = $Н'НМ') (2-16) понимают процесс, действительная SR (/) и мнимая Sj (/) компоненты (квадратурные компоненты) которого являются гауссовскими СП. Рассмотрим статистические характеристики огибающей и фазы ста- ционарного узкополосного комплексного гауссовского СП (2.16). Запи- шем совместную ПВ квадратурных компонент SR и Sj в фиксирован- ных сечениях СП (т.е. при фиксированном значении / = tk) (5Л-Д1Д)2 (Si-m, )2 р(5л,5/) = р(5л)р(5/) = тХ=е 2<г* 2о' , •j2ixsR (2.17) где тол,ап/,о^,О/ — МО и дисперсии квадратурных компонент; при записи (2.17) использован тот факт, что квадратурные компоненты SR (г), S[(t) — независимые СП. 2 2 Для упрощения последующих выкладок будем полагать =О/ = = ст2 . Тогда из (2.17) следует SR + S2 ш^+/л2 SRmR+Sfmj 2<J2 2O2 o2 р(5я,57) = —Ц-ехр 2 таг Перейдем от декартовых координат SR,Sj к полярным координа- там А = yjsR+S2 , <р = arctg— . Тогда можно записать SR = Jcos(<p), SR 59
Sf = Jsin(cp). Якобиан преобразования переменных (1.23) в рассматри- ваемом случае равен J2 (5,ф) = Л • Поэтому для совместной ПВ ампли- туды и фазы, на основании (1.22) получаем А _Л +'4+т1 £,ткСт^т13[п^ р(А,<р) =----е 2° е° (2.18) 2лст2 Одномерную ПВ огибающей получается интегрированием (2.18) по ф на интервале [-тс, я] А^+/Пи+/П/ А^ I 2 2 / а\ Я л------&—L 1 л — dmR+m] cos(<p-0) р(А) = J p(A,tp)d(p = ——е 20 — f е0* <Ар, -я 2 л d = arctg—— . (2.19) mR Интеграл в правой части (2.19) вычисляется с помощью табличного интеграла excos^Jp = /0(x). (2.20) 2к-я С учетом (2.20), для ПВ огибающей получаем -2 "> 2 А +т^+т/ , . р(Л) = 4е 202 /о| 475+^1’ (2-21) сг ) что соответствует распределению Райса (1.11). Запишем квадратурные компоненты узкополосного сигнала 5 (г) в виде ^(') = тИ')+хН')- = (2.22) где, как и ранее, mR,mt — МО (регулярные составляющие) квадратур- ных компонент; хй(г),х;(/) —соответствующие флуктуационные со- ставляющие. Тогда для узкополосного сигнала S(t) справедливо выражение 5(r) = Re[(5H0+j^(0>jOV] = 60
= (mR (‘) + xR 0))cos(<iV)-('”/ (t)+xl ('))sin(°W) = Sp (O+5C (')« где 5p(/)= /ил (f)cos((Oof)-mz (z)sin((O()/) — регулярная составляю- щая узкополосного сигнала; 5^ (г)= (/)cos((Oq/)-^z (z)sin(a\j/) — случайная составляющая сигнала. Отсюда видно, что амплитуда регулярной составляющей сигнала Лр = +т] . Следовательно, (2.21) можно записать в виде (2.23) Данная формула определяет распределение Райса (см. также п. 1.3). При отсутствии регулярной составляющей сигнала выражение (2.23) переходит в распределение Рэлея (1.9). (Графики ПВ для распределения Райса приведены на рис. 1.5, а для распределении Рэлея — на рис. 1.4.) Одномерная ПВ фазы получается интегрированием (2.18) по А на интервале [0,°°] mg+m2 р(ф) = 2л сту2л хФ mR cos(<p)+wiz sin(<p) ст mj+m] [тдсо$(ф)+т, sin(<p)]2 e 2a2 e 2O2 _t-4r_________ 2л ст>/2л 1_ -^2 cos(cp-Q)^f JpCQs(9-i3)Y ' CT t> = arctg—— . mR ^sin2(<p-e) 2ts2 (2.24) При отсутствии регулярной составляющей сигнала, т.е. при Ар = 0, выражение (2.21) преобразуется в равномерное распределение. Плотно- сти вероятности распределения фазы узкополосного гауссовского сиг- нала для различных значений Ар /ст приведены на рис. 2.2. Формулы (2.23)—(2.24) совпадают с (2.11)—(2.12), которые были получены иным путем, а именно при исходном представлении сигнала в виде регулярной и случайной составляющей (2.6). 61
Для учета временной корреляции флуктуаций сиг- нала его случайные состав- ляющие (z) квадра- турных компонент в (2.22) представляются в виде мар- ковских процессов = -axR + V2ao4/? (')> Ф-S, рад Ctt Рис. 2.2. Графики ПВ фазы узкополосного = —axr + у]2ао2(/), гауссовского сигнала dt 4 ' ’ (2.25) где (?),£/(/) — независимые БГШ с единичной односторонней спектральной плотностью; а — среднеквадратичное значение флук- туаций (параметр распределения Райса (2.20)); а = 0,2 ... 5 Гц — пара- метр, характеризующий ширину спектра флуктуаций (тк = 1/а — время корреляции флуктуаций). В ряде задач синтеза радиотехнических систем бывает удобно в ка- честве исходных процессов рассматривать не квадратурные компонен- ты сигнала (2.16), а амплитуду Л(г) и фазу <р(/) сигнала. При таком подходе Л(/) и <p(z) полагаются независимыми СП. В качестве моде- лей изменения фазы сигнала часто используют следующие ф(') = £(')> (2.26) (2.27) ^ = -скр+£(/), (2.28) at где £(z) —БГШ с двусторонней спектральной плотностью Л^/2. Модель амплитуды сигнала представляется в виде л(0=Д2(0+л2(0> где 4.(/),Js(z) — квадратурные составляющие, которые описываются уравнениями типа (2.25) при рэлеевском распределении мгновенных значений амплитуды. 62
2.4. Статистические модели сообщений Как отмечалось в п. 2.1, радиосигнал используется для переноса различных сообщений Х(/), которые могут быть связаны с теми или другими параметрами сигнала: амплитудой, частотой, фазой, задерж- кой. В статистической теории радиосистем используется описание со- общений в виде случайных процессов (или, в частном случае, случай- ных функций) и их представление в пространстве состояний. При таком подходе т -мерный вектор Х(/) отображается в л-мерном пространст- ве вектором х(/) = |х] (/) х2 (/) — хп (Z)|T• Связь между двумя векторами дается соотношением 1 (/) = «(/), (2.29) где с — матрица размером тхп . Поясним (2.29) на примере. Пусть информационным параметром X является задержка сигнала т. Положим, что она меняется во времени по квадратичному закону, т.е. х(/) = т0 + Кт0г + ат0г2 /2. (2.30) Определим в двумерном пространстве состояний вектор х = |т Кт|т, где Кт = с/т/dt — мгновенная скорость изменения задержки. Диффе- ренцируя (2.30) два раза по времени, получаем dxldt = VV, dVjdt^- т(О) = то; Ит(0) = Ит0, или в векторной форме — = Fx+GaT0; F = dt т0 0 1 0 1 о о ’ ; G = При таком представлении матрица с в (2.29) имеет вид с = |1 0|. В п -мерном пространстве состояний вектор х(/) в общем случае описывается нелинейным стохастическим дифференциальным уравне- нием (1.80) или в частном случае — линейным уравнением (1.82). Мо- дели вектора состояния х^. в дискретном времени задаются уравнения- ми (1.83)—(1.84). Приведем некоторые статистические модели сообщений для РТС. 63
Системы радиосвязи. Типичным видом сообщения в радиосвязи является речь. Одной из возможных моделей речевого сигнала является двухкомпонентный процесс, описываемый уравнениями ^- = -ai^+Co[-«2-v2+a2^G)]> ^- = -a2x2+a2^(z), (2-31) где ^(г) — БГШ с двусторонней спектральной плотностью Л^/2 . Рис. 2.3. График спектральной плотности речевого сигнала Спектральная плотность процесса X = описывается выражением 2 (to2 + a2)(a? +a2) График нормированой к еди- нице функции (®) приведен на рис. 2.3 при aj = 1000 с'1, а2 =5000 с '. Радиолокационные системы. Одна из основных задач радиолока- ционных систем — слежение за меняющимися координатами объекта. Сообщением в данном случае яв- Рис. 2.4. Схема движения РЛС и объекта ляются координаты движущегося объекта. Рассмотрим модель дви- жения РЛС и объекта в плоскости (рис. 2.4), полагая для простоты РЛС неподвижной. В полярной системе координат положение объекта характеризует- ся дальностью R и углом $, для которых можно записать следую- щие кинематические уравнения: —— = Го cos(0y-О) = К, dt 0 ' V ’ ' dt Го dt B R 64
dV . , чГ</Аи dfl] 2n . , . . -- = -Kosin(dr-fl) ——— = (i^/?-aosin(flF-fl), t/cog _ Kccos(flr-fl) d-ду <7fl Fosin(flr+fl)^ dt R dt dt r2 2V aocos(flp-fl) _ — (1) — — . R B R (232) где <oB — угловая скорость вращения линии «РЛС—объект» (линии визирования объекта). Введем проекции ускорения объекта на линию визирования объекта и на нормаль к ней: aB(/) = -nosin(fl^ -fl) и ан (t) = -ci0 cos(fljz -fl) . Тогда уравнения (2.32) принимают вид dR dV ? „ , . — -V , -----= (o~R + aR(t), (2.33) dt dt “ BV ’ dti duk 2V aH(<) — = <й.,—— =--------<oB+-2-i-z. (2.34) dt dt R B R Уравнения (2.33), (2.34) описывают изменение полярных координат объекта при произвольном его .движении в плоскости, которое задается проекциями ускорения ав(г) и ан(г). Дальнейшее уточнение модели движения определяется заданием моделей проекций ускорения объекта. На практике используют три основных модели, которые аналогичны (2.26)—(2.28), если в них вместо <р подставить ав(г) или ан(<). Для описания модели движения (2.33)—(2.34) в пространстве со- стояний введем векторы х = |/? К fl |т, а = jaB aH |т и запишем z/v £ = f(x)+g(x)a, at где f(x) = |r <iTaR сов -2К<о„/л| ; g(x) = О О О 1 О О О 1/R Радионавигационные системы. Рассмотрим в качестве примера спутниковую радионавигационную систему (СРНС) ГЛОНАСС (или 3—2041 65
GPS). В приемниках сигналов таких систем осуществляется слежение за задержкой т огибающей сигнала (за задержкой дальномерного кода) и фазой ф сигнала, которые пропорциональны дальности до навигацион- ных спутников: т = R/cq , ф = 2лЯ/Х0 , где с0 = 3 108 мс'1 — скорость света, Хо «0,2 м — длина волны несущей частоты радиосигнала. Так как в приемниках СРНС не измеряются угловые координаты спутников, то в качестве модели изменения дальности используют упрощенный вариант уравнений (2.30): dR ,, dV , . — = a(t). (2.35) dt dt Для построения следящих систем за задержкой огибающей обычно используют модель ускорения а(/) = £,(г), где ^(/) — БГШ с двусто- ронней спектральной плотностью Л^/2 . Вводя вектор х = |7? Г|т , вы- ражение (2.35) преобразуется в векторное уравнение /7y — = Fx+G£(/), (2.36) (2.37) При использовании данной модели возникает вопрос о выборе зна- чения параметра Л^, которое достаточно сложно обосновать физиче- ски. В этом смысле более наглядной является модель ускорения в виде ^ = -aa + o£(t), (2.38) где а характеризует скорость изменения ускорения (для авиационных объектов Та-1/а = 1...60с), а среднеквадратичное значение <за = = характеризует интенсивность ускорения (например, для са- молетов <за =1...50 мс'2). При использовании модели ускорения (2.38) необходимо рассмат- ривать вектор х = |Л V а|т, который по-прежнему описывается вектор- ным уравнением (2.36) с матричными параметрами 66
1 о о о 1 -а О О а Можно показать, что в первом приближении при использовании модели двумерной модели (2.36)—(2.37) спектральная плотность 4о2 выбирается из соотношения N? = ——, где и а, как и в модели 5 а (2.38), определяются интенсивностью и скоростью изменения ускоре- ния объекта. При рассмотрении следящей системы за фазой сигнала в приемнике СРНС в качестве модели также используют трехмерный вектор х = = |Л V <?|т, но матричные параметры в уравнении (2.36) определяют как F = 0 1 0 0 0 1 ООО , G = 0 0 1 Спутниковые радионавигационные системы являются пассивными, т.е. приемник только принимает радиосигналы. В таких системах важ- ную роль играет уход частоты Дсо опорного генератора, для которой используется модель случайного процесса с экспоненциальной функци- ей корреляции = -0^(0+74аша^ 1 (/) , at где £ ] (/) — БГШ с единичной односторонней спектральной плотно- стью; аш — параметр, характеризующий скорость ухода частоты опорного генератора (для кварцевых генераторов аы ~ 10-4 Гц). 2.5. Статистические модели помех Шумовая широкополосная помеха. В различных радиотехниче- ских системах приходится иметь дело с различными видами помех. Од- нако во всех случаях обязательным является наличие флуктуационного шума, обусловленного собственными шумами радиоприемного устрой- ства, тепловыми и другими шумами окружающего пространства. Такие шумы полагают белыми гауссовскими процессами (см. п.1.7) с односто- 67
ронней спектральной плотностью No = кТш , где к = 1,38 • 10 23 Вт- с/К — постоянная Больцмана; Гш — эквивалентная шумовая температура (в градусах Кельвина), которая складывается из эффективной шумовой температуры 7^ а антенно-волноводного тракта и шумовой температу- ры Тшп приемника. Белый гауссовский шум является широкополосной помехой. Узкополосные помехи. Другим типом помех являются узкополос- ные помехи, к которым относятся, например, импульсные и непрерыв- ные фоновые составляющие атмосферных и промышленных помех. В достаточно общей форме узкополосную помеху можно представить в виде M') = 4i (Ocos(®o' + <Pn(')). где Лп (г) и <рп (/) - случайные амплитуда и фаза помехи. Случайная фаза помехи может описываться уравнением (2.26) или (2.27). Амплитуду узкополосной атмосферной и промышленной помехи можно представить в виде суммы импульсной А* и фоновой Аф со- ставляющих А„ = Д, + Аф, причем ПВ А,, описывается логарифмиче- ски нормальным законом < о 4 1 H4HnW) -----7=ехр-------------- , Л®н^27Г 2о„ а Лф распределена по рэлеевскому закону (1.9). Изменения Я,, и Лф во времени можно описать стохастическими уравнениями = -аи4 Inf—V Л,£и (?), 2 = -афЯф +74аФ<4^Ф (') ’ (2.39) (2.40) где (?) и ^ф (?) — БГШ с единичной односторонней спектральной плотностью. 68
Типовые значения параметров моделей (2.39)—(2.40) следующие: аи =500 ... 1000 Гц; аф = 1 ... 10 Гц; ои = 0,01 ... 0,07 мкВ; оф = = (1 ... 5)10^ мкВ. Широко распространенным типом помех являются импульсные по- мехи. В результате теоретических и экспериментальных исследований установлено, что ПВ импульсных помех в ряде случаев можно аппрок- симировать функцией P(4i) = 23/2anr(l/v)eXP[ 2v/2ct^ где Г(*) — гамма-функция (1.6); v — параметр, зависящий от типа помехи и принимающий значения от 0,5 до 2; при v = 1 получаем рас- пределение Лапласа 1 ( Ш "I <2,41) Приведенные статистические модели сигналов, сообщений и помех не исчерпывают их многообразие. В каждом конкретном приложении они могут либо модифицироваться, либо используются другие модели. Контрольные вопросы к главе 2 1. Чем по смыслу отличаются термины сигнал, сообщение, помеха? 2. Какие сигналы и процессы (сообщения) называются квазидетермини- ро ванными? 3. Какие основные признаки (характеристики) узкополосного сигнала? 4. Дать определение огибающей и фазы узкополосного сигнала. 5. Является ли сообщение х(г), имеющее спектральную плотность S* (<о) = Sq/®4 > марковским процессом и почему? 6. Как описывается корреляционная функция помехи, имеющей равно- мерную спектральную плотность в заданной полосе частот? 69
Глава 3 ОСНОВЫ ТЕОРИИ СТАТИСТИЧЕСКИХ РЕШЕНИЙ 3.1. Общие положения Одним из основных вопросов статистической теории РТС является выбор наилучшей (в некотором смысле) системы. Методологической базой такого выбора является теория статистических решений, разрабо- танная А. Вальдом. Формулировка основных положений этой теории не связана ни с какими-либо частными задачами, ни с конкретными крите- риями оптимальности. Поэтому она дает общий подход к решению за- дач статистического синтеза различных динамических (в том числе и радиотехнических) систем [5]. Прежде, чем излагать основы теории статистических решений, сформулируем в возможно более общем виде те задачи, которые реша- ются различными РТС. В гл. 2 было определено, что РТС предназначены для передачи и извлечения сообщений, закодированных в параметрах радиосигнала. Сообщения имеют статистическую природу и требуют задания соответ- ствующих вероятностных распределений (или плотностей вероятности). Данную статистическую информацию называют априорной, так как ис- следователь располагает ею до проведения каких-либо измерений или экспериментов. Пусть Х(г) — сообщение, которое представляет собой некоторый СП. Положим также, что, в соответствии с принятым в п. 2.3 представлением, Х(г) отображается в пространстве состояний вектором х(г), который, в свою очередь, является векторным СП. В дальнейшем под х(г) будем понимать марковский СП (см. п. 1.8). В каждый момент времени t данный СП характеризуется ПВ p(x,z), которая является априорной ПВ. Для передачи сообщения Х(/) используется сигнал 5(/Д(г)). На входе приемника наблюдается реализация y(t), пред- ставляющая собой искаженный помехой сигнал. Наблюдаемую на ин- тервале времени [0,z] реализацию у(/) обозначим как Yq . В результа- те обработки Yq можно извлекать дополнительную информацию об интересующем сообщении. Эта информация также имеет статистиче- 70
скую природу, а соответствующие вероятностные распределения или ПВ называют апостериорными (т.е. после проведения опыта или экспе- римента). Поэтому условную ПВ p(x,f|}o) называют апостериорной, так как она описывает статистические свойства вектора х в момент времени / при условии, что проведены наблюдения Kq . Результат извлечения информации из принятого сигнала (наблю- дений) часто можно трактовать как принятие решения о значении сооб- щения либо в каждый момент, либо в заданные моменты времени. При- нятие таких решений называют оцениванием. Поэтому в дальнейшем часто будет говориться об оценивании сообщений. В терминах оцени- вания формулируются такие задачи как обнаружение, распознавание и различение временных и пространственно-временных сигналов; оценка параметров сигналов; фильтрация сообщений, сигналов, полей и изо- бражений; управление процессами и объектами и др. 3.2. Решения, функция потерь, риск Решение. Радиотехнические системы предназначены для обработки сигналов и информации, заключенной в них. Всякий результат такой обработки в теории статистических решений называют решением, а сам процесс обработки, который завершается тем или иным результатом (решением), называют принятием решения. В любом процессе обработки сигналов, информации и принятия решений можно выделить ряд характерных признаков, главными из ко- торых являются следующие. 1. Всякое решение направлено на достижение какой-то цели, выби- рается из ряда возможных альтернатив (конечной или бесконечной) и приводит к некоторым последствиям, по которым и должно оцениваться качество этого решения. 2. Решение принимается с помощью доступной к моменту его при- нятия информации двоякого рода. Одна ее часть обобщает прошлый опыт и представляет собой совокупность априорных сведений. Другая представляет совокупность данных наблюдения, получаемых в процессе выработки решения непосредственно перед его принятием. 3. Как правило, доступная при принятии решения информация и по- следствия от принятия того или иного решения имеют статистическую природу, что определяется статистическим характером априорных све- дений, результатов наблюдения и т.п. Все это придает процедуре приня- тия решений статистический характер. 71
4. Выбор решения из имеющихся альтернатив не обязательно одно- значно определяется имеющейся информацией. Он может допускать элементы случайности или, как принято говорить, рандомизации. Про- цедура случайного выбора решения предполагает, что для каждого значе- ния совокупности данных наблюдения и для каждого из возможных аль- тернативных решений определены вероятности, в соответствии с кото- рыми и может быть принято любое из возможных решений. В данной книге рассматриваются только проблемы детерминированного выбора. Введем формальное описание правила принятия детерминирован- ного решения. Пусть наблюдаемая реализация (наблюдение), кото- рая, с точки зрения статистической теории, является одной из возмож- ных в пространстве наблюдений Y, т.е. е Y. Всякое преобразование и(*) наблюдаемых данных Уд, т.е. и (yj j, будем называть решающим правилом или, другими словами, алгоритмом обработки. Множество всех решающих правил (алгоритмов) обозначим через U, так что M^yjje U. Как отмечалось выше, результатом обработки наблюдений является решение, которое обозначим как d. Совокупность всех воз- можных решений образует множество D ( d g D). Таким образом, каж- дое нерандомизированное решающее правило (алгоритм) и устанавли- вает однозначное соответствие между точками пространства наблюде- ний Y и пространства решений D,T.e. d = и^Уд j . Решение d может быть скалярным или векторным. Например, если ищутся оценки каждой компоненты вектора состояния х, то решение, под которым можно по- нимать искомые оценки, будет векторным. Для векторного решения имеем d = u j. Функция потерь. Выбор того или иного решения приводит к опре- деленным последствиям (результатам). Целесообразно эти последствия оценивать по степени соответствия их поставленной цели. Для количе- ственной оценки такого соответствия вводят функцию потерьс(...,...), которая, естественно, должна зависеть от поставленной в задаче цели и от принятого решения. Фиксируем некоторый момент времени /. Опре- делим в качестве цели вектор х, соответствующий выбранному момен- ту времени, а решением в данном случае будет вектор d. Таким обра- зом, для функции потерь можно записать c(x,d). Конечно, в качестве 72
цели может выступать само сообщение 1 или какое-либо его функцио- нальное преобразование, а решение при этом будет скалярное d . По- скольку этот факт не является принципиальным, то в дальнейшем будем вести речь о функции потерь вида c(x,d). При задании функции потерь во многом ориентируются на здравый смысл. В прикладных задачах обычно требуется, чтобы функция потерь удовлетворяла следующим свойствам: 1) c(x,d) — скалярная функция двух векторных переменных; 2) с(х,х) = 0, т.е., если решение совпадает с искомым вектором, то потери равны нулю; 3) c(x,d])>c(x,d2) всегда, если p(x-d])>p(x-d2), где р — скалярная неотрицательная выпуклая функция; 4) c(x,d]) = (d],x) —свойство симметричности. Функция потерь, обладающая всеми указанными свойствами назы- вается допустимой. На практике чаще всего применяются следующие три вида до- пустимой функции потерь: 1) квадратичная c(x,d) = ||x-d||^, (3.1) 2) модульная с (x,d) = ||x-d||e, 3) простая c(x,d) = °> IIх-dt <е/2> ‘/е. Ilx"dlle^/2- (3.2) Здесь |*| — символ нормы вектора; е = const; Q — неотрицательно определенная матрица размером лхп, с элементами, выполняющими роль весовых множителей. Обычно в радиотехнических задачах норма вектора определяется соотношениями llx~d6 =(x-d)TQ(x-d) - IIх - dllg = >/llx-dlle = 7(x"d)TQ(x-d) • (3.3) Применительно к простой функции потерь часто рассматривают случай, когда значение параметра е в (3.2) стремится к нулю (е —> 0). При этом простую функцию потерь записывают в виде 73
c(x,d) = £-8(x-d), (3.4) где 3(x-d) = О, при d * х, оо, при d = х, j 8(u)rfu = 1; b = const. Строгий предельный переход в (3.2) при £ —> О дает b = °°, но так как значение b не влияет на результаты синтеза оптимальных систем, то допустимо полагать b некоторой конечной величиной. Если вектор х принимает дискретные значения х^'\ i = 1,2,..., то аналогом функции потерь (3.4) является выражение 4x(/),d} = l-3 , (3.5) \ / г ',d где 3 (1) = х' ',d О, 1, при d#x^\ — символ Кронекера. при d = x^'\ Риск. Функция потерь c(x,d) = c(x(z),d(z)) = c^x(/),u^yQ)), рас- сматриваемая в фиксированный момент времени t, является случайной величиной, так как зависит от случайной величины x(z) и реализации Уог случайного процесса y(t'), что затрудняет сравнение различных решающих правил. Поэтому лучшие решающие правила логично выби- рать на основании сравнения усредненных значений потерь, которые называют риском. В зависимости от полноты усреднения при вычислении МО функ- ции потерь рассматривают несколько различных рисков. Наиболее об- щим является средний риск, при определении которого функция штрафа усредняется по совместной ПВ />^х(г),Уд^ СВ х(/) и случайной реализации Уд г(и,?) = Дс(х(/),и(Уо))р(х(/),Уо/)й(х(/)</Уо, (3.6) где интегрирование ведется по области допустимых значений x(z) и Уо'. При записи (3.6) учтена временная зависимость информационных процессов и наблюдений. В различных задачах средний риск можно определять в текущем времени, на конечном временном интервале, для 74
различных временных интервалов относительно х(/) и y(t) и т.д. По- этому в последующих формулах, для общности рассуждений, времен- ной индекс будет опущен. Так, например, формула (3.6) будет записы- ваться как r(u) = Дс(х,и(У))р(х,У)ЛЛУ. (3.7) Кроме среднего риска (3.7) часто используют условные риски, пред- ставляющие собой условные математические ожидания функции по- терь. Используя формулу Байеса для совместной ПВ р(х,У) = = />(х|У)р(У), запишем r(u) = JJc(x,u(y)>(x|y)p(y)^y = Jr/w(y,u)p(y)</y, (3.8) где rPs (у-“) = Jc(x’u(y))Hxly)‘/x (3-9) — апостериорный риск, т.е. при заданных наблюдениях У . Из (3.8) видно, что любое решающее правило и определяет как значение среднего риска, так и значение апостериорного риска, причем экстремальные значения данных рисков имеют место при одном и том же решающем правиле. Другой условный риск r(x,u), который иногда называют функцией риска, определяется для условной ПВ р(У|х), которая связана с совме- стной ПВ выражением р(х,У) = р(У|х)р(х). В этом случае выражение для среднего риска (3.7) можно записать в виде r(u) = Дс(х,и(У))р(У|х)/>(х)Жи/У = Jr (х,и)р(х)Л, где r(x,u) = Jc(x,u(y))p(y|x>/y. (3.10) Заметим, что условный риск r(x,u) определяется при фиксирован- ном значении х, поэтому случайным «параметром» при этом является только реализация У, и усреднение в (3.10) проводится только по У. Относительно х условный риск r(x,u) является обычной функцией этой переменной, поэтому он и называется функцией риска. 75
3.3. Оптимальные решения Термин «оптимальное» решение определяет наилучшее в заданном смысле решение, т.е. в соответствии с заданным критерием сравнения. Поэтому некорректно говорить об оптимальности того или иного реше- ния, не указывая на критерий сравнения. В теории статистических решений при отыскании оптимального решения рассматривают два крайних случая: имеется полная априорная статистическая информация об инфор- мационном процессе х; отсутствие какой либо априорной статистической информации о процессе х. Байесовские решения. При наличии полной априорной информа- ции естественно определить оптимальным решением и0 такое, которое минимизирует средний риск (3.7), т.е. средние потери от принятия ре- шения r(u0) = min r(u) = min JJc(x,u(K))p(x,y)t/juZT. u u Такое решение называется байесовским. Подчеркнем, что для байе- совского решения характерны два признака: полная априорная стати- стическая информация об информационном процессе х и критерий оптимальности в виде среднего риска (3.7). Из представления среднего риска в форме (3.8) следует также, что оптимальное решение может быть найдено в результате минимизации апостериорного риска, так как p(Y) — положительно определенная функция, не зависящая от и: и0 =arg min г (и). (3.11) и Таким образом, байесовское решающее правило минимизирует как средний, так и апостериорный риски. Рассмотрим примеры байесовских решающих правил для двух наи- более часто используемых функций потерь: квадратичной и простой. Подставляя выражение (3.3) для квадратичной функции потерь в (3.11), запишем — э~|и=и0 = 2jQ(x-uo)p(x|y)rfx = O. Отсюда находим 76
ио(у) = х = 1хР(х|у)^х- (3.12) Таким образом, для квадратичной функции потерь оптимальное байесовское решение (3.12) является апостериорным средним значени- ем вектора х . Такое решение будем в дальнейшем называть оптималь- ной байесовской оценкой вектора х и обозначать х . Получим теперь байесовское решение для простой функции потерь (3.4): u0(y)=i = arg min J(h-3(x-u))p(x|y)rfx = И = arg тахр(х|У). (3.13) x Следовательно, оптимальным решением для простой функции по- терь является такое значение х, при котором АПВ р(х|У) достигает максимума. Так как понятие байесовского решения связано априорной ПВ Рар (х), то можно говорят о байесовском решении относительно задан- ной априорной ПВ рар (х). Для каждой рар (х) будем иметь свое байе- совское решение, так как апостериорная ПВ р(х|у) зависит от задан- ного априорного распределения а, следовательно, средний и апостери- орный риски также от него зависят. В ряде задач может отсутствовать информация об априорной ПВ рар(х), что не позволяет использовать байесовское решение. В этом случае используют небайесовские методы выбора оптимального реше- ния. Небайесовские решения можно получить, исходя из функции риска (3.10), которая для своего определения не требует априорной ПВ рар (х). Одним из таких решений является минимаскное. Минимаксные (небайесовские) решения. Решение (1*=и*(У) на- зывается минимаксным, если оно удовлетворяет условию max г (х,и* )< maxr(x,u) X ' ' X для всех и, или в другой записи max rlx,u*) = min max r(x,u), (3.14) X ' ' U X т.е. если оно минимизирует максимальное значение условного риска. 77
Величина max r(x,u*j называется минимаксным риском. Для нахождения минимаксных решений в общем случае нет конст- руктивных процедур, кроме доказанного Вальдом результата: при неко- торых несущественных допущениях минимаксное решение является байесовским относительно наименее благоприятного априорного рас- пределения рарн (х). При этом минимаксный риск равен байесовскому риску для рара (х), а условный риск r(x,u*j не зависит от х . Минимаксные решения часто используются при робастных мето- дах синтеза, которые малочувствительны к априорным данным. Метод максимального правдоподобия. При определении функции риска в (3.10) использовалась условная ПВ р(У|х), которая представ- ляет собой ПВ наблюдений Y, при фиксированном значении х . Так как значение вектора х фиксировано, то он уже не является случайной ве- личиной, однако может рассматриваться как неизвестный параметр. Условная ПВ р(У|х), рассматриваемая как функция неслучайного па- раметра х, называется функцией правдоподобия Z(x). Обратим внимание на различие между условной плотностью веро- ятности р(/|х) и функцией правдоподобия Z(x). В первом случае фиксируется значение х и рассматривается ПВ реализации У, которой соответствует заданное (фиксированное) значение х, что можно обо- значить как У (х). Следовательно, в этом случае имеем р(У(х)|х). При определении функции правдоподобия Z(x) рассматривается принятая реализация У, соответствующая некоторому (истинному) значению хи , что обозначим как У (хи ), а параметр х, стоящий в условии ПВ р(У|х), меняется в пределах заданной области определения. Поэтому в данном случае имеем Z(x) = р(У(хи)|х). Функция правдоподобия широко используется для нахождения не- байесовского решения в задачах оценки постоянных параметров сигнала. Зададим в (3.10) некоторое значение х = хи и положим в качестве с(хи,ц(У(хи))) простую функцию потерь (3.4). Подставляя (3.4) в (3.10) и используя свойство дельта-функции, получаем 78
r(u) = J(6-5(x-u(y)))/>(r|x)rfy = B-p(y|u) = 5-z(u), (3.15) где В — константа, не зависящая от и. Минимум функции риска (3.15) достигается при значении и = хм, при котором функция правдоподобия Z(u) = p(Y(хи )|u) максимальна Z(xM) = max Z(u) = max Z(x). (3.16) n X Для нахождения оценки максимального правдоподобия необходимо решить уравнение правдоподобия dL(x) —— . =0. (3.17) Эх х = хм Оценки максимального правдоподобия имеют ряд важных свойств, которые более подробно будут рассмотрены в гл. 7. 3.4. Оптимальные решения при наличии случайных неинформативных параметров сигнала Как отмечалось в п. 2.1, в задачах приема и обработки радиосигна- лов последние могут иметь как информативные, так и неинформатив- ные параметры. Выше была рассмотрена ситуация, когда сигнал S(/,X(/)) имел только информативные параметры X. Идеология полу- чения оптимальных решений при наличии неинформативных парамет- ров сигнала такая же, что и при их отсутствии. Пусть сигнал 5(/,Х(/),ц) имеет векторный неинформативный па- раметр |1, который полагаем векторной случайной величиной, т.е. по- стоянной за время наблюдения. Сообщение, как и ранее, отображается в пространстве состояний вектором х. Полагаем, что заданы априорные ПВ рар (х) и рар (р.). Проведя наблюдения Уд, как и выше, можно искать то или иное решение d = u (yj ). Однако в каждой реализации Уц случайная величина р имеет вполне конкретное значение, которое, ес- тественно, влияет на качество решения. Поэтому можно записать d(p) = u(y0',p). Следовательно, функция потерь с^х.и^Уд.р)) зависит от случайных величин х,р и случайного процесса Уог, поэтому при оп- 79
ределении среднего риска необходимо проводить усреднение по совме- стной ПВ р(х,ц,У), т.е. r(u) = ДОс(х,и(У,ц))р(х,ц,У)</хгфЛУ = = j[fJc(x,u(r,H))p(x,H|y)^g]p(y)</r = Jrpj(u)p(y)rfy, (3.18) где rps (u) = Дс(х!и(^ц))р(х,р|У)^ц (3.19) — апостериорный риск. Для квадратичной функции потерь (3.1) минимизация (3.19) дает оптимальное решение i = JJxp(x,ji|y)^p = JJv7(x|y,p)p(g|y)cWn = Ji(|i)p(p|y)Jn> (3.20) где х(ц) = ]хр(х|У,ц)</х (3.21) — условная оценка вектора х при фиксированном значении неинфор- мативных параметров ц. Используя формулу Байеса р(х,|1,У) = />(У|х,ц)р(х,ц), средний риск можно записать в виде г (и) = ]Дс(х,и(У,р.))р(х,ц,У)</хбДц/У - = JfJc(x,u(y,p))p(y|x,p.)p(x)p(p)c/x^y = fr(x,u)p(x)rfx> где F(x>u) = Дс(х,и(У,|1))р(У|х,ц)/?(ц)с/цх/У (3-22) — функция риска, которая отличается от (3.10) дополнительным усред- нением по неинформативным параметрам ц . В частном случае, когда в качестве функции с(х,и(У,ц)) выбира- ется простая функция потерь (3.4), оценкой, минимизирующей функ- цию риска (3.22), является оценка максимального правдоподобия, опре- деляемая из условия хм - argmax £(х), (3.23) X где Z(x) = /p(y|x,|i)p(pi)<4i. (3.24) 80
Формула (3.23) получается аналогично тому, как это сделано в (3.15). Для нахождения оценок максимального правдоподобия в этом слу- чае также можно использовать уравнение правдоподобия (3.17) с заме- ной £(х) на £(х),т.е. Э£(х) Эх х = хм = 0. (3.25) Отметим, что оценка (3.23) достаточно условно может быть названа «оценкой максимального правдоподобия», так как она использует апри- орную информацию о распределении _р(ц) неинформативных парамет- ров сигнала. «Классические оценки максимального правдоподобия» базируются на отказе от использования какой-либо априорной инфор- мации. И, строго говоря, их надо было бы получать в результате рас- смотрения функции правдоподобия р(к|х,ц), вводя расширенный век- X тор z = и рассматривая уравнение правдоподобия (3.17) относитель- но расширенного вектора z, что существенно усложняет задачу. В то же время, физически понятно, что наличие и использование любой ап- риорной информации позволяет улучшить качество формируемых оце- нок. Поэтому, если есть априорная информация о параметрах сигнала, то ее нужно использовать для формирования любых оценок, в том числе «оценок максимального правдоподобия» относительно информативного вектора х . В радиотехнических задачах априорные сведения о распре- делениях таких возможных неинформативных параметрах сигнала как начальная фаза и амплитуда известны. Поэтому относительно данных неинформативных параметров рассмотрение оценок в соответствии с (3.23) вполне оправдано. 3.5. Оптимальные решения при наличии случайных параметров сообщения «Неинформативные» случайные параметры могут быть присущи не только сигналу S(z,X(z)), но и сообщению X(z). Пусть сообщение Л. отображается в пространстве состояний вектором х, который является векторным марковским процессом. Положим, что процесс x(z) описы- вается, например, уравнением (1.82), в котором матрицы F(z) и/или 81
G(/) зависят от случайного векторного параметра а, постоянного за время наблюдения, т.е. F(a,z), G(a,z). В этом случае процесс x(a,z) и сообщение X(a,f) также зависят от случайного параметра а. Пара- метрами а могут быть, например, дисперсия сообщения, его ширина спектра и др. Если потребителя интересует само сообщение X, а не его отдельные характеристики, то для него параметры а являются неин- формативными. С точки зрения теории статистических решений данная задача пол- ностью эквивалентна той, что описана выше, т.е. задаче принятия реше- ния при наличии случайных неинформативных параметров сигнала. Поэтому, заменив в (3.18), (3.19) ц на а, получаем необходимые соот- ношения для среднего риска г(и) = /Дс(х,и(У,а))^(х,а,У)^ои7У- Jrps(u)p(y)t/y и апостериорного риска r/?s(u) = f[c(x,u(y,a))p(x,a|y)rfxzZa. (3.26) Оптимальная оценка вектора х при квадратичной функции потерь дается выражениями, аналогичными (3.20), (3.21) х = Дхр(х,а|У)б/х^а = jx(a)p(a|y)tZa, (3.27) х(а) = Jxp(x|y,a)rfx. (3.28) Соотношения (3.26)—(3.28) используются при синтеза адаптивных систем фильтрации, работающих в условиях, когда не полностью из- вестны априорные статистические характеристики сообщения. Контрольные вопросы к главе 3 1. Какое решение называется байесовским? 2. Чем байесовское решение отличается от минимаксного? 3. Чем байесовское решение отличается от решения максимального правдоподобия? 4. Чем отличается байесовское решение в задаче приема сигнала со слу- чайными неинформативными параметрами от аналогичного решения при приеме сигнала без неинформативных параметров? 5. Что такое апостериорная плотность вероятности и каково ее значение в теории статистических решений? 82
Глава 4 ОБНАРУЖЕНИЕ СИГНАЛОВ 4.1. Постановка задачи обнаружения сигналов Под обнаружением сигнала понимают анализ принятой реализации у (/) на интервале времени [О, Т] с целью принятия решения о наличии или отсутствии в ней полезной составляющей 5(/,Х), т.е. составляю- щей, несущей сообщение X, которая, в соответствии с определением п. 2.1, названа сигналом. Данное определение предполагает, что кроме сигнала в принятой реализации присутствуют другие составляющие, которые относят к помехам л(/). Взаимодействие сигнала с помехой (или помехами) может иметь достаточно сложный характер, что мате- матически может быть представлено функциональной зависимостью где f (х, у) — заданная функция двух переменных. В данной книге будет рассматриваться простейший случай адди- тивного взаимодействия сигнала и помехи, т.е. j(/) = 5(z,X)+»(z). (4.1) Математически задача обнаружения формулируется следующим образом. Пусть неизвестен факт наличия или отсутствия сигнала 5(z,X) в принятой на отрезке [О, Г] реализации у(0- Тогда можно записать 5(г,Х)+л(/), если сигнал присутствует, v ' л(/), если сигнал отсутствует. По наблюдаемой реализации случайного процесса y(t) и имею- щейся априорной информации требуется решить: присутствует или от- сутствует сигнал в наблюдениях. Задачу обнаружения можно сформулировать иначе, а именно — как задачу оценивания случайного параметра. Для этого принятую реализа- цию (4.1) запишем в виде у(/) = 05(/,Х)+л(/), /€[0,Т] . (4.2) 83
Параметр О полагается случайной величиной, которая может при- нимать одно из двух значений: 0 = 1 (что соответствует наличию сигна- ла в наблюдаемой реализации) с априорной вероятностью ; О = О (что означает отсутствие сигнала) с априорной вероятностью (1-Р(). При этом задача обнаружения формулируется как задача оценки значе- ния случайной величины О по наблюдениям (4.2). В дальнейшем, для удобства обозначения, реализацию у (г), t е [О, Т] будем обозначать Yq . 4.2. Обнаружение детерминированного сигнала Начнем рассмотрение задач обнаружения с наиболее простого слу- чая приема детерминированного сигнала S(i), т.е. сигнала с полностью известными параметрами, на фоне аддитивного БГШ n(t) с двусторон- ней спектральной плотностью Nq/2. 4.2.1. Байесовское решение. Простая функция потерь Нахождение байесовского решения предполагает задание статисти- ческих характеристик всех случайных величин и процессов. В рассмат- риваемой задаче имеется один случайный параметр О, который может принимать два значения: 0 и 1. Поэтому положим, что заданы априорные вероятности Рар (1) = Рар {13 = 1} наличия и Рар (0) = Рар {О = 0} отсутст- вия сигнала в принимаемом колебании, причем Рар (1)+Рар (0) = 1. Простая функция потерь для параметра, принимающего конечное число значений, описывается соотношением (3.5), из которого следует, что при правильном решении потери нулевые, а при неправильном — равны единице. Оптимальным правилом решения при простой функции потерь является такое решение (оценка О), для которой апостериорная вероятность максимальна. Так как параметр О может принимать только два значения (0 и 1), то имеем соответственно две апостериорных вероятности: P^i3 = 1|уог j — вероятность того, что сигнал присутствует в принятой реализации; 84
р(о = 0|У0г j — вероятность отсутствия сигнала в наблюдаемой реали- зации. При этом оптимальное решающее правило можно записать в виде «о 0=1, 0 = 0, при р(о=1|ГоГ)^(о=о|у0Г), при р(о = 1|у07’)<р(о = 0,У07’). (43) В соответствии с формулой Байеса (1.58), для апостериорной веро- ятности Р^о|у0г j можно записать соотношение р(о|у0г)=лра/,(о)р(у0г|о), где Рар (О) — априорная вероятность того или иного значения пара- метра О. Тогда сравнение апостериорных вероятностей в (4.3) может быть записано в виде p(tf)= р(1»г|а=1)^радо) р(уогр = о) М1) (4.4) где р[1(Г) — отношение двух условных ПВ; р(у0г|О = 1) — ПВ на- блюдаемой реализации при условии наличия в ней сигнала; P^Yq |0 = oj — ПВ наблюдаемой реализации при отсутствии сигнала. Данное отношение (данную функцию) называют отношением прав- доподобия. В (4.4) h — константа, получившая название порога срав- нения или просто порога. Таким образом, оптимальное байесовское правило обнаружения при простой функции потерь сводится к вычислению отношения правдо- подобия р(уог) и сравнению его с порогом. Оптимальное решающее правило (4.4) совпадает с известным в ли- тературе правилом, соответствующим критерию идеального наблюда- теля, и часто применяется в системах радиосвязи, когда известны ап- риорные вероятности Рар(1)и Ра/?(0). 85
4.2.2. Байесовское решение. Обобщенная функция потерь Обобщенная функция потерь, в отличие от простой функции, задает потери в более общем виде. В рассматриваемой задаче обнаружения возможны четыре ситуации: 1) сигнал в наблюдениях присутствует, и принимается решение, что сигнал есть; 2) сигнал в наблюдениях присутствует, но принимается решение, что сигнала нет; 3) сигнал в наблюдениях отсутствует, а принимается решение, что сигнал есть; 4) сигнал в наблюдениях отсутствует, и принимается решение, что сигнала нет. Пусть dx — решение о наличии сигнала (т.е. ft = 1) и d0 — реше- ние об отсутствии сигнала (т.е. ft = 0). При принятии правильного ре- шения (ситуации 1 и 4) естественно, как и раньше, полагать, что потерь нет, т.е. они равны нулю. При неправильном принятии решения (ситуа- ции 2 и 3) потери отличны от нуля. Пусть соответствующие потери рав- ны c(ft = l,rf0) = c10 —потери для ситуации 2 , a c(ft = O,</|) = col — потери для ситуации 3. Сформулируем исходную задачу обнаружения в эквивалентной форме: по наблюдениям текущей реализации (4.2), принадлежащей т множеству возможных реализаций Y (т.е. Уц е Y), необходимо выне- сти одно из двух взаимоисключающих решений: dQ или di. Решающее правило и(^о~) должно каждой реализации Yq eY по- ставить в соответствие одно из решений dit <=0,1, т.е. фактически разбить область возможных реализаций Y на две непересекающиеся подобласти Y| и Yo, которым соответствуют решения d^ и d0, при- чем Y] U Yo - Y, где U — знак объединения множеств. Формально это можно записать так: «ю- ft=l. ft = 0, если Yq е Y|, если Yq e Yo. Для нахождения байесовского решающего правила конкретизируем выражение (3.7) для среднего риска 86
г (и) = Рар (1) J с10р (Г(Г |d = \\dY + Pap (0) J с01Р(у0г |о = Ору, (4.5) Yo Y, где р (уог |0j — условная ПВ наблюдаемой реализации при заданном значении О. Учитывая, что области Y] и Yo взаимосвязаны, т.е. Y] = YVY0, а вероятностное пространств нормировано J p(Yq |брУ = 1, то справед- Y ливо равенство Рар (0) J Р = 1) = Рар (О)СО1 ~Рар (0) f С01 р (У0Т |f>= 1рУ , Y, Yo и выражение (4.5) можно представить в виде Ф) = {Рар (1) J clop(yor|d = \}1Y-Pap (0) J Coip(yor р = ОрУ} + Yo Yo +^(0)c0i = J {Pep(l)qOp(jo’|« = 1)-^(oW(^ |» = 0)рУ + +Pap(0)c0i. (4.6) Байесовское решение должно минимизировать средний риск г (и). Из (4.6) следует, что, если выражение, стоящее в фигурных скобках от- рицательно, то средний риск будет меньше, чем в том случае, когда это выражение положительно или равно нулю. Поэтому, определим область Yq таким образом, что для входящих в нее реализаций Yq выполняется условие Рар (О)сО1РроГ Р = 0)> Рар (l)qoP(l,o'|« = ») • <4-7> Учитывая, что выражения, входящие в (4.7) положительны, анало- гичное неравенство можно записать и для интегралов Рар (0) J ОПР (у0Г Р = Ору > Рар (1) J cl0p (yor р = 1ру. Yo* Yo' Покажем, что для решающего правила иорог), определяемого со- отношением (4.7), средний риск (4.6) имеет минимальное значение. Для этого возьмем любое другое решающее правило U] ( Yq ). Очевидно, что 87
для этого правила хотя бы для одной реализации Yff условие (4.7) не выполняется, т.е. вместо знака “>” имеет место знак “<” или “=”. По- скольку выражения, входящие в (4.7), положительны, то это приведет к тому, что значение Рар (0) j cOip(iff |О = ojc/У станет меньше, а Yo* Рар (1) J С]др(УдГ |0 = 1)<УУ — больше. Подставляя эти значения в (4.6), Yo’ получаем, что величина среднего риска увеличится. Отсюда следует вывод, что решающее правило (4.7) является оптимальным. При выпол- нении условия (4.7) принимается решение о том, что наблюдаемая реа- лизация относится к множеству Yo, которому соответствует принятие решения об отсутствии сигнала. Решение о наличии сигнала в наблю- даемой реализации принимается при выполнении обратного соотноше- ния, которое удобно представить в виде , п . МокО1 '°' />(УдГ|0 = о) (4.8) Таким образом, байесовское решающее правило обнаружения для обобщенной функции потерь описывается соотношением м0 (уо ) ~ если р(у0г)>Ло, если р(У0Г)<Лд (4.9) и сводится, как и выше, к вычислению отношения правдоподобия р(уог) и сравнению его с порогом Лд, величина которого изменилась и определяется не только априорными вероятностями наличия и отсутст- вия сигнала, но и значениями потерь при неправильных решениях. Отметим, что оптимальный алгоритм обнаружения для простой функции потерь получается из оптимального алгоритма для обобщен- ной функции потерь, если в нем положить потери при неправильных решениях равными, т.е. с01 = с10. 4.2.3. Небайесовское решение. Критерий Неймана—Пирсона Чтобы воспользоваться приведенными выше байесовскими реше- ниями (4.4), (4.9), необходимо знать априорные вероятности Рар (0 = 1) 88
и Рар(д = О) наличия и отсутствия сигнала. Однако на практике они часто бывают неизвестны, например, в задачах радиолокации. В этих условиях следует использовать небайесовские оптимальные решающие правила, одно из которых получается на основе критерия Неймана— Пирсона. Решающее правило Неймана—Пирсона, как и байесовское, разби- вает область всех возможных реализаций Y на две непересекающихся подобласти Y] и Yo, для которых принимается соответственно реше- ние о наличии и отсутствии сигнала. Однако выбор этих областей про- изводится из других соображений. В задаче обнаружения возможны два вида ошибок, со- ответствующие ситуациям 2 и 3 п. 4.2.2: ложная тревога, которую часто называют ошибкой 1-го рода, когда принимается решение о наличии сигнала в принимаемой реализа- ции, в то время как его на самом деле нет; пропуск сигнала, которую называют ошибкой 2-го рода, ко- гда принимается решение об отсутствии сигнала в принимаемой реали- зации, в то время как он есть. Введем вероятности ошибочных решений: вероятность ложной тревоги PF = P(d\ |i3 = 0) = p(y/ е Y] |i3 = 0 j; вероятность пропуска сигнала 0 - P(d0 |д = 1) = р(уог е Y] |т = 1 j. Величина PD = (1 - 0) есть вероятность правильного обнаружения. Согласно критерию Неймана—Пирсона оптимальным решением считается такое, которое обеспечивает максимум вероятности PD пра- вильного обнаружения (или, что тоже самое, минимум вероятности пропуска сигнала 0) при заданной вероятности ложной тревоги PF . Опуская строгое доказательство, приведем конечный результат: решающее правило Неймана—Пирсона и* (уог j также описывается вы- ражением (4.4) и заключается в вычислении отношения правдоподобия р(уог) и сравнении его с порогом. Однако величина порога h отлична от байесовского значения Л (или Aq ) и выбирается из условия р(р(уог ) > Л> = о) = р(у0Г g Y, |д=о) = Р^ , 89
т.е. вероятность того, что при отсутствии сигнала в принимаемой реали- зации Yq величина отношения правдоподобия превысит порог, долж- на быть равна вероятности ложной тревоги Рр . В отличие от байесовских критериев, в которых не выделялись ошибки 1-го и 2-го рода, а минимизировалась вероятность суммарной ошибки, в критерии Неймана—Пирсона вероятностям ложной тревоги (ошибка 1-го рода) и пропуска сигнала (ошибка 2-го рода) придается различное значение. А именно, ошибка 1-го рода жестко фиксируется, а ошибка 2-го рода — минимизируется. Конечно, в результате минимиза- ции ошибка 2-го рода становится минимальной. Однако абсолютное значение этой минимальной ошибки не контролируется и жестко не ограничивается. Такая ситуация характерна, например, для радиолока- ции, где “ложная тревога” и “пропуск сигнала” ведут к разным послед- ствиям, так как ложная тревога приводит к необходимости выполнения целого ряда мероприятий по защите, в то время как пропуск сигнала не приводит к какому-либо непосредственному действию, хотя и может повлечь серьезные последствия. 4.2.4. Формула для отношения правдоподобия Из приведенных выше результатов синтеза оптимальных обнаружи- телей, как байесовских, так и небайесовских, следует, что все они вы- числяют отношение правдоподобия и сравнивают его с порогом. Отли- чие при использовании различных критериев заключается лишь в вели- чине порога. Отношение правдоподобия определяется, в соответствии с (4.4), через условные ПВ наблюдаемой реализации при наличии и от- сутствии сигнала. Для большей наглядности изложения перейдем от непрерывных на- блюдений (4.1) к дискретным. Для этого разобьем интервал времени [0,7] равноотстоящими точками где к = 1, т . Сформируем дискретные отсчеты ук наблюдаемого процесс путем его усреднения на временном интервале Td 1 >к Ук =— J . (4.10) d ‘t-i 90
If/ 1 * Обозначим S^(X) =— J S(t,tydt, nk =— J n(t)dt, где X — Td 'ь-i Td '*-! постоянный (скалярный или векторный) параметр сигнала. Тогда можно записать Ук =sk(ty+nk • (4.11) Здесь пк — ДБГШ с нулевым МО и дисперсией J j H(vpv = _Td Г*_, Td /4_, М (4.12) = Л- J J ^[n(t}n(y)]dtdv = ^- Td tk-xh-x d Рассмотрим совместную условную ПВ совокупности отсчетов ук , к = 1,т р(у1,У2’->Ут |5Л (X),* = 1,т) = 1 1 ГО п = -----^7Гехр ~7Т " Sk ’= . 7 \т/£ ЭсГ I—1 т 2ап к=1 1 - ,т, (4.13) ;pexp' —77-X(л~sk(M)2Td • • k=l Запишем отношение правдоподобия для совокупности наблюдений Р т 1 £ 2 ехР)-----2 ЬУк ( = 2<fn *=1 = exp--^-S^(k)h'*- о„ k=i V (4.14) 91
При переходе к непрерывному времени нужно в (4.14) перейти к пределу при Td —> 0 и одновременном увеличении При этом совокупность дискретных отсчетов {у* переходит в отре- зок непрерывной реализации y(t), t е [О, Г], а (4.14) принимает вид р(г0Г) = ехр э Т ( 1 \ -М5(,,ф(,)-15(,.Х) Л . "оо к 2 ) Обобщение (4.15) на случай векторных наблюдений y(r) = S(r,A.) + n(r), (4.15) (4.16) где п(г) — векторный БГШ с матрицей двусторонних спектральных плотностей Nn/2, задаваемый выражением р(^оГ) = ехр- г / ] \ JsT(/A)2N;’ y(O--s(a)k/>. о \ 2 ) (4.17) В различных задачах статистической теории РТС кроме отношения правдоподобия часто рассматривается условная ПВ (4.13). При Td —>0 выражение для суммы, стоящее под знаком “ ехр ’’переходит в соответ- ствующий интеграл, а сомножитель перед экспонентой, строго говоря, стремится к бесконечности. Однако, поскольку данный сомножитель в задачах синтеза оптимальных систем приема и обработки сигналов не играет никакой роли (см., например, задачу обнаружения и формулу (4.14)), то обычно полагают следующее представление для условной ПВ наблюдаемой реализации в непрерывном времени где к — произвольная фиксированная константа. 4.2.5. Струюура оптимального обнаружителя Структура оптимального обнаружителя вытекает из формул (4.4) и (4.15). Учитывая, что отношение “неравенства” инвариантно относи- тельно монотонных преобразований, сравнение отношения правдоподо- бия с порогом в (4.4) можно заменить сравнением с порогом логарифма 92
отношения правдоподобия, что, с учетом (4.15), приводит к следующе- му алгоритму: 2 т 1п(р(з'))=—(4Л9) N0 о Обозначим через Е энергию сигнала, которую определим соот- ношением Т £ = f52(z)Jz. (4.20) о Тогда решающее правило (4.19) можно записать так: -LjJ(z)S(zy/>A+ln(Ao) = A. (4.21) М) о No Выражение, стоящее в левой части (4.21) определяет оптимальный алгоритм обработки наблюдаемой реализации у (z), который получил название оптимального приемника. Для выходного процесса и0П (l) оптимального приемника имеем Э t = ze[0,T], (4.22) 7V0 о Практическая реализация оптимального приемника возможна в двух формах. Первая — в форме коррелятора, структурная схема кото- рого приведена на рис. 4.1. Коррелятор представляет собой перемножи- тель двух сигналов и интегратор. Вторая форма вытекает из того факта, что выражение (4.22) определяет линейное преобразование реализации y(z). Поэтому оптимальный приемник можно предста- вить в виде линейного фильтра, получившего на- звание согласованного. Известно [3], что процесс u(z) на выходе ли- нейной системы (фильтра) с импульсной характеристикой g(z) описы- вается соотношением 2S(t)/N0 Рис. 4.1. Структурная схема оптимального приемника в форме коррелятора 93
u(f)=f>’(r-'t)^(^=J>’('c)g(/-'c)^- (4-23) о 0 Сопоставляя (4.22) и (4.23), получаем, что импульсная характери- стика согласованного фильтра определяется выражением g(r-z) = = 25(t)/V0. Так как в обнаружителе решение принимается в момент времени Т, то импульсная характеристика согласованного фильтра обнаружителя определяется как g(T -т) = 25(т)/ЛГ0 . Более подробно согласованные фильтры будут описаны в гл. 5. Определив структуру оптимального приемника, структура опти- мального обнаружителя реализуется в виде оптимального приемника, ключа, замыкающегося в момент времени t = Т , и устройства сравне- ния с порогом (рис. 4.2). Оптимальный приемник Отсчет при t=T Пороговое ~ к устройство ------------------‘ э = о Рис. 4.2. Структурная схема оптимального обнаружителя 4.2.6. Характеристики обнаружения Рассчитаем количественные характеристики оптимального обнару- жителя, под которыми понимают вероятность правильного обнаруже- ния PD и вероятность ложной тревоги Рр . Пусть сигнал присутствует в наблюдаемой реализации, т.е. у(/) = 5(/)+и(/). Тогда, в соответствии с (4.21) в момент времени t = Т на выходе оптимального приемника имеем СВ в виде 2 Г 9 Т (5 W+«W)5 (ХИТ > Л 0 О Л0 о которая получается в результате линейного (интегрирование) преобра- зования БГШ. Поэтому £| имеет гауссовскую ПВ ), МО /И] и дисперсия которой определяются выражениями 94
От] = М ] = М 1 т — \y{z)S(x)dx . о о 2 Т = м 7гИ5(т)+л(т))5(т)£/г .о о 2Е М) ’ 2Е V где Е — энергия сигнала, определяемая выражением (4.20). В отсутствие сигнала имеем y(z) = n(z) и на выходе оптимального приемника в момент времени t = Т получаем СВ 2 Т 2 7 Л'о 0 Л0 о которая также имеет гауссовскую ПВ р0 (£0 ) с параметрами [п т 2F £б = — J ,V0 Плотности вероятности р} ) и р0 (£0) изображены на рис. 4.3. Рис. 4.3. Гауссовские ПВ при наличии и отсутствии сигнала Рассмотрим обнаружитель, соответствующий критерию Неймана— Пирсона. Согласно этому критерию задается вероятность ложной трево- ги Рр , т.е. вероятность превышения СВ £,0 порогового уровня h Рр = 1 Ро(^)^-1-Ф ~г=^= i к/2?7м (4-24) 95
1 х где Ф (%) = -= j >/2л «Г dt — интеграл вероятности. Вероятность правильного обнаружения р =/Р!т=1-ф Л J2E/NO /2Ё' (4.25) Из формулы (4.24) следует, что вероятность ложной тревоги Рр однозначно определяется отношением порогового уровня h к величине отношения q = Е / Nq энергии сигнала к односторонней (физической) спектральной плотности аддитивного шума, которое в дальнейшем бу- дем называть отношением сигнал/шум (с/ш). Поэтому при заданной вероятности ложной тревоги Рр и известном отношении сигнал/шум q из (4.24) однозначно определяется требуемая величина порога Л и, в соответствии с (4.25), — вероятность правильного обнаружения. Таким образом, можно рассчитать зависимости (<?) при фикси- рованной вероятности ложной тревоги, которые называют кривыми об- наружения (рис. 4.4). Пользуясь кривыми обнаруже- ния, можно определить пороговое отношение с/ш, т.е. величину , для которой при заданной вероят- ности ложной тревоги Рр обеспе- чивается требуемая вероятность правильного обнаружения Рр. На основании полученных ре- зультатов можно сделать важный вывод о том, что характеристики обнаружения детерминированного сигнала при оптимальном приеме не зависят от формы сигнала, а оп- Рис. 4.4. Кривые обнаружения детерминированного сигнала ределяются величиной отношения с/ш. На практике детерминированные сигналы, как правило, не встреча- ются. Поэтому, приведенные результаты следует рассматривать как верхний (теоретический) предел для характеристик обнаружения (по- тенциальные характеристики). 96
4.2.7. Обнаружение сигналов при коррелированной помехе При выводе оптимального решающего правила (4.4) использова- лись лишь общие положения теории статистических решений и не ис- пользовались конкретные статистические свойства помехи. Поэтому общее решающее правило, заключающееся в вычислении отношения правдоподобия и сравнения его с порогом, справедливо и в том случае, когда помеха коррелированна. Следовательно, структура оптимального обнаружителя, приведенная на рис. 4.2, справедлива и в этом случае, меняется лишь структура оптимального приемника, которая определя- ется видом функции правдоподобия. Функция правдоподобия при коррелированное помехе. Получим выражение для отношения правдоподобия при наблюдении сигнала на фоне помехи, имеющей функцию корреляции: М[«('1Н'2)] = М'Ь'2)- (4-26) Для стационарной помехи R„ (/], /2) = R„ (<2 _ ) = (т) > * ~ *2 _ - Как и в п. 4.2.4, перейдем к дискретному времени и рассмотрим дискретные наблюдения (4.10), в которых = Ry . Тогда гаус- совскую совместную условную ПВ (4.13) можно записать в виде Р(У1,У2>•••>Ут (М>k = !>т) = 1 (2л)т/2 л/det R где R = {я^ } — корреляционная матрица помехи. При отсутствии сигнала совместная условная ПВ получается из (4.27), если в нем положить (1) = 0. Учитывая это, выражение для отношения правдоподобия в дискретном времени имеет вид 1 т т . ехР 4Е Zb-^(X))(R)-' ^-S7(X)) s (4.27) 2*=i;=i р(г)= ехр. (4.28) При Td —> 0 и одновременном увеличении т —»°° совокупность дискретных отсчетов {у* }Л_— = ^im переходит в отрезок непре- рывной реализации y(f), t е [0,7’], а (4.28) принимает вид 4—2041 97
где функция — обратная корреляционной матрице помехи (4.26), определяется из уравнения т J (t,t2 )dt = 5(^2 ). (4.30) о Обобщение (4.29) на случай векторных наблюдений (4.16) дается выражением p(Yor) = exp J JST01’MRn' (zl>f2)fy(i2)~TS(/2’^)^i^2 ' 00 К 1 ) (4.31) где R„ —корреляционная матрица вектора аддитивных помех. Алгоритм работы обнаружителя при коррелированной помехе. Вернемся к задаче обнаружения сигнала, наблюдаемого на фоне корре- лированной помехи. Воспользуемся формулой (4.29) для отношения правдоподобия, и, переходя, как и раньше, от отношения правдоподо- бия к логарифму, запишем решающее правило в виде ТТ J J 5 (А К1 (А ,'г ) J('2)- ? + In (Ло) = А, (4.32) 00 I ТТ где ч = zJP('№ • 2 00 Рассмотрим случай стационарной помехи, т.е. Rn (t2 Ji) = = (f2 _fi)= Rn 01 ~12) > и представим левую часть неравенства (4.32) в виде МО K’O-'iWiИ о [о (Л. (4.33) Выражение, стоящее в фигурных скобках (4.33), является функцией от t, т.е. т П(') = JV 0-'1 )•?('! М- о т Тогда формула (4.33) принимает стандартный вид j у (r)r|(t)dt, со- о ответствующий прохождению процесса y(t) через корреляционный 98
приемник с опорным сигналом Т| (г) или согласованный фильтр с им- пульсной характеристикой g(7’-T) = r|(T). Структурная схема оп- тимального приемника с корреля- ционной обработкой приведена на рис. 4.5. Для нахождения опорного сиг- нала T](z), поступающего на вто- рой вход коррелятора, умножим (4.30) на 5(z2) и проинтегрируем от 0 до Т Рис. 4.5. Структурная схема опти- мального приемника в форме коррелятора Т Т Г j/f„(z-Z1)' J-Kn’(z-Z2)5(z2)t/Z2 = jS(f2)3(f2~'l)^2 • о lo Jo Из данного уравнения получаем интегральное уравнение Фред- гольма 1-го рода для определения процесса p(z) т = (4.34) о В частном случае некоррелированной помехи имеем R (t - Z[) = = N0/28(t-q) и уравнение (4.34) дает полученный ранее результат n(z) = 2S(z)/#0- В общем случае решение уравнения (4.34) является достаточно сложной задачей. Поэтому на практике часто ищут приближенное ре- шение. Прежде всего полагают, что время корреляции помехи сущест- венно меньше времени Т наблюдения сигнала. При этом пределы ин- тегрирования в (4.34) можно заменить на бесконечные, т.е. рассматри- вать уравнение вида I ^(z-z1)n(z)^z = 5(z1). (4.35) Решение такого уравнения существенно проще и может быть вы- полнено, например, известным способом, основанном на применении преобразования Фурье. Пусть (у©), (усо), Sn (<о) — преобразования Фурье для 99
функций S(/), T](t), Лл (г) соответственно. Тогда, применяя к (4.35) преобразование Фурье, получим 5л(“Ип(>(0) = 5Л>) или /Cn(j(D) = SJ(j(fl)/S„((o). (4.36) Данное выражение определяет структуру физически нереализуемо- го фильтра, так как нули и полюса функции (Jco) лежат как в ниж- ней, так и в верхней полуплоскости комплексного переменного со. Тем не менее, оно может быть полезным для физического понимания про- цессов, происходящих в оптимальном фильтре. Пусть, например, поме- ха представляет собой аддитивную смесь белого шума и узкополосной помехи на частоте соп . В этом случае спектр (со) такой комбиниро- ванной помехи будет иметь вид S# (со) = N0/2 + Sn (со,, - со). Тогда из (4.36) имеем *nW = ^/2 + S^cOn-co)' Из данного выражения следует, что оптимальный согласованный фильтр подавляет те составляющие спектра, где расположена узкопо- лосная помеха, т.е., по сути дела, получаем хорошо известный режек- торный фильтр. Вывод выражения для комплексного коэффициента передачи опти- мального физически реализуемого фильтра можно найти в [13]. Рассмотрим другой метод решения задачи обнаружения сигнала на фоне коррелированной помехи, приводящий к иной структуре опти- мального приемника и получивший название “метод выбеливания”. Идея метода основана на предварительном преобразовании наблюдений у (с) таким образом, чтобы после преобразования аддитивная помеха стала некоррелированной (белым шумом). После этого можно исполь- зовать оптимальный алгоритм обнаружения на фоне белого шума. Такая процедура не нарушает свойства оптимальности алгоритма в случае, если используемое линейное преобразование обратимо. Докажем этот факт. Пусть имеется оптимальная система (в нашем случае оптимальный обнаружитель), которую будем называть системой 1 (рис. 4.6, а). 100
У@ й Система! OStsr (отжмаяыаж) выход 1 ишж2 xvr OStSF 0 уС).^ Г ------► Сястема 1 OSrSFl____________ выход 3 «) Рис. 4.6. Структурные схемы оптимальных систем: а — оптимальная система; б — система с предварительным обратимым преобразованием; в — оптимальная система для обработки z(t) На выходе системы получаем оптимальное решение в соответствии с заданным критерием. В системе 2, приведенной на рис. 4.6, б, над входным процессом сначала осуществляется обратимая операция с целью получения z(t), содержащего аддитивный белый шум. Затем строится система, которая выполняет над z(t) оптималь- ную операцию (в нашем случае оптимальное обнаружение) в соответ- ствии с тем же критерием, что и в системе 1. Докажем, что на выходе системы 2 также имеем оптимальное решение. Очевидно, что система 2 не может давать решение, средний риск для которого меньше, чем у сис- темы 1, так как это противоречило бы утверждению о том, что система 1 оптимальна. Теперь покажем, что система 2 не может быть хуже, чем система 1. Если бы это было так, то можно было бы построить систему, показанную на рис. 4.6, в, которая осуществляет над z(r) операцию /-1 (t,z(/)) , обратную /(г,у(т)), с целью получения процесса у(т), а затем пропускает у(т) через систему 1. Такая совокупная система бу- дет работать так же хорошо, как система 1 (они идентичны по входу и выходу). Так как решение, формируемое на выходе системы, приведен- ной на рис. 4.6, в, получается путем операции над z(/), то оно не может быть лучше, чем в системе 2. Иначе это будет противоречить утвержде- нию о том, что вторая операция в системе 2 является оптимальной. Поэтому система 2 не может быть хуже, чем система 1. В качестве предварительного преобразования наблюдаемого про- цесса выберем линейное преобразование, т.е. линейный фильтр с изме- 101
няющимися во времени параметрами и импульсной характеристикой так что t t t z(r) = ]Л(г,т)у(т)^т = |й(г,'с)5(гД)</т+J/i (г,т) л (т)<7т = оо о = 5(гД)+й(/), где Л/[й(г)й(г+т)] = #0/25(т). Из данного выражения следует, что процесс z(r) представляет со- бой аддитивную смесь “нового” сигнала 5(/,Х) и белого шума «(/). Поэтому в последующем оптимальном приемнике обнаружителя в каче- стве опорного сигнала следует использовать 5(/,Х). Схема оптималь- Рис. 4.7. Структурная схема оптималь- ного приемника при коррелиро- ванном шуме наблюдения ного приемника обнаружителя для случая коррелированной по- мехи принимает вид, приведен- ный на рис. 4.7. Структурные схемы рис. 4.5 и рис. 4.7 эквивалентны по входу и выходу и являются двумя ва- риантами построения опти- мального приемника для корре- лированного шума наблюдения. 4.3. Обнаружение сигнала со случайными параметрами В гл. 2 (формула (2.12)) описана одна из широко используемых мо- делей сигналов - сигнал, представляющий собой детерминированную функцию, в которой один или несколько параметров являются СВ. Та- кие сигналы называют квазидетерминированными (см. гл. 2). Если из указанных случайных параметров не извлекается информация, то они еще называются неинформативными. Естественно, что наличие случай- ных параметров у сигнала затрудняет их обработку, в том числе и обна- ружение, и требует получения новых оптимальных алгоритмов. 4.3.1. Общее решение задачи обнаружения сигнала со случайными параметрами Пусть наблюдается реализация 102
у(?) = д5(г,ц)+л(г), 0<t<T, где |1 — случайные неинформативные параметры сигнала с априорной ПВ р0Д|1). Рассмотрим для простоты байесовское решение для простой функ- ции потерь. В п. 4.2.1 показано, что оптимальное решающее правило соответствует выбору оценки О, для которой апостериорная вероят- ность максимальна. Пользуясь свойством согласованности ПВ (1.18), можно записать p(yo 1^) = / = к(гоГ • Тогда отношение правдоподобия Р^сГ) (4.4) может быть записано в виде РРЬ ) - " , т.----Г =-------7~у.-----7------- v ' р(т0 |^ = о) р(УсГ 1^ = 0) = Jp(yor|p)pap(liHp, (4.37) где р (iff ||Х j — отношение правдоподобия при фиксированных значе- ниях параметров ц ; здесь учтено, что при отсутствии сигнала наблюде- ния не зависят от параметров |1. Далее, в соответствии с (4.4), отношение правдоподобия (4.37) не- обходимо сравнить с порогом, величина которого такая же, что и в за- даче с полностью известным сигналом. Структура оптимального обнаружителя в рассматриваемой задаче получается такой же, что и на рис. 4.2. Изменяется только структура оптимального приемника. Для получения структуры оптимального при- емника необходимо конкретизировать сигнальную функцию и неин- формативные параметры. В радиотехнических задачах сигнальную функцию можно записать в обобщенном виде S'(r,l,p.) = tL4(r)cos(<B0r+<p(r)+(p0), (4-38) где а — амплитуда сигнала; A (f) — функция амплитудной модуляции сигнала; coq — несущая частота сигнала; <р(/) — функция фазовой мо- дуляции; фо — начальная фаза. 103
В задаче обнаружения сигнала в качестве неинформативных слу- чайных параметров будем рассматривать амплитуду а и начальную фазу Фо • 43.2. Оптимальный приемник обнаружителя сигнала со случайной начальной фазой Пусть амплитуда сигнала известна, а начальная фаза неизвестна и распределена по равномерному закону (1.4) на интервале [-л,л]. Вы- числим усредненное отношение правдоподобия (4.37). С учетом (4.15) запишем </ф0 = 1 я । 7* 2 = — J ехр-!-—/[аЯ(/)со8(<о0/ + ф(/)+ф0)] dt ^я-я М) 0 X 2 T хехр17г1->'(/)аЛ^)с08(<йо/+ФО)+(Ро)Л >*Po = ,M) о aa2 2a =expb^-h| 1=ехрЬ1Н/о|тг*(7') ’ <4-39> 2М> IM) J MJ IM) 2M M> E M где Z0(p) —функция Бесселя нулевого порядка от мнимого аргумента, X2(t) = X2(t)+X2(t), (4.40) ХС (0 = Jy(т)Л(t)cos(coot+ф(т))(/т, о М О) = fy (т)А (М) sin(“от+<РСО)dx, (4.41) о т a = J Л2 (x)dx. (4.42) о Здесь при вычислениях была использована формула (2.20) для таблич- ного интеграла и принято допущение о том, что несущая частота <0q сигнала достаточно высокая, так что выполняется условие со^Т »1. 104
Функция X(t), определенная формулой (4.40), представляет собой огибающую выходного колебания согласованного фильтра, a Xc(t) и Xs (t), определяемые формулами (4.41), являются квадратурными со- ставляющими этого колебания. Величину а, описываемую (4.42), на- зывают эквивалентной длительностью сигнала. При этом энергия сиг- нала, определяемая в общем виде формулой (4.20), может быть пред- ставлена как Е = а2а / 2. Поскольку функция Бесселя, входящая в (4.39), является монотон- ной функцией своего аргумента, то сравнение отношения правдоподо- бия с порогом можно заменить сравнением аргумента с соответствую- щим порогом, так что оптимальное решающее правило принимает вид X(T)>h, (4.43) ( ( 1\\ r No ! аа гдеЛ=—10 Лехр —— . 2а 2N0 \ \ J J Из (4.43) следует, что оптимальный приемник обнаружителя сигна- ла с неизвестной начальной фазой, получивший название “некогерент- ного” (так как в нем не используется информация об истинном значении фазы сигнала), должен выделять огибающую на выходе согласованного фильтра. Структурная схема оптимального приемника, которую часто называют фильтровой, приведена на рис. 4.8. Рис. 4.8. Фильтровая схема оптимального приемника Другая возможная реализация оптимального приемника основана на прямой реализации отношений (4.40), (4.41). Соответствующая схема, называемая схемой квадратурного приемника, приведена на рис. 4.9. J(r)coe(<otr/+1p(/)) Рис. 4.9. Схема квадратурного приемника 105
Два канала квадратурного приемника позволяют получить величи- ны Хс и Xs, определенные выражением (4.41). Последующие нели- нейные преобразования выходных колебаний этих каналов формируют огибающую X. Выше был рассмотрен синтез байесовского оптимального обнару- жителя при простой функции потерь. Аналогичные по структуре реше- ния получаются при использовании обобщенной функции потерь и при использовании критерия Неймана—Пирсона. Вычислим количественные характеристики обнаружения. Из фор- мул (4.41) следует, что случайные величины ХС(Т} и XS(T} распре- делены по нормальному закону с условными МО тс=М [Хс |<р0 ] = 0,5аа cos (ф0 ), ms = М [X, |фо ] = 0,5аа sin (фОа) и одинаковыми дисперсиями £>5=Ос = О = А0а/4. (4.44) Величины Xs и Хс можно считать практически независимыми, так как взаимокорреляционная функция между ними приближенно равна нулю т М tXsXc ] = -V Р2 (')sin (2 (<Щ + <р(/)))л = о. 2 О Поэтому при наличии сигнала ПВ р\(Х) случайной величины X = ^Х2 + Х2 определяется законом Райса (1.11) 4Х Х2+(0,5аа)2> N0a/2 /0| — I М) (4.45) При отсутствии сигнала случайные величины Xs и Хс также неза- висимы, распределены по нормальному закону с нулевыми МО и оди- наковыми дисперсиями (4.44). Поэтому ПВ pQ (X) случайной величины X = у]Хс + Х2 будет рэлеевской (1.9): 2Х2' Аоа 4Х Ро(х) = ^—е*Р - Аоа Для получения характеристик обнаружения воспользуемся критери- ем Неймана—Пирсона. Тогда по заданной вероятности ложной тревоги 106
£ 2 4X PF = \po(X)dX = j^-exp - h где Ao=_L.________ 4Б jNoa/4 ’ hNoa 2X2 ' Noa dX = exp - (4.46) (4.47) h определяется нормированный пороговый уровень Aq , для которого за- тем вычисляется вероятность правильного обнаружения °° °° 4Х PD = $Pl(X)dX=l—-exp -2 h h Noa %2+(0,5aa)2 1 (2aX °( No = J uexp - A 0 \ u2+2E/N0 2 (4.48) Результаты расчетов по формулам (4.46)—(4.48) представлены на рис. 4.10 сплошными ли- ниями, пунктирными ли- ниями приведены аналогич- ные зависимости для полно- стью известного сигнала. Характеристики обна- ружения сигнала со слу- чайной фазой лежат правее соответствующих характе- ристик для детерминиро- ванного сигнала. Следова- тельно, одна и та же вероят- ность правильного обнару- жения для сигнала со слу- чайной фазой достигается Рис. 4.10. Характеристики обнаружения для сигнала со случайной фазой при большем значении отношения с/ш, чем для детерминированного сиг- нала. Однако, это различие не очень существенно (~ 1 дБ по мощности). 43.3. Оптимальный приемник обнаружителя сигнала со случайными амплитудой и начальной фазой Пусть теперь сигнал имеет случайную начальную фазу, распреде- ленную по равномерному закону, и случайную амплитуду, распреде- 107
ленную по рэлеевскому закону (1.9). Тогда, в соответствии с общим решением (4.37), отношение правдоподобия необходимо усреднить по начальной фазе и амплитуде. Усредненное по начальной фазе отноше- ние правдоподобия определяется выражением (4.39). Усредним его по амплитуде NQ ----2ехр1 У0+«Оа I 2\Х2^' У0(ЛГ0+«<*о) где X(t) — по-прежнему описывается выражениями (4.40)—(4.41) и представляет собой огибающую на выходе согласованного фильтра. Вводя среднюю энергию сигнала Ё = М [Я] = 0,5<хЛ/ [а2 ] = ао2, выражение (4.49) можно переписать в виде 2£/У0 Уоа(1 + Ё/ЛГо) Так же как и раньше, учитывая монотонный характер квадратичной функции и экспоненты, можно перейти от отношения правдоподобия к аргументу Л" (Г) и записать решающее правило в том же виде, что и (4.43): |%(Т)|>Л‘, где 1 ---=---ехр \+E/N0 (4.49) (4.50) (4.51) (4.52) (4.53) = Noa(l + E/No) У 2E/Nq Так как алгоритм обработки (4.52) не изменился, то и структура оп- тимального приемника обнаружителя сигнала со случайными начальной фазой и амплитудой также не изменилась и может быть представлена в фильтровой форме (см. рис. 4.8) или в форме квадратурного приемника (см. рис. 4.9). 108
Идентичность структур оптимальных приемников, однако, не озна- чает, что соответствующие обнаружители имеют одинаковые характе- ристики обнаружения. Дело в том, что изменилась величина порога h* (4.53), а, следовательно, и вероятности превышения (или не превыше- ния) порога. Поэтому рассчитаем характеристики обнаружения, напри- мер для критерия Неймана—Пирсона. При отсутствии сигнала ситуация не изменилась, следовательно можно воспользоваться формулой (4.46). При наличии сигнала ПВ СВ Х(Т) может быть получена усредне- нием выражения для ПВ той же величины для задачи обнаружения сиг- нала со случайной начальной фазой (4.45) / уЛ 7 ехр - о Noa X2 +(0,5аа)2 1 f 2аХ N0a/2 No da = 4X 2X2 —7--------\exP 7-----------\ а(аод+^) а(ас^+7\70) 4X 2x2 aNQ (E/No +1) eXP[ аУ0 (Ё/Nq +1) Вероятность правильного обнаружения определяется как PD="jpi(X)dX = cxp h 2^1 + а<^/ No = ехр 2(1+ £/^) (4.54) где Ло определяется выражением (4.47), & Ё — формулой (4.50). Из (4.54) и (4.46) можно получить следующее соотношение, связы- вающее вероятности ложной тревоги и правильного обнаружения (4.55) Характеристики обнаружения, рассчитанные по формуле (4.55), приведены на рис. 4.11 сплошными линиями, а аналогичные характери- 109
стики для задачи обнаружения детерминированного сигнала — пунктирными линиями. Из приведенных зависимо- стей следует, что при больших вероятностях правильного об- наружения наличие случайной амплитуды приводит к замет- ному ухудшению характери- стик обнаружения. Рис. 4.11. Характеристики обнаружения для сигнала со случайными амплитудой и фазой 4.3.4. Обнаружение временного сигнала со случайными начальной фазой, амплитудой, временем запаздывания и смещением частоты Для большинства РТС характерна ситуация, когда кроме неизвест- ных (и случайных) начальной фазы и амплитуды неопределены также и время запаздывания т и смещение частоты <од, обусловленное, напри- мер, эффектом Доплера. Общее решение задачи обнаружения сигнала в этом случае достаточно сложно, поэтому рассмотрим приближенный подход, который часто используется в теории оптимального оценивания. Для решения поставленной задачи необходимо уточнить модель сигнала (4.38). Положим, что на передающей стороне излучается сигнал вида S (Z.A., ц) = а0А (t) cos (city + ф(/) + ф0), где а0 —амплитуда излученного сигнала; Л (г) —функция амплитуд- ной модуляции; cdq — несущая частота; ф(г) — функция фазовой мо- дуляции; ф0 — начальная фаза. На входе приемника (после прохождения среды распространения) сигнал описывается выражением (2.7), которое для небольших интерва- лов времени, характерных для задачи обнаружения сигнала, может быть представлено в виде £(/,А.,ц) = аЛ(г-т(г))со8{сЦ)(,-т(1))+ф(/-т(г))+у0), (4.56) 110
где а — случайная амплитуда; у0 — случайная начальная фаза; t(z) — задержка сигнала. При взаимном движении передатчика и приемника задержка сигнала является функцией времени, которую часто аппрок- симируют параболой, т.е. T(/) = 'r0 + V + V2/2- (4.57) Как было показано ранее, в обнаружителе осуществляется корреля- ционная обработка сигнала на интервале времени Т, типичное значение которого Т = 2 ... 10 мс. Положим, что скорость сближения приемника и передатчика Ксб = 200 м/с, а ускорение сближения = 50 м/с2. Дан- ные значения параметров движения характерны, например, для самоле- тов. Тогда в (4.57) второе слагаемое равно \/cq [с], где cq - скорость света, а третье слагаемое — 6,25 10^ /с0 [с], т.е. на три порядка мень- ше. Поэтому для задач обнаружения сигналов вместо (4.57) с достаточ- ной степенью точности можно полагать т(/) = т0+т0/. (4.58) Модель (4.58) имеет два параметра: т0 — начальная задержка сиг- нала; т0 — скорость изменения задержки. Данные параметры в общем случае являются случайными величинами. Подставляя (4.58) в (4.56), получаем 5(/Д,ц) = = аА (t - т0 + toz) cos (o)q (t - т0 - т0/)+<р(/ - т0 + t0Z)+Yo ) • (4-59) Выражение (4.59) можно еще более упростить, если принять во внимание следующее: задержка, обусловленная вторым слагаемым в (4.58), составляет ~ 3 нс, что несущественно для выделения информации из законов амплитудной и фазовой модуляции, так как это сопоставимо с погрешностью соот- ветствующих средств временной синхронизации; поэтому ее можно не учитывать; составляющая «\)Т0 может быть отнесена к случайной фазе сигнала Vo! введем <Ио^0 = шд = 2л/д > где /д — доплеровское смещение часто- ты сигнала. С учетом сделанных допущений получаем окончательную модель сигнала в виде 111
S (t Д,ц) = aA (t - x0 )cos ((«о + шд )t + <p(t - x0 )+Vo ) > где имеются четыре случайных параметра: амплитуда а ; начальная фа- за ф0; задержка т0, которую для удобства будем обозначать просто х; доплеровское смещение частоты сод. Для строгой постановки задачи необходимо задать вероятностные характеристики данных случайных величин. Для амплитуды и фазы сигнала они были определены выше, для двух других параметров за- дадим их в общем виде: р(х), хе [x^.x^] и р(о>д), >®дтах ] • В соответствии с общим принципом синтеза оптимальных обнару- жителей при наличии случайных параметров сигнала необходимо ус- реднить условное отношение правдоподобия по (4.37) этим параметрам. Усреднение по амплитуде и фазе было выполнено ранее. Строгое ус- реднение по двум другим параметрам затруднительно, поэтому сделаем следующее допущение. Заменим непрерывные области возможных зна- чений задержек и доплеровской частоты наборами дискретных значе- ний Х|,х2,...,хл и С0д1,<0д2> -,й)дт с заданными вероятностями Р(х,), i = 1,л и Р(сод?), j = \,m. Для такой постановки задачи усредненное отношение правдоподобия (4.37) принимает вид P(tf)= S I )p(tf |Ъ-.юду ), (4.60) 1=1 j=\ где условное отношение правдоподобия р^Уог |х,,<оду j соответствует ситуации, когда параметры х(-,а)ду фиксированы и выполнено усредне- ние по случайным амплитуде и фазе сигнала, что, по сути, соответству- ет решению задачи, приведенному в п. 4.3.3 при заданных значениях Выражение (4.60) описывает многоканальный приемник, состоящий из пхт каналов, в каждом из которых стоит корреляционный прием- ник (рис. 4.12). Канальный корреляционный приемник осуществляет корреляцион- ную обработку сигнала со своими значениями параметров задержки х, и доплеровской частоты соду . Сформированные значения квадрата оги- 112
бающей ij подвергаются экспоненциальному преобразованию в соот- ветствии с (4.51). Сформированные таким образом значения условных отношений правдоподобия р(уог |т(-,соД7) умножаются на априорные вероятности Р(тг), Р(<оД7) и суммируются в соответствии с (4.50). Полученное значение сравнивается с порогом h (4.4). АО - ч)со»((»о + + Ч>(' - ч)) Рис. 4.12. Схема канального корреляционного приемника Заметим, что в рассматриваемой схеме не удается перейти от от- ношения правдоподобия к их логарифмам, как это было сделано в п. 4.3.1—4.3.3. Другим существенным моментом является то, что при решении задачи обнаружения сигнала не ставиться задача оценки пара- метров, таких как задержка и доплеровская частота, поэтому обнаружи- тель является в принципе многоканальным. Задача оценки параметров сигнала будет рассмотрена в гл. 7. 4.4. Обнаружение сигнала по дискретной выборке Современные приемники радиосигналов все в большей степени пе- реходят на принципы цифровой обработки сигналов. Так, например, приемники сигналов спутниковых радионавигационных систем ГЛО- НАСС и GPS используют цифровую обработку сигналов, начиная с по- следней промежуточной частоты ~ 4 МГц. Поэтому задача обнаружения сигнала часто решается для оцифрованного сигнала. Как отмечалось в п. 2.1, различают два типа сигналов, связанных с переходом от аналоговой к цифровой обработке. Во-первых, это сигна- лы, непрерывные по амплитуде и дискретные по времени, а во-вторых, — сигналы, дискретные по времени и по уровню, которые и являются цифровыми. 113
Наиболее просто задача обнаружения сигнала решается для непре- рывных по амплитуде и дискретных по времени сигналов. Обнаружение непрерывного по уровню и дискретного по времени сигнала. Пусть наблюдается дискретная выборка yk =’&S/l(X)+nk, kel,m, (4.61) где А, — вектор постоянных параметров сигнала; пк - ДБГШ с нуле- вым МО и дисперсией (4.12). Рассмотрим задачу обнаружения полностью известного сигнала, т.е. положим Sj (А.) = 5,. Обратимся к теории статистических решений (гл. 3) и еще раз отметим тот факт, что она оперирует с общими понятиями теории вероятностей и наблюдаемой реализацией Y. Причем тип вы- борки (непрерывная реализация или совокупность отсчетов) не имеет принципиального значения. Поэтому, заменив в рассуждениях непре- рывную реализацию Y? на дискретную выборку Y™, легко можно по- лучить те же самые результаты. Рассмотрим байесовский критерий обнаружения и простую функ- цию потерь. В этом случае оптимальное решающее правило, по- прежнему, имеет вид -(г0")= 0=1, при 0 = 0, при р(гот)<Ло и сводится, как и выше, к вычислению отношения правдоподобия р^У”'j и сравнению его с порогом h . Величина порога определяется априорными вероятностями наличия и отсутствия сигнала (4.4). Для отношения правдоподобия справедлива формула (4.14). Учиты- вая монотонность функции “ ехр ”, решающее правило можно записать для логарифма отношения правдоподобия, т.е. аналогично (4.21): 1 т F — +1п(М> (4.62) *=1 2о„ т 2 где Е = У Sk — мощность отсчетов сигнала на интервале наблюдения. *=1 114
Структурная схема оптимального обнаружителя, по-прежнему, имеет вид, приведенный на рис. 4.2, и включает оптимальный прием- ник, ключ и пороговое устройство. Оптимальный приемник реализует алгоритм левой части формулы (4.62) и может быть выполнен по схеме коррелятора, включающего перемножитель наблюдаемых отсчетов ук с опорными Sk /а„ и сумматор, или по схеме согласованного фильтра с импульсной характеристикой g (>и - /) = S,. При наблюдении сигнала на фоне коррелированной помехи с функ- цией корреляции Ry = М[п/Иу]алгоритм оптимальной обработки (4.62) принимает вид т т _1 т т . Е Z У. М Sj >0-5Z I Si (R)-1 Sj +ln(Ao). (4.63) 1=1 у=1 7 1=1 j=\ Для стационарной помехи имеем Ry = . Обозначим т 1 Т], = z R-ljSj . 7=1 Тогда левую часть формулы (4.63) можно представить как т ит = ^ ЛЛ; 1 а оптимальный приемник при коррелированной помехе <=1 представляет собой коррелятор наблюдаемых отсчетов с опорным сиг- налом Т|(, т.е. имеет такой же вид, что и для аналогового сигнала (см. рис. 4.5). Аналогично тому, как это было сделано в п. 4.2.7, можно по- лучить реализацию оптимального приемника по схеме рис. 4.7 с обе- ляющим фильтром. При записи наблюдаемого процесса в виде (4.59) не конкретизиро- валось, каким образом получены дискретные отсчеты ук. Если при синтезе обнаружителя желательно более полно учесть используемый алгоритм дискретизации по времени, то это можно сделать. Проиллюст- рируем это на примере задачи обнаружения сигнала со случайными ам- плитудой и фазой, а в качестве алгоритма формирования дискретных отсчетов из непрерывного сигнала выберем (4.10), т.е. усреднение на интервале дискретизации Tj. Пусть на вход системы обработки поступает реализация y(t), в ко- торой сигнальная функция определяется соотношением (4.38). В ре- 115
зультате временной дискретизации процесса >>(/) в соответствии с ал- горитмом (4.10), образуется последовательность значений ук вида (4.61), в которой для сигнальной функции Sk (а,Фо) можно записать 1 Ма’Фо) = — J a4(z)cos(o)o/ + <p(/)+<Po)rfr (4.64) Td h-Tj Функции амплитудной и фазовой модуляции Л(/),ф(г) являются медленно меняющимися функциями времени, поэтому на интервале дискретизации Td их можно считать постоянными, т.е. Л(/) = Л(^), <р(/) = ф(^), /е [/* -Td,tk]- После интегрирования в (4.64) получаем Sk (а,фо) = аА(1к )51ПУ^ /2^со5(<0q (tk -Td 12)+ф(г*)+ф0). (4.65) Введем случайную фазу Фо = Фо ~ /2 и коэффициент sm(o)oTj /2) К =------------- < 1. Тогда (4.65) можно записать в виде cooTj /2 sk (а>Фо) = аКА ('* )cos (®о^ + Ф('*)+Фо) • (4.66) Таким образом, принятая модель дискретизации по времени приве- ла к появлению дополнительного множителя К < 1, который характери- зует уменьшение мощности полезного сигнала. При «1 получа- ем К = 1, и потери мощности не происходит. Из соотношения (4.66) следует, что отсчет сигнальной функции Sk , полученный в результате временной дискретизации, формально можно считать аналогичным аналоговой сигнальной функции $(/,а,фо) , взя- той в момент времени tk. Зависимость дискретного отсчета сигнала от неинформационных параметров (амплитуды а и начальной фазы фо) такая же, как и у аналогового сигнала. Из этого следует, что усреднение отношения правдоподобия дискретной выборки по неинформационным параметрам будет приводить к тем же формулам, что и в случае усред- нения отношения правдоподобия непрерывной реализации по тем же параметрам. Так, например, при известной амплитуде сигнала и случай- ной начальной фазе формула усредненного отношения правдоподобия аналогична (4.39), а именно: 116
p(}f ) = ехр d№a2 (4.67) где <T2 = N0/2Td ; X2=Jf2„+Jr2m; (4.68) Xs,m = Z J^(^)cos(“oZ* +ф('*)); 4=1 Xc,m = Z УкА(f4 )sin(«V* + Ф 0* )); (4.69) 4=1 m - 4=1 Формулы (4.67)—(4.69) аналогичны формулам (4.39)—(4.41) для аналоговой обработки сигналов. Поэтому структурная реализация оп- тимальных приемников аналогична той, которая приведена на рис. 4.8, 4.9 при замене интеграторов на сумматоры. Зависимость (4.67) усредненного по начальной фазе отношения правдоподобия от амплитуды сигнала а такая же, что и в формуле (4.39) для аналоговой реализации. Поэтому последующее усреднение по случайной амплитуде приводит к результату, аналогичному (4.49): аК2а2 ^2п Л) da = о2 +0,5а^2о2 (4.70) Введем, аналогично (4.50), Ё = 0,5a7’jA/|a2| = dTj<j^ —среднюю энергию сигнала. Тогда формула (4.70) преобразуется к виду 1 ----тт----ехр 1 + А?2£7У0 k2e/n0 v2 . . л. (тп I <^a(l+^2£/2V0) Сопоставление данного соотношения с аналогичной формулой (4.51) для случая обработки непрерывной реализации показывает, что 2 они тождественны с точностью до множителя К перед средней энер- 117
гией сигнала Ё . Так как К < 1, то это эквивалентно тому, что в резуль- тате временной дискретизации происходит потеря в отношении с/ш, что влечет соответствующее ухудшение характеристик обнаружения. Данное обстоятельство является принципиальным по следующим причинам. На входе приемника всегда имеется аналоговый сигнал. Сле- довательно, если не накладывать на синтезируемую систему никаких ограничений, то синтезированный оптимальный обнаружитель также будет аналоговым и иметь наилучшие (потенциальные) характеристики обнаружения. В рассмотренном выше примере синтеза обнаружителя по дискретным отсчетам сигнала до синтеза на систему были наложены ограничения, а именно: дискретизация входной реализации по времени. Естественно, что любое ограничение, используемое в процедуре синте- за, не может привести к лучшему решению, так как в противном случае первое решение не было бы оптимальным (наилучшим). Следовательно, навязываемая системе дискретизация по времени также не может улуч- шить характеристики синтезируемой системы, что и было показано ра- нее. Аналогичная ситуация будет возникать во всех задачах, которые будут рассмотрены далее: разрешение сигналов, оценка параметров и фильтрация сообщений. Однако отмеченное обстоятельство не снижает актуальности синтеза и использования оптимальных дискретных систем (в том числе и цифровых), так как при грамотном выборе шага дискре- тизации по времени, ухудшение характеристик синтезированной систе- мы может быть весьма незначительным. Обнаружение дискретного по времени и по уровню сигнала. Если дискретизация по времени часто может рассматриваться как непрерыв- ная операция над сигналом (усреднение типа (4.10) является линейной операцией), то дискретизация (квантование) по уровню относится к классу нелинейных преобразований сигнала. В результате нелинейного преобразования наблюдаемой реализации (4.61) ее ПВ становится нега- уссовской. Причем негауссовским становится и распределение адди- тивной помехи. Поэтому для синтеза оптимального обнаружителя необ- ходимо пользоваться другими подходами (см. п. 4.5). Если число уровней квантования достаточно велико, так что шум квантования незначителен по сравнению с внутренним шумом прием- ника, то аддитивную помеху можно, по прежнему, считать гауссовской и использовать аппарат синтеза обнаружителей, описанный выше. При этом возрастет дисперсия аддитивной помехи, что приведет к дополни- тельному (к эффекту дискретизации по времени) уменьшению эквива- лентного отношения с/ш и соответствующему ухудшению характери- стик обнаружения. 118
4.5. Обнаружение сигнала на фоне негауссовских помех Как отмечалось в п. 2.5, на практике встречаются ситуации, когда помехи, на фоне которых принимается сигнал, являются негауссовски- ми. Использование в этом случае обнаружителей, синтезированных для гауссовской помехи, конечно, является неоптимальным, поэтому можно искать иные алгоритмы обнаружения. 4.5.1. Обнаружение детерминированного сигнала Рассмотрим задачу обнаружения детерминированного сигнала, на- блюдаемого в дискретные моменты времени (4.61) на фоне некорре- лированной помехи, мгновенные значения которой описываются ПВ рМ- Общее правило обнаружения (4.4), заключающееся в вычислении отношения правдоподобия и сравнении его с порогом, является универ- сальным и не зависит от распределения помехи. Основная проблема заключается в записи выражения для условных ПВ. Рассмотрим общий подход к решению данной проблемы. Учитывая принятое допущение о некоррелированности отсчетов помехи, запишем выражение для отношения правдоподобия в виде р(У1'п)=Пр(^~-т- • (471) V ' к=\ Р\Ук) Прологарифмируем (4.71) Ли slnp(y1m)= £[1п/>(л-5*)-1пр(л)]. (4.72) *=1 Разложим In р (ук - Sk ) в степенной ряд 1П р (~ 5.) = In р (я) t X g 1П '’U 1. (4.73) i=l »! dyk Подставляя (4.73) в (4.72), получаем (4.74) *=П=1 dyk Введем функции 119
_(-!)' ^'1пР(л) '! djk характеризующие форму ПВ помехи, и запишем (4.74) в виде 1=1 где 1И Z1("’)= tfi(yk)Slk . к=\ (4.75) (4.76) (4.77) Оптимальный обнаружитель принимает решение о наличии или от- сутствии сигнала в результате сравнения логарифма отношения правдо- подобия (4.76) с порогом. Следовательно, общая структура оптимально- го обнаружения такая же, что и на рис. 4.2, и включает оптимальный приемник, ключ и пороговое устройство. Различие заключается в струк- туре оптимального приемника. Оптимальный приемник (рис. 4.13) в этом случае состоит из беско- Рис. 4.13. Схема оптимального приемника при негауссовской помехе нечного числа каналов (4.76), выходы которых суммируются. В каждом канале приемника стоит коррелятор, на один из входов которого подаются отсчеты наблюдаемой реа- лизации (4.61), прошедшие нелинейное преобразова- ние (4.75), а на второй вход поступают отсчеты Сигнала Sk. прошедшие полино- миальное преобразование (возведение в i -ю степень, значение которой соответствует номеру канала). При практической реализации многоканальных приемников число каналов выбирают конечным, что влечет некоторое ухудшение характе- ристик обнаружения. Если сигнал Sk достаточно слабый по сравнению с помехой, то при разложении в ряд (4.73) достаточно удержать два слагаемых, что приво- дит к следующему приближенному соотношению (в (4.76), (4.77) надо положить / = 1): 120
Лт - X fl (Ук )Sk ’ k=l где аУк (4.78) (4.79) В том случае получаем одноканальный приемник (верхняя ветвь в схеме рис. 4.13), в котором реализуется корреляционный принцип обра- ботки сигнала. Однако входной сигнал подвергается дополнительному нелинейному преобразованию. Если помеха имеет гауссовское распределение, то нелинейный пре- образователь вырождается в линейный: ук . Для импульсной помехи, описываемой распределением Лапласа (2.41), нелинейный блок (4.79) определяется выражением /1(л) = ^-sign(yj, где sign(x) = 1, О, -1, при х>0, при х = 0, — знаковая функция. при х<0. Таким образом, нелинейный блок представляет собой квантователь на два уровня с нулевым порогом квантования. 4.5.2. Обнаружение сигнала со случайными параметрами Общая методика обнаружения сигнала Sk (ц) со случайными пара- метрами р предполагает рассмотрение усредненного отношения прав- доподобия (4.37). Поэтому, используя определение (4.71)—(4.73), запи- шем р(у1'”,р] = ехр(Лт(р)), (4.80) где Лт Усредняя (4.80) по ПВ р(р), получаем 121
р(У1'”)=1ехР(Лт ИЙЖ И (4.81) В общем случае выполнить интегрирование в (4.81) не удается. Рас- смотрим частный случай слабого сигнала, при котором допустимо представление (4.78)—(4.79). В этом случае (4.81) принимает вид т p(r1'") = Jexp р(мЖ И U=1 (4.82) U=1 Рассмотрим сигнал со случайной начальной фазой ^(фо) = аЛсо5(со07'</Л + <р0). (4-83) Подставляя (4.83) в (4.81) и выполняя интегрирование, получаем 2л . . 1 zjr т Р ИГ') = — J ехР Z /1 (Ук )аАк cos((OqTjк+Фо) рФо = /о (аХт) - о lt=i (4.84) где X?n=xlm+Xlm, (4.85) Л.т = I fl (Ук)Ак COS^Tjk), к=1 *с,т = I f\ (Ук )Ак ^((о^к). (4.86) *=l Так как функция Бесселя 10 (х) — монотонная, то сравнение отно- шения правдоподобия (4.84) с порогом можно заменить сравнением отсчета огибающей Хт с соответствующим порогом. Следовательно, оптимальный приемник должен формировать согласно с алгоритмом (4.85), (4.86), которому соответствует схема, приведенная на рис. 4.14. Рис. 4.14. Оптимальный приемник для слабого сигнала со случайной фазой и негауссовской помехе 122
Отличие схемы, приведенной на рис. 4.14, от аналогичной схемы рис. 4.9, полученной для гауссовской помехи, заключается в наличии не- линейного преобразователя на входе. Оптимальный обнаружитель при негауссовской помехе будет иметь и другое значение порога при приня- тии решения, что следует из сопоставления формул (4.84) и (4.39). Аналогично можно решить задачу синтеза оптимального обнаружи- теля сигнала со случайными фазой и амплитудой сигнала. Для этого (4.84) надо усреднить по амплитуде сигнала аналогично тому, как это сделано в п. 4.3.3. Нетрудно увидеть, что структура оптимального при- емника в этом случае будет такая же, что и на рис. 4.14. Изменится лишь значение порога обнаружения. Учет коррелированности помехи может быть проведен по методике, описанной в п. 4.2.7. В результате проведенного по этой методике син- теза одно из возможных решений заключается в использовании на входе схемы рис. 4.14 обеляющего (декоррелирующего) фильтра. 4.6. Обнаружение пространственно-временного сигнала Наиболее общее решение задачи обнаружения сигнала основано на рассмотрении электромагнитного поля на входе антенной системы, ко- торое часто называют про- странственно временным сиг- налом. На рис. 4.15 приведена пространственная диаграмма приема пространственно-вре- менного сигнала 5 (/, р), где р — радиус-вектор точки приема (антенной апертуры), заданный в некоторой системе координат. Будем полагать, что ан- тенна согласована по поляри- зации с электромагнитным полем, так что S(z,p) можно Рис. 4.1S. Пространственная диаграмма приема сигнала рассматривать как скалярную функцию. Учитывая, что апертура прием- ной антенны ограничена некоторой областью Q(x,y,z), полагаем peQ(x,y,z). К пространственно-временному сигналу S(z,p) добавляется поме- ховый сигнал я(/,р), так что наблюдению доступна аддитивная смесь 123
у(?,р) = 5(/,р)+л(/,р), peQ(x,y,z)), 16 [О,Т]. (4.87) Помеху л(1,р) будем полагать гауссовской с корреляционной функцией М [ п (t, р) п (t + т, р + Др )] = Rn (т, Др). Для получения алгоритма обнаружения пространственно-времен- ного сигнала воспользуемся опять тем фактом, что общее правило (4.4) получено для произвольной наблюдаемой выборки Y. Основным фак- тором, который нужно учесть при синтезе, является соответствующее представление отношения правдоподобия. 4.6.1. Отношение правдоподобия для пространственно-временного сигнала Так же, как и в пп. 4.2.5, 4.2.7, для вывода формулы отношения правдоподобия воспользуемся методом дискретизации, однако не по времени, а по пространству. Разобьем аппретуру антенны на простран- ственные элементы ДрхДр>,Дрг и перенумеруем их тем или иным обра- зом от г = 1 до М. Каждому i -му пространственному элементу соответствует реализация y,(l) = 5(l,ft) + n(t,ft), /е[0,Т]. Таким образом, имеем М -мерный вектор наблюдений у(1) = = |ti (1) Л (0 — Ум О )|Т > Для которого можно записать обобщенное вы- ражение y(l) = flS(l)+n(/), «88) где 0 — параметр обнаружения, принимающий два значения: 0 или 1. Рассмотрим помеху п(1) в виде некоррелированного по времени, но коррелированного по пространству процесса, т.е. JH[n(0n(z+T)] = R„8(T). (4.89) Здесь элементы Rnij матрицы R„ отображают пространственную корреляцию помехи между i - и j -м элементами апертуры антенны. Для векторного наблюдения (4.88) отношение правдоподобия имеет вид (4.17), т.е. 124
р(у07') = ехр js’(o*;;jy(')-|s(A О \ 2 / (4.90) Заметим, что в (4.90) (в отличие от (4.17)) выражение, стоящее под знаком интеграла, описывает обработку по пространственным коорди- натам (по индексам i = 1,Л/ ), т.е. по апертуре антенны. Для пояснения соотношения (4.89) рассмотрим случай линейной апертуры антенны, например, вдоль оси х и простирающейся от х,^ до хтах , т.е. Q(x) = [xmin>-'cmax ] • Пусть корреляционная функция шума в (4.87) имеет вид М[zz(/,x)/i(z+ т,х +Дх)] = Rn (Дх)8(т). Разобьем аппретуру антенны на элементы 8х « хх , где хх — па- раметр пространственной корреляции помехи. В этом случае элементы корреляционной матрицы помехи в (4.89) имеют вид Rnjj = = Rn (|z - у|Sx), а подынтегральное выражение в (4.90) представляется как ST(r)R;^y(z)-|sO)j=X^i5(Gx/)(R;,)..(yG,xy)-0,55(r,x7)). (4.91) При 8х -> 0 и М о» соотношение (4.91) переходит в формулу s’(.)R;'[y(0-ls(<))e => J J <4-92) •'mm '^min где (xj,x2) определяется из уравнения Г Лл(х1,х)Лл1(х,х2)й1г = 8(х1,х2). Xmin В (4.92) явно видна обработка пространственно-временного сигнала по апертуре антенны. Если помеха однородна и некоррелирована по пространству, т.е. R„ (хьх2) = Ял05(х2 - xi), то (4.92) принимает вид 125
if 1 \ 'max ST(r)R;' y(z)--S(z)U J 5(z,x)/?;J(y(r,x)-0,55(r,x))A. \ ) г • z Amin При этом отношение правдоподобия (4.90) запишется как p(Yor) = exp J J S(t,x)Rno(y(t,x)-O,5S(t,x'))dxdt O^min (4.93) Обобщая (4.93) на случай произвольной апертуры антенны Q(x,y,z), получаем рК)= = ехр J J р ( ’ Л’_Л Г у р (х, у, z)) -15 (z, р (х, у, z)) \lxdydzdt oa(x,y,z)) RnQ к 2 ) (4.94) Заметим, что спектральная плотность помехи /?л0 может зависеть от времени и от пространственных координат, т.е. в общем случае в (4.94) можно полагать /?п0 (z,x,y,z). 4.6.2. Оптимальный алгоритм обнаружения пространственно-временного сигнала Вычислив отношение правдоподобия по (4.94), оптимальное ре- шающее правило записывается стандартным образом (4.4) если p(Yor )>/!(), если р(¥о)<Ло. Так же как и в задаче обнаружения временного сигнала, сравнение отношения правдоподобия с порогом можно заменить на сравнение ло- гарифма отношения правдоподобия с соответствующим порогом ln(p(Yor)) = = / J 0Q(w)) $(z,p(x,y,z)) Л10 y(z,p(x,y,z))- S(z,p(x,y,z)) 2 dxdydzdt > In (Ло ). > (4.95) 126
В общем виде реализация оптимального приемника, осуществляю- щего операции в соответствии с (4.95), может быть выполнена в виде пространственно-временного коррелятора или пространственно-времен- ного согласованного фильтра. При этом, строго говоря, пространствен- ные и временные координаты взаимосвязаны. Рассмотрим условия, при которых пространственно-временная об- работка распадается на пространственную и временную. Для этого по- ложим, что пространственно-временной сигнал S(z,p(x,y,z)) на апертуре антенны Q(x,y,z)) может быть представлен в виде 5(z,p(x,y,z)) = = 5(z)/(p(x,y,z)). Такое представление допустимо, например, если фронт принимаемой волны плоский, а запаздывание огибающей сигнала на апертуре антенны много меньше времени корреляции сигнала. Под- ставляя принятое представление в (4.94) и вынося временные функции за знак интеграла по апертуре антенны, получаем г ln(p(Yor))=/5(z) J f(p(x,y,z))R„^y(t,p(x,y,z))dxdydz dt- n(x,y.z)) “17* _^0.|52(,)Л J f2(p(x,y,z))dxdydz. (4.96) 2 0 n(x,y,z)) J f(p(x,y,z))R„^y(t,p(x,y,z))dxdydz dt ,(4.97) n(r,y,z)) Из этого выражения следует, что оптимальный приемник должен выполнять операцию ИО11 (0 = о а отсчет иоп (Г) на выходе оптимального приемника в момент времени t = Т должен сравниваться с порогом „-1 Т Лпор=1п(^) + -у-/^2(г)Л J f2(p(x,y,z))dxdydz. 2 о a(x,y,z)) Из полученного выражения следует, что при обнаружении про- странственно-временного сигнала величина порога определяется отно- шением суммарной энергии сигнала, принимаемой всей апертурой ан- тенны, 127
= J 52 (r)</r J /2(p(x,y,z))<i«/ydz, 0 «(xj’.z)) к спектральной плотности Лп0 помехи. В (4.97) внутренний интеграл определяет обработку принимаемого сигнала у (/,p(x,y,z)) по раскрыву антенны, т.е. пространственную об- работку. В результате такой обработки формируется временная функция у(1) = J f(p(x,y,z))R~^y(t,p(x,y,z))dxdydz, Q(-t.y.z)) которая далее обрабатывается временным коррелятором. Таким обра- зом, в этом случае пространственно-временная обработка распадается на пространственную и временную. В качестве примера рассмотрим плоскую линейную антенную ре- шетку (рис. 4.16), состоящую из т всенаправленных антенных элемен- тов, расположенных на одинаковом расстоянии d друг от друга (часто полагают d = Х/2 , где X — длина волны принимаемого сигнала). Рис. 4.16. Схема приема сигнала антенной решеткой Плоская волна приходит с направления, которое характеризуется углом ас, отсчитываемым от оси X. Для линейной антенной решетки в формуле (4.95) для алгоритма работы оптимального приемника интеграл по раскрыву антенны заме- няется на сумму, поэтому можно записать 128
г т «ОП (П = J Е S, (у. (^, )-0,55,- (t,Xi ))jt, Oi=l где у,(г,х,) = 5,(г,х/)+л,(г,х/) (4.98) (4.99) — принятое на i -м антенном элементе колебание. Заметим, что (4.98), вытекающее из (4.93), справедливо для помехи, не коррелированной по пространству и времени, т.е. м["< (‘>xi )nj (' + t>xj)] = Лл08,у5(т) = by Ь(т) Положим, что сигнал 5(/,х) — узкополосный и, следовательно, может описываться комплексной амплитудой 5(г,х). Пусть Si(t) = = S^i 0<xi - 0) соответствует комплексной амплитуде сигнала в момент времени t на первом антенном элементе. Тогда комплексная амплитуда сигнала на i-м антенном элементе равна 5у4, (/,х|) = 5, (/.х^е^1^01^, . 2nz/Zcos(ac) ... где ф, (ас ) =-----1—-, а 5; (/,х,) описывает огибающую сигнала. Переходя в (4.98) от действительных функций сигналов к ком- плексным амплитудам и учитывая свойство (2.4), запишем Т 1 Ги „ «оп (Г) = JTTRe (/,Х| )Л о ^0 L=1 (4.100) Если апертура антенны L-md такова, что в каждый момент вре- мени t огибающая 5)(^,х( ) на каждом антенном элементе равна оги- бающей 5] (г) на первом элементе, то для комплексной амплитуды сигнала на i -м антенном элементе получаем 5, (r,x( ) = Sj (z)e^'^a<:\ Тогда (4.100) может быть представлено в виде «on(7’) = -7^Re Ц*(0Ее ^'(<Хс)у,(/,х,)Л л0 [О i=l (4.101) Введем комплексный вектор входных сигналов У (0 = |л (М) У2 ('>*2 ) -Ут )Г, 5—2041 129
вектор Н(ас)= ... е^-»(ас) , который описывает про- странственные характеристики решаемой задачи (геометрия и положе- ние антенны, направление прихода сигнала), и вектор комплексных БГШ п = |й] (г) л2 (г) ... пт (г) |т с корреляционной матрицей М |^n (г )n*T (t + т) j = jV0I5 (т) , где I — единичная матрица. Тогда наблюдения (4.99) можно записать в векторном виде y(z) = H(ac)S](r)+n(/), (4.102) а алгоритм работы оптимального приемника - в виде В (4.103) преобразование j(r) = H*T(ac)y(r) (4.104) соответствует пространственной обработке принимаемых сигналов, на выходе которой формируется временная функция у (г), далее обраба- тываемая во временном корреляторе. С учетом (2.4) работу коррелятора (4.104) можно записать через действительные функции «о„(7’)=^-Ь1(оЧ^)еМ']Л’ Л0 0 где 5| (г) — временной сигнал, соответствующий первому антенному элементу. Кроме описанного выше, оптимальный пространственно-временной обнаружитель можно представить в ином виде. В этом случае, прини- мая во внимание векторное представление наблюдений (4.102), запишем полное выражение для логарифма отношения правдоподобия (4.96) в рассматриваемой задаче ln(p(Y<r)) = = — Re М) 130
Й*т (otc)H(ac) Re У$Л0[Р‘Т(«с)у(')-0.5$ (/)}* = .о =^~Re ^17')[₽*т(ас)у(')-0>5^ (0pr ’ (4.105) где - г-» - д-1 -* - P = H(ac) Н т(ас)Н(ас) ,a Н т(ас)Н(ас) = w . Введем эквивалентное наблюдение Лкв(0 = ₽‘Т(«с)у(0 (4.106) и запишем (4.105) в виде (4.107) N0 г Преобразуем эквивалентное наблюдение (4.106) Лкв (0 = Р’Т (ас )У (0 = Р*Т (“с )(Й(ас)S] (t)+n(0) = = Р*т(ас)Й(ас)5, (z)+0*T(ac)n(r) = = [й*т(«с)Й(“с)] 1 Н(«с)*Т (ac)H(ac)Si (О+0*Т (ас)“(') = = 5) (')+"эКв(')- (4.108) Произведение P*Ty(z) представляет собой взвешенное наблюдение, поэтому вектор 0 т называют вектором весовых коэффициентов. Рассчитаем корреляционную функцию эквивалентного шума, вхо- дящего в (4.108) ^ЭКВ (')^ЭКВ (' "* о] ~ = м[Г (о,)«(/)<’ (00] = (ac )0<т(a,)S(0 = 131
= Nq [h‘t (ac )Й(ас )]-1 5(t) = N0/m8(x). (4.109) Из приведенных соотношений следует, что в оптимальном обнару- жителе пространственно-временного сигнала сначала необходимо вы- полнить пространственную обработку в соответствии с алгоритмом (4.106). На выходе блока пространственной обработки формируется временной сигнал (4.108), представляющий собой аддитивную смесь комплексного временного сигнала S) (z) и эквивалентного временного шума йэкв (г) с эквивалентной спектральной плотностью (4.108). Далее, в соответствии с (4.107) необходимо решить задачу обнаружения вре- менного сигнала S|(/) по эквивалентным наблюдениям (4.108), для чего можно использовать результаты предыдущих материалов. Схема оптимального приемника с раздельной пространственной и временной обработкой приведена на рис. 4.17. Рис. 4 17. Структурная схема оптимального приемника Заметим, что при решении задачи обнаружения пространственно- временного сигнала со случайной амплитудой и начальной фазой блок пространственной обработки не претерпевает никакого изменения, а изменяется лишь блок временной обработки, для синтеза которого можно использовать результаты п. 4.3. То же самое утверждение отно- сится при приеме сигнала на фоне коррелированной по времени помехи. Выше была рассмотрена ситуация, когда в пределах апертуры ан- тенны принимаемую волну можно считать плоской (рис. 4.18). Рис. 4.19. Сферический фронт волны Рис. 4.18. Плоский фронт волны 132
Рассмотрим теперь другой случай, когда антенна принимает волну со сферическим фронтом (рис. 4.19). Пусть некоторые параметры сиг- нала меняются во времени, например, амплитуда (амплитудная модуля- ция сигнала). Тогда в один момент времени распределение амплитуд принимаемого антенной сигнала вдоль координаты х одно, а в другой момент времени — другое. Следовательно, для каждого момента време- ни надо менять и структуру обработки по пространственной координате (опорную функцию S(r,p(a:,y,z)) в (4.94)), т.е. пространственная и временная обработка взаимно связаны. Так как любая принимаемая электромагнитная волна имеет сфери- ческий фронт, то, строго говоря, оптимальная обработка всегда должна быть взаимосвязанной пространственно-временной. Однако, если апер- тура приемной антенны невелика, так что принимаемую волну можно считать плоской и запаздыванием падающей волны по апертуре можно пренебречь, то пространственная и временная обработка могут быть разделены практически без потери оптимальности. Контрольные вопросы к главе 4 1. Можно ли задачу обнаружения сигнала сформулировать как задачу проверки гипотез? Сформулируйте эти гипотезы. 2. Каким образом критерий Байеса в задаче обнаружения связан с крите- риями идеального наблюдателя, Неймана-Пирсона? 3. Чем определяется порог обнаружения при приеме детерминированного сигнала? 4. Увеличивается или уменьшается порог обнаружения при приеме де- терминированного сигнала и сигнала со случайными неинформатив- ными параметрами и почему? 5. Что такое обеляющий фильтр, когда он используется в обнаружителе и для чего? 6. В чем различие пространственно-временного и временного обнаружи- телей? 7. Чем различаются структурные схемы оптимальных обнаружителей при приеме сигнала на фоне гауссовских и негауссовских помех? 133
Глава 5 ОПТИМАЛЬНАЯ СОГЛАСОВАННАЯ ФИЛЬТРАЦИЯ СИГНАЛОВ 5.1. Общие положения теории согласованной фильтрации сигналов При решении задачи обнаружения сигнала $(/) на фоне аддитив- ной гауссовской помехи и (г) оптимальный приемник реализует корре- ляционную обработку (4.22) вида (см. гл. 4) т u(7') = j'y(t)S(r)dt, (5.1) о где y(r) = 5(r)+п(г) —наблюдаемая на интервале 1Е[о,7'] реализация. Там же было показано, что корреляционный интеграл (5.1) может быть представлен в виде т т U(T) = fy(T-t)g(t>=j-y(r)g(T-f)dt, g(T-r)-S(r). (5.2) о о Таким образом, на выходе линейного фильтра с импульсной харак- теристикой g^(r) = S(7’-z) (5.3) в момент времени Т получаем такое же значение напряжения, что и на выходе коррелятора (5.1). Линейный фильтр с импульсной характери- стикой (5.3) называется согласованным фильтром (СФ). Термин «согла- сованный» имеет смысл согласованности импульсной характеристики фильтра со структурой принимаемого сигнала. Рассчитаем комплексный коэффициент передачи СФ ^сфО<о)= J f S(T-()e-ic,'df = -Ж -х = e-jwf f 5(v)ej°,v dv = е^шГ G*s (jco), (5.4) 134
X где Gs (jсо) = J S (v)e-JWV dv — комплексный спектр сигнала; « * » — —X знак комплексного сопряжения. Следовательно, комплексный коэффициент передачи СФ (5.4) с точностью до множителя е~^0,т , характеризующего запаздывание от- клика фильтра на время Т, совпадает с величиной, комплексно сопря- женной с комплексным спектром сигнала. Поэтому, при прохождении сигнала через такой фильтр фазовые сдвиги между отдельными спек- тральными составляющими сигнала компенсируются, т.е. на выходе фильтра все они складываются в фазе, и значение сигнальной состав- ляющей будет максимально. Рассчитаем отношение с/ш на выходе СФ. Учитывая (5.2), сигналь- Г 7 ная составляющая выходного отклика фильтра Uj (Г) = JS“ (t= Е . О Дисперсия шумовой составляющей на выходе СФ определяется формулой Следовательно, отношение с/ш на выходе СФ в момент време- ни Т равно “s(t) 2Е (5-5) Покажем, что отношение с/ш на выходе любого другого линейного фильтра будет меньше, чем (5.5). Для этого воспользуемся неравенст- вом Шварца—Буняковского, согласно которому, если имеются две произвольные (в общем случае комплексные) функции /(х) и g(x), то выполняется соотношение J f*(*)g(x)dx s j|/(x)|_dx/|g(x)|‘dx, (5.6) -X -X -X причем знак равенства имеет место в том и только в том случае, когда ЖМ(х), (5.7) здесь с — некоторая константа. 135
Зададим .r = ш, г (<>) = Gs(j<o)ej‘u772nV0/2 , g(<o) = , (5.8) где A7 (jco) — комплексный коэффициент передачи произвольного ли- нейного фильтра. Подставляя (5.8) в (5.6) и разделив полученное выражение на второй сомножитель, стоящий в правой части (5.6), получаем J Gs(jw)K(jw)ej(”r du 1 2л Л । , / /tfo|K(jio)|72</M 1 J — Г 1-------—— г/со. 2я_< No/2 (5.9) Для фильтра с комплексным коэффициентом передачи А7 (j<o) зна- чение отклика на его выходе в момент времени Т при подаче на вход сигнала 5(f) выражается в виде “ф(г) = у- f Gs(jw)K(jw)e)<,'T dw, —00 а его мощность "ф(г)=7Г7 (2л) f Gs (jco)AT (jo))ejl,jr t/cn . (5.10) Дисперсия шумовой составляющей на выходе фильтра - X 4-—/^|к(»|72</а). (5.11) —X С учетом (5.10), (5.11) видно, что левая часть (5.9) есть ни что иное, как отношение с/ш на выходе линейного фильтра с комплексным коэф- фициентом передачи K(jco). В правой части (5.9) стоит максимально возможное значение с/ш, которое, в соответствии с (5.7) достигается тогда и только тогда, когда G*s (j‘o)e-j",7’/V2KW0/2 =cK(jco)TvT2 или К()ш) = сСП)<о)е->г, (5.12) 136
где с — некоторая константа. Формула (5.12) с точностью до несущественной константы совпада- ет комплексным коэффициентом передачи (5.4) СФ. Следовательно, на выходе СФ отношение с/ш максимально. Поэтому такой фильтр назы- вают оптимальным согласованным фильтром. Заметим, что приведенное выше доказательство остается в силе, ес- ли вместо белого шума с равномерной спектральной плотностью Nq/2 использовать помеху с заданной спектральной плотностью Gn (ш). При этом комплексный коэффициент передачи оптимального СФ будет иметь вид Gn (") В общем случае комплексный коэффициент передачи (5.13) соот- ветствует физически нереализуемому фильтру, так как содержит полю- са в правой полуплоскости комплексной переменной. Для получения физически реализуемого фильтра необходимо воспользоваться извест- ной методикой [3]. 5.2. Согласованные фильтры для некоторых типов сигналов В радиотехнических системах используются различные сигналы. Одними из широко распространенных являются периодические им- пульсные сигналы. Так как энергия таких сигналов за период повторе- ния невелика, то задачу обнаружения решают на интервале времени Т, составляющем несколько периодов повторения импульсов. Поэтому в дальнейшем будем говорить о приеме пачки из N радиоимпульсов. 5.2.1. Согласованный фильтр для когерентной пачки радиоимпульсов В общем случае когерентной пачкой радиоимпульсов называют импульсный сигнал, у которого начальные фазы каждого из импульсов связаны между собой детерминированной зависимостью. Рассмотрим наиболее простую модель когерентной пачки радиоимпульсов, которая получается модуляцией синусоидального колебания последовательно- стью видеоимпульсов с длительностью импульса ти, периодом повто- 137
рения импульсов Тп таким, что Т - NTn. Сигнальная функция в этом случае записывается в виде V-1 •$(') = S fl“o(/-,Tn)cos(w0')> (514) (-0 где а — амплитуда сигнала; w0(z) — функция, описывающая форму одиночного импульса, которую будем полагать прямоугольной, т.е. , , fl, при 0 s t s т„, Mo(')=d |0, при / < 0, t > ти. Так как начальная фаза сигнала известна, то для простоты она в (5.14) взята равной нулю. Спектр такого сигнала равен Т n-] ('+1К с5 (>)-/5(')е >Mdt= a f u0(t-iTn)cos(<o0l)e Jl,>'df о <-о iT„ = I aj"o(v)cos(w0v + w()/Tn)e J<l,(v+' n)dv = £ aG„()I (jw)e J"’' ", /-() 0 /-0 (5.15) где Gu„i (>) = J «о (v)cos(w0v + (Иц/Tn )e-J"’v dv (5.16) о — спектр i -го одиночного радиоимпульса. Для упрощения дальнейшего анализа положим Ш()ТИ = 2лц, где ц — целое число. Другими словами, будем считать, что на длительности импульса укладывается целое число периодов высокочастотного коле- бания. Тогда (5.16) преобразуется к виду Gu„i (>) - Gu„ (jw) = ji/0 (v)cos(w0v)e-J"’v dv - о = }cos(o)()v)e-J,"vdv = jl(eJ^v + e-^|V)e-J",vdv - 0 0 2 1 ej("\i -<«K । e- j(«”u+<i>k j 2 j(wo-‘») j(«o+w) -(l-e~j,l,T") J0) , ,(5.17) ' ' Wg - 0)” 138
а для (5.15) справедлива формула ЛМ . ... Gs (jw) = aGU(i (jw) e J<''' " . (5.18) /=0 Принимая во внимание (5.4) и (5.18), запишем комплексный коэф- фициент передачи СФ для пачки радиоимпульсов, полагая, что отсчет на выходе СФ берется в момент окончания последнего импульса пачки, *СФ (» - e’j",(r’7'"+T") аС;, (>)У ej,”'T" . (5.19) i-0 Введем в рассмотрение СФ для одиночного радиоимпульса, отсчет на выходе которого формируется в конце импульса, т.е. при 7] = ти. С учетом (5.4) и (5.17) запишем выражение для коэффициента передачи такого фильтра КСФ1(» = G; (jo)) = Ky (1-е’(5.20) (Oq - О)" где Ку — коэффициент усиления. Из (5.20) следует, что фильтр, согласованный с одиночным радио- импульсом, включает линию задержки на длительность импульса, сум- матор и идеальный колебательный контур с коэффициентом передачи Кк (>) = 2JM о <РИС- 5-1 «О-оГ Рис. 5.1. Схема СФ для одиночного радиоимпульса С учетом (5.20), а также Т = NTn, формулу (5.19) можно предста- вить в виде кСф(Н= Ё A:c®i(j(’))e'J,,)(yV’1’')r" i-О Таким образом, СФ для пачки радиоимпульсов включает СФ для одиночного радиоимпульса, линию задержки на (W -1) периодов по- вторения и сумматор (рис. 5.2). 139
N-\ Рис. 5.2. Схема СФ для пачки радиоимпульсов В момент времени Т -1 + ти все задержанные отклики суммируют- ся в фазе, т.е. суммируются мгновенные отсчеты, соответствующие максимальным значениям отношения с/ш для каждого импульса. Тем самым осуществляется когерентное накопление полезного сигнала на всем интервале наблюдения. На рис. 5.3 приведена диаграмма, поясняющая работу СФ при N-3. Отсчеты на выходе согласованного Рис. 5.3. Диаграмма, поясняющая работу СФ при У - 3 5.2.2. Согласованный фильтр для когерентной пачки радиоимпульсов с фазовой манипуляцией В радиотехнических системах для повышения точности измерения задержки, а, следовательно, и дальности до объекта необходимо расши- рять спектр сигнала. Одним из способов такого расширения спектра является дополнительная модуляция радиоимпульсов, например, мани- пуляция фазы высокочастотного заполнения. Сигнал с манипуляцией на л на длительности импульса описывается выражением 140
S(/) = acos(av + fyn), Os/st„, (5.21) где О, — последовательность нулей и единиц, чередование которых определяется, например, семиэлементным кодом Баркера -{1 11 0 0 1 о}-. Повторив те же рассуждения, что и выше, приходим к формуле (5.19) для коэффициента передачи СФ, в которой под Gf/ (jco) теперь надо понимать спектр одиночного радиоимпульса с дополнительной фазовой манипуляцией. Получим для него соответствующее выражение. Заметим, что фазовая манипуляция на л в (5.21) соответствует смене знака амплитуды сигнала, т.е. может быть представлена в виде ампли- тудной модуляции 5(f)- ahtcos (соц/), где Л( =1 (если й, - 0) или h, = -1 (если О, -1). Введем также длительность кодовой посылки Тк (например, для упомянутого выше семиэлементного кода Бракере Тк =Т/7) и для про- стоты будем полагать, что на длительности кодовой посылки укладыва- ется целое число периодов высокочастотного заполнения. Рассчитаем спектр фазоманипулированного семиэлементным кодом Баркера импульса 6И(И (j“) “ GUll (j«) - J“0(v)cos(w0v + ft,n)e"Jl'’v dy - о 6 (’+1)Л = 2AS J cos(a>ov)e ]1,л’dv- s-0 sTk 6 т Tt , , • - ‘ J cos(<1Jo(/ + 57i ))e-J"" df = 5-0 ()j 6 . _ Tk = 2 A5 e~J ‘ J cos(«)of )e“J<”' dt. (5.22) 5—0 0* В (5.22) интеграл в правой части формулы совпадает с (5.17) с той лишь разницей, что вместо длительности импульса ти стоит длитель- ность элементарной кодовой посылки Тк . Поэтому можно записать Сф„ О)- / »s(<v)е-1'“ Л - (1 . (5.23) 141
Тогда (5.22) принимает вид <\, (>) = i Л, е- Сфм (j со). (5.24) 5-0 С учетом (5.19) и (5.24) запишем выражение для коэффициента пе- редачи СФ для одиночного радиоимпульса с фазовой манипуляцией КСФ1 (» = Ку е-i""-. (jсо) = Ку с" j"177-* f hs G£m (» = s-0 = f hs [КуСфМ (j(o)e- ]e-j,’<6-5)r‘ . (5.25) 5-0 L J Введем в рассмотрение СФ для одиночной кодовой посылки, отсчет на выходе которого формируется в конце посылки, т.е. при Г] = 7} . С учетом (5.4) и (5.24) запишем выражение для коэффициента передачи такого фильтра КСФк О) = Ку e'j"17* Сфм О) = Ку (1 -е~• ' «5 - or Теперь выражение (5.25) можно записать в виде КСФ1 (j«) = X Л5Ксфк (jwje'^6'5^ . (5.26) 5-0 На рис. 5.4 приведена схема согласованного фильтра для радиоим- пульса с дополнительной фазовой манипуляцией. Рис. 5.4. Схема СФ дзя одиночного радиоимпульса с дополнительной фазовой манипуляцией Из (5.26) следует, что СФ для радиоимпульса с фазовой манипуля- цией включает СФ для импульса элементарного кода, линию задержки на длительность элементарного кода с числом отводов на единицу меньше, чем число элементов кода, умножитель на hs на выходе 5 -го отвода линии задержки и сумматор. Умножение на hs обеспечивает 142
«снятие» фазовой манипуляции сигнала с целью последующего коге- рентного суммирования отсчетов на выходах линии задержки. Схема СФ для пачки радиоимпульсов с дополнительной внутриим- пульсной фазовой манипуляцией имеет такой же вид, что и на рис. 5.2, но вместо СФ для одиночного радиоимпульса надо использовать схему СФ .тля радиоимпульса с фазовой манипуляцией, приведенную на рис. 5.4. Согласованные фильтры широко используются при построении аналоговой техники. Однако в настоящее время все большее число РТС переходит на цифровую обработку сигналов, при которой проще реали- зовать корреляционную схему оптимального приемника. Так, например, в приемниках сигналов спутниковых радионавигационных систем ГЛОНАСС, GPS используются непрерывные фазоманипулированные на л сигналы с периодом повторения кодовой последовательности 1 мс. Если бы обработка сигналов в приемнике строилась как аналоговая, то в обнаружителе сигналов с временем накопления 1 мс можно было бы использовать СФ, описанный в предыдущем разд, (с числом кодо- вых элементов 511 в системе ГЛОНАСС). Однако все существующие приемники для данных систем на последней промежуточной частоте ~ 4 МГц подвергаются дискретизации по времени и квантование по уровню. Обнаружитель сигнала обрабатывает уже цифровую выборку и всегда строится по схеме корреляционной обработки. Аналогичная тен- денция наблюдается и при разработке современных радиолокационных систем. Контрольные вопросы к главе 5 1. С какими характеристиками сигнала и как связан коэффициент пере- дачи согласованного фильтра? 2. Записать коэффициент передачи согласованного фильтра при приеме одиночного видеоимпульса. 3. Записать коэффициент передачи согласованного фильтра при приеме последовательности видеоимпульсов. 4. Что можно сказать о величине отношения сигнал/шум на выходе со- гласованного фильтра? 143
Глава 6 РАЗЛИЧЕНИЕ СИГНАЛОВ 6.1. Различение двух детерминированных сигналов Предположим, что в наблюдаемой на входе приемника реализации y(t) может быть один из двух полезных сигналов S] (z) или 52 0) >т.е. y(z) = S](z)+n(') или y(t) = S2(t)+n(t)t ге[О,7']. По наблюдениям у (г) на интервале времени [0,7’] и имеющейся априорной информации необходимо принять решение о том, какой из двух сигналов присутствует в принятом колебании. Данная задача на- зывается задачей различения сигналов. Аналогично задаче обнаружения, задачу различения можно сфор- мулировать как задачу оценивания. Представим наблюдаемый процесс в виде y(z) = dS1(z)+(l-d)S2(z)+n(z). Параметр О может принимать случайным образом одно из двух значений: 0 = 1 (присутствует сигнал S] (/)) с априорной вероятностью Рар (1) и 0 = 0 (присутствует сигнал 52 (г)) с априорной вероятностью Рар (0) - (1~Рар 0)) • Задача различения в этом случае формулируется как оценка значения случайной величины О по наблюдениям реализа- ции у (г) на интервале времени t е [0,Г]. В такой формулировке данная задача ничем не отличается от задачи обнаружения, рассмотренной в гл. 4, поэтому можно воспользоваться полученными там результатами. Так, например, при простой функции потерь оптимальное решающее правило описывается соотношением (4.4) и заключается в вычислении отношения правдоподобия и сравне- нии его с порогом. Для вычисления отношения правдоподобия необхо- димо определить две условных ПВ: р(уог |0 = 1), соответствующей присутствию в наблюдениях сигнала (z), и р(у^ |0 = 0), соответст- 144
вующей наличию сигнала S2 (г). Данные ПВ определяются из общего выражения (4.15) />(УОГ 1^ = 1) = * ехр г 7 No No О Р(уог|й = о) = Аехр- Ег М) 2 т Л0 О г т где Е\ = j S\ (t)dt; Е2 = ^S2(t)dt — энергии сигналов, о О Теперь оптимальное правило обнаружения можно записать в виде ехр- - £1-^2 М) 2 т + тГЬ(')(М')-*2 ('))<* Л0 о МО) М1) = h, (6.1) или, переходя к логарифмам, = (6.2) NOo EapV) Л0 Таким образом, оптимальное устройство различения двух сигналов имеет структуру, приведенную на рис. 4.2, и включает оптимальный приемник, ключ и пороговое устройство. Оптимальный приемник описывается соотношением «* = ^"Нх)(51 <Т)"52 WdX = 0 Л0 о Ло о Реализация оптимального прием- ника устройства различения двух сиг- налов возможна по двум схемам: од- ноканальной (рис. 6.1) и двухканаль- ной (рис. 6.2). Наряду с ними возмож- на фильтровая реализация опти- мального приемника, например, по двухканальной схеме (рис. 6.3). Рис. 6.1. Одноканальная схема оптимального приемника различения двух сигналов 145
Рис. 6.2. Двухканальная схема оптимального приемника различения двух сигналов Рис. 6.3. Двухканальная схема оптимального приемника различения двух сигналов с СФ Рассчитаем характеристики различения двух сигналов. Для этого, как и в задаче обнаружения, введем две СВ ^1 = V" IW + п (х)][51 (х) “ S2 (х)] > Л0 О ^2 [$2 W + ««||> , Л0 о соответствующие двум ситуациям наличия одного или второго сигналов в принимаемой реализации. Эти случайные величины распределены по нормальным законам с МО и дисперсиями соответственно No No (6-3) L J ДГ0 146
т где ЕХ2 = J-S] (т)52 (y)dx — взаимная энергия сигналов, о Плотности вероятности р ) и р (£2) приведены на рис. 6.4, где заштрихованы участки, соответствующие ошибочным решениям при приеме одного или второго сигналов. Рис. 6.4. Гауссовские ПВ при наличии одного из двух сигналов и условные вероятности ошибок Вероятность суммарной ошибки определяется соотношением h 00 '’ой. = Рар (1) J pfe )^1 +Рар (0) J Р&2 № • (6-4) А Наиболее наглядные результаты получаются при равенстве энергий двух сигналов Е\ = £2 = Е и равных априорных вероятностях Рар (1) - = /^р(0) = 0,5. Вводя понятие коэффициента взаимной корреляции rs методу сигналами S] (г) и S2 (0 Ъ =7/51(т)52(т)Л, Е о получаем следующее выражение для суммарной ошибки: 147
(6.5) где Ф(*) —интеграл вероятности. Таким образом, при известном отношении с/ш q = E/Nq вычисле- ние вероятности полной ошибки для детерминированных равновероят- ных сигналов с одинаковыми энергиями сводится к определению коэф- фициента взаимной корреляции между сигналами. Так как интеграл вероятности является монотонно возрастающей функцией аргумента, то при одинаковом отношении с/ш наибольшей помехоустойчивостью (наименьшей вероятностью ошибки) обладают сигналы, для которых коэффициент взаимной корреляции минимален. Коэффициент взаимной корреляции может изменяться от -1 (при 51 (?) = -S2 (?)) до +1 (если 5] (?) = S2 (0 )• В том случае, когда rs = 0, говорят, что сигналы ортогональны. Очевидно, что одинаковые сигна- лы (rs =1) невозможно различить и поэтому ~ =1-Ф(0) = 0,5. Наоборот, если сигналы одинаковы и противоположны по знаку (rs = 0), то их различить легче, чем Рис. 6.5. Зависимости вероятности ошибки распознавания от значения коэффициента взаимной корреляции любые другие два сигнала (напри- мер, ортогональные). Сказанное иллюстрируется рис. 6.5, на кото- ром представлены результаты расчетов по формуле (6.5). Кривые, характеризующие зависимость вероятности полной ошибки Рош от отношения сиг- нал/шум при оптимальных мето- дах приема детерминированных сигналов, в радиосвязи принято называть кривыми потенциальной помехоустойчивости. Получим такие кривые для некоторых ви- дов манипулированных сигналов, применяемых в радиосвязи. Амплитудная манипуляция (AM). При AM S| (?) = Я cos (со? + <р), 52(?) = 0, ?е[0,Г],где Л,(й,ф —известные параметры сигнала. 148
Данная задача фактически сводится к задаче обнаружения сигна- ла на фоне шума. Приняв в формулах (6.3) (*) = 0, получим ГП[ = 2Е! Nq = 2q, D\- D2 = D = 2E / N^=2q, m2=0, E = A2T/2. Так как энергии сигналов 5] (z) и S2 (z) не равны, то пользоваться формулой (6.5) для расчета вероятности ошибки нельзя. Поэтому вос- пользуемся общим определением (6.4). Значение порога h = E/No = q находим из (6.2), Тогда 1 I r= J ех₽ “ “ ( F2 "I 1ехр -ч/Jd J ехр ^+-4= Г 2D (6.6) Зависимости Рош (q) представлена на рис. 6.6 (кривая ДМ). Частотная манипуляция (ЧМ). При ЧМ используются два гармо- нических сигнала одинаковой амплитуды и длительности, имеющие разные несущие частоты S] (г) = ^4 cos (cojZ 4-<р), S2 (z) = A cos (ttbz + ф) • rs =sin(((D2-®i)T)/[(®2-“1)7’]- Коэффициент взаимной корреляции минимален и равен г5=-0,21 при ((02-®i = 1,5л. Однако на практике обычно выполняется неравенство (а>2 -(0| )Т »1. Поэтому можно положить rs = 0, и для вероятности полной ошибки, учитывая равенст- во энергий сигналов, из (6.5) получим 149
/>ОШ=1-Ф(х^о) = 1-Ф(^)- Зависимость вероятности ошибки от отношения сигнал/шум приве- дена на рис. 6.6 (кривая ЧМ). Фазовая манипуляция (ФМ). На практике часто используется ФМ на я, при которой S| (f) = Acosftot), 52(?) = -^cos((o/). Для таких сигналов rs = -1 и вероятность ошибки, согласно (6.5) '’ОШ =1-Ф(>/2£/М)) = 1-Ф(>/2?)- График этой функции представлен на рис. 6.6 (кривая ФМ). Сравнивая зависимости на рис. 6.6 для AM, ЧМ, ФМ, видим, что при одной и той же энергии элементарных сигналов из трех рассмот- ренных видов манипуляции наибольшей помехоустойчивостью облада- ет фазовая и наименьшей — амплитудная. 6.2. Различение двух квазидетерминированных сигналов Так же, как и в задаче обнаружения сигналов, задача различения может быть сформулирована и решена для случая наблюдения квазиде- терминированных сигналов, т.е. сигналов со случайными параметрами. Рассмотрим задачу распознавания, когда принимаемые сигналы имеют случайные начальные фазы, т.е. положим Si (/) = O]4 (r)cos(ct^z-ьф! ), 5] (f) = а2-^2 (^)COS(®2^"*’<P2 ) > где (0’^2 (0 —известные амплитуды, несущие часто- ты и законы амплитудной модуляции сигналов; ф1,ф2 — начальные фазы сигналов, которые полагаем независимыми и распределенными по равномерному закону на интервале [0,2л]. В соответствии с общим подходом (4.37), для решения данной зада- чи отношение правдоподобия (6.1) необходимо усреднить по началь- ным фазам ф1,ф2 р(г0Г) = ехр< 2 2 ОЦ#! — (Х2#2 2^о I п п I J.“p 2 г тН т(0(51 ('-Ф1 )~S2 ('.Ч>2 ))<* Р<М<Р2 = . 0 0 150
где = exp £1-^2 М) '4<6-7> 4 (0=4 (0+4 (0. 4 (0=4C (0+4 (0 > t t xic (0=H04 (t)cos(<0|T)</t, x15 (0=Jj(04 (0sin((oIT)(/T, 0 0 t t Xlc (') = МТ)Л2 (OcOS^O^’ Xls (0 = /^(0^2 (t)sin((O2't)«/T, 0 0 T T “1 =P1 (0^- «2 = JA2 (0^ • 0 0 При вычислении интегралов в (6.7) использована формула (4.39). С учетом (6.7), оптимальное решающее правило различения двух сигналов принимает вид ^-^(^Kexp или логарифмируя In/of^-^OnVln/o IM) No Е\~е2 М) Еу-Е2 »о + ln м°) ^(0 ’ 'Рдр^У Egp (0 ; = h. (6.8) Левая часть неравенства (6.8) описывает алгоритм работы опти- мального приемника для различения сигналов, который можно реализо- вать, например, на базе корреляторов (рис. 6.7). Рис. 6.7. Схема оптимального приемника для разрешения двух сигналов со случайными начальными фазами 151
В (6.8) функции 1п/0 i = 1,2 определяют характеристики нелинейных блоков. Так как данные характеристики являются монотон- ными, то эти нелинейные зависимости не имеют существенного значе- ния, и их можно пересчитать в соответствующие значения порогов. Так, например, при равенстве энергий сигналов и равных априорных вероят- ностях их присутствия в наблюдаемой реализации (6.8) эквивалентно условию > Х2, (6.9) т.е. при выполнении (6.9) принимается решение о наличии сигнала S] (z, q>]), а при его невыполнении принимается противоположное ре- шение. Аналогично могут быть получены схемы, реализующие алгоритмы различения сигналов со случайными начальными фазами и случайными амплитудами. Как и в задаче обнаружения сигналов, схема оптимально- го приемника в этом случае будет аналогична схеме на рис. 6.7. Изме- нятся лишь характеристики нелинейных блоков в двух каналах прием- ника, а также пороги различения. 6.3. Различение т детерминированных сигналов Рассмотрим более общую задачу, когда в наблюдаемой реализации y(z) присутствует один из т возможных сигналов <S,(z), i = па- раметры которых полностью известны. Возможны различные варианты формального математического описания данной задачи. Воспользуемся следующим векторным описанием. Введем вектор сигналов s(,)=|s,(os2(O ...s.(,)|T и случайный векторный (т -мерную стро- ку) параметр 0, который может принимать т возможных значений 0(1) = |ю...о|, е(2) = |о 1...о|, ..., 0(/)=|оо... 1...о|, ..., 0(ш) = = |0 0 ... 1|. Тогда наблюдаемую реализацию можно представить в виде y(z) = 0S(z)+w(z), ze[0,7-], а задачу распознавания сформулировать как задачу оценки значения векторного параметра 0. 152
Априорные вероятности Рар (S( (z)) - Papj присутствия сигналов ________ т Sj (/), i = \,т полагаем заданными, причем £ Pap i = 1. /=1 В отличие от всех ранее рассмотренных задач, где оцениваемый па- раметр принимал лишь два возможных значения, в задаче различения т сигналов оцениваемый случайный параметр принимает более чем 2 значения. Если вспомнить процедуру синтеза алгоритма оптимального обнаружения (п. 4.2.1, формула (4.3)), то можно увидеть, что оптималь- ное решение заключается в вычислении двух апостериорных вероятно- стей — наличия и отсутствия сигнала, и выбора максимальной из них. Математически выбор максимального значения из двух возможных можно записать как сравнение их отношения с единицей, что и приво- дит в итоге к пороговой схеме обнаружения. Вычисление апостериорных вероятностей является принципиальным моментом в данной процедуре и вытекает из идеологии теории статистических решений (см. гл. 3), пред- писывающей минимизацию апостериорного риска, т.е. функции потерь, усредненной по апостериорной плотности вероятности. В гл. 2 показа- но, что при простой функции потерь оптимальным решением является оценка, для которой апостериорная вероятность максимальна. Учитывая сказанное, решение задачи распознавания т сигналов будем искать в виде оценки случайного параметра б, для которой апостериорная веро- ятность максимальна, т.е. 9 = arg max (р(е|гог)). Рассмотрим совместную ПВ р(&, Yq j. Используя правило умноже- ния вероятностей (1.26), запишем p(q,Yo)=р(о|уог)р(гог)=|е)^(е)- (бло) Из (6.10) находим р(в|уог)=ср(уо7’|0)рар(е), (6.П) где с — константа, не зависящая от оцениваемого параметра 0. Таким образом, апостериорные вероятности /^0^ j определяют- ся априорными вероятностями Рар (0) значений неизвестного парамет- 153
ра и условной ПВ p(Yq |oj. Учитывая, что данная ПВ (4.18) отличается от отношения правдоподобия (4.17) множителем к, не зависящим от оцениваемого параметра 0, то правую часть (6.11) запишем в виде р(е|гог) = С1р(уог|0)рар(0), (6.12) где р(У0Г|е) = ехр 2 т — j0S(r)(yO)-O,50S(/)pr No о — отношение правдоподобия в рассматриваемой задаче различения m сигналов. Так как каждому значению 0^ случайного вектора соответствует сигнал S; (/), то (6.12) может быть представлено как Р(0« |уог) = ф (z)|УОГ) = с, • PapJ exp 2 т .о о i = i?w. (6.13) Оптимальное устройство, реализующее различение m сигналов, является многоканальным. В каждом i -м канале стоит оптимальный приемник для выделения сигнала 5, (z); для детерминированных сигна- лов — это коррелятор с опорным сигналом 5f (z). В момент времени Т (время принятия решения) значение отсчета на выходе оптимального приемника подвергается экспоненциальному преобразованию и умно- жению на соответствующую априорную вероятность Pap<i наличия данного сигнала в принимаемой реализации. В результате на выходе каждого канала формируется своя апостериорная вероятность |уог j, среди которых далее определяется максимальная, а номер канала, соответствующего максимальной апостериорной вероятности, дает решение о том, какой сигнал присутствует в наблюдениях. Схема оптимального устройства распознавания приведена на рис. 6.8. На практике часто полагают априорные вероятности Papi равными, т.е. Рар j - \/m. Если, к тому же, энергии сигналов равны, т.е. Е, =Е, < = 1,/п , то в оптимальном алгоритме различения сравнивать можно не 154
Рис. 6.8. Схема оптимального устройства распознавания т детерминированных сигналов апостериорные вероятности (6.13), а лишь соответствующие корреляци- онные интегралы. При этом схема, приведенная на рис. 6.8, преобразу- ется в т -канальный корреляционный приемник, дополненный блоком выбора максимального значения на выходе каналов. Такая схема явля- ется естественным обобщением двухканальной схемы, приведенной на рис. 6.2 и полученной для задачи разрешения двух сигналов. Характеристики различения т сигналов рассчитать в общем случае достаточно сложно, так как после экспоненциальных преобразований в схеме рис. 6.8 получаем случайные величины с негауссовским законом распределения. Поэтому рассмотрим более простой вариант задачи, ко- гда априорные вероятности Pap j равны и оптимальное устройство рас- познавания реализуется в виде многоканального корреляционного при- емника. В этом случае на выходе i -го канала формируется отсчет 7* (6.14) No о No Совокупность случайных величин ик,, « = 1,/и имеет гауссовский закон распределения. Методика расчета полной вероятности ошибки следующая. Рас- сматриваются условные распределения СВ ик,, i = l,m при фиксиро- ванном сигнале Sj(t) в наблюдаемой реализации. Соответствующая условная ПВ p[uKi,i = 1,от|5у (/)) является гауссовской с вектором МО 155
mU') = \mlU) m2(J)и матрицей дисперсий D(j) = 2г.— f or D,v(',=^r Поэтому запишем Ki,i = 1,mIsj (f)1 =-----------z-x U " (2к<1е.(О(У))Г/2 i m m r . i хехр]-т Z Z (uK5 ~ms (j)){d (;)} z 5_j v_] ^(«KV-^0)) (6-15) Для ПВ (6.15) можно рассчитать условную вероятность правильно- го решения, т.е. вероятность события ику >uKi, i* j v iel,m, т.е. значение отсчета в j -м канале больше (или равно) значений отсчетов каждого из всех других каналов. Математически это записывается сле- дующим образом: Ро(у)= (6.16) = J duKj j ...J p{uKiJ = l,m\Sj(t))duKiduK2^uKj-iduKj+i...duKm . Тогда полная вероятность ошибочного решения определяется вы- ражением т । т 1 т Рош = Е (1 - PD (J^Pap.j =-l(l-PD (») = 1 — Е Pd (j) • (6.17) J=1 rn y=1 m y=1 Наиболее просто вероятности (6.15) рассчитываются для ортого- нальных сигналов с равными энергиями. В этом случае, во-первых, в (6.14) можно не учитывать втрое слагаемое, так как оно одинаково для всех отсчетов и не влияет на выбор максимального. Во-вторых, [2E/N0=2q, j = s, \2E/NQ=2q, j = s, ”'W = | О, /*,. D'«W = 1 0. J*s. • т.е. матрица D(j) —диагональная. С учетом данных обстоятельств, (6.15) преобразуется к виду 156
(6.18) Подстановка (6.18) в (6.16) и интегрирование по «внутренним» т -1 интегралам распадается на произведение однотипных интегралов — интегралов вероятности. Поэтому, выполнив необходимые преобра- зования, получаем PdU) = Pd = 2 (6.19) Так как вероятности в (6.19) не зависят от индекса j, то упрощает- ся и выражение (6.17) Р0ш=1-Ро. (6.20) Формулы (6.19)—(6.20) при т = 2 переходят в формулу (6.6) для задачи распознавания двух сигналов. В результате расчетов вероятности полной ошибки при т > 2 можно убедиться в том, что она возрастает при увеличении т. Физически это объясняется тем, что при добавлении «новых» сигналов возникает дополнительная возможность принятия ошибочных решений относительно них при тех же ошибках относи- тельно ранее использованных сигналов. Контрольные вопросы к главе 6 1. Чем определяются характеристики различения двух детерминирован- ных сигналов? Какие сигналы имеют наилучшие характеристики раз- личения? 2. Чем структура оптимального приемника для различения двух сигналов отличается от структуры оптимального приемника в задаче различения т сигналов? 3. Что изменяется в структуре оптимального приемника при решении за- дач различения детерминированных сигналов и сигналов, имеющих случайные неинформативные параметры? 4. Дайте качественную оценку изменения характеристик различения де- терминированных сигналов и сигналов, имеющих случайные неин- формативные параметры. 157
Глава 7 ОЦЕНКА ПАРАМЕТРОВ СИГНАЛА 7.1. Постановка задачи оценки параметров сигнала В гл. 2 отмечалось, что РТС являются информационными систе- мами, в которых радиосигнал является переносчиком информации, а сама информация закодирована в том или ином параметре сигнала. При приеме радиосигнала одной из важнейших задач является извлечение передаваемой в нем информации. Если параметр радиосигнала, в кото- ром содержится интересующая потребителя информация, постоянен за время наблюдения (время принятия решения), то получение информа- ции о таком параметре называют оценкой параметра сигнала. В стати- стической теории РТС оцениваемые параметры радиосигнала описыва- ются как случайные величины с заданным законом распределения. По- этому задача оценки также является статистической задачей, которая формулируется следующим образом. Пусть на отрезке времени [0,Г] принимается реализация y(z), представляющая собой аддитивную функцию сигнала 5(/Д,ц) и по- мехи n(t): у(/) = 5(гЛ,ц)+л(г), ге[0,Т], (7.1) где X = |1],Х2,...,Х*|т — вектор информативных параметров сигнала, подлежащих оцениванию; ц = |ц],ц2,...,цр|Т — вектор неинформатив- ных параметров сигнала, которые не представляют интереса для потре- бителя; л (г) — БГШ с нулевым МО и двусторонней спектральной плотностью No /2. В общем случае X и ц принимают значения из непрерывных мно- гомерных областей Qj , , на которых заданы априорные ПВ р(Х) и р(ц). По располагаемым априорным данным и наблюдениям (7.1) не- обходимо сформировать оценку X информативных параметров в том или ином смысле наилучшую (оптимальную). Заметим, что в общем слу- чае потребителя не интересует оценка неинформативных параметров ц . 158
7.2. Общее решение задачи оптимального байесовского оценивания параметров сигнала на основе теории статистических решений Рассмотрим сначала задачу оценивания параметров сигнала при от- сутствии неинформативных параметров. В теории статистических решений (см. гл. 3) оптимальное байесов- ское решение ищется для заданной функции потерь в результате мини- мизации среднего риска (3.6). Для квадратичной функции потерь (3.1) средний риск имеет смысл дисперсии ошибки оценки параметров сиг- нала, а оптимальное решение X определяется как оценка условного среднего (3.12), т.е. Х = }Х^(х|уогрХ , (7.2) где У0Г = {y(f)> te [0,7]} — наблюдаемая реализация. Для простой функции потерь (3.4) оптимальная оценка — это такое значение параметров X , при котором апостериорная ПВ р (х|уог j мак- симальна, т.е. X* =arg max р(Х У0Г (73) Здесь знаком «*» подчеркивается тот факт, что оптимальная оценка при простой функции потерь в общем случае отличается от оптимальной оценки (7.2) при квадратичной функции потерь. Если АПВ р(Х|УОГ j дифференцируема по X и ее максимум дости- гается во внутренней точке области определения оцениваемых парамет- ров, то оценку (7.3) можно найти в результате решения уравнения Эр(х|уог) эх или эквивалентного ему
При наличии неинформативных случайных параметров ц с апри- орной ПВ р (р.) оптимальная оценка для квадратичной функции потерь определяется выражением (см. гл. 3, формула (3.20)) (7.5) где Х(ц) — условная оценка параметров X при фиксированных значе- ниях ц , которая определяется при заданном ц (3.21); р(ц|у0Г^ —апо- стериорная ПВ неинформативных параметров. Напомним, что оценки, полученные в результате минимизации ус- ловного риска, называются байесовскими. Важной особенностью таких оценок является наличие априорных ПВ р(Х) и р(ц). 7.3. Оценки максимального правдоподобия Пусть сигнал содержит только информативные параметры X , одна- ко априорная ПВ их распределения неизвестна. В этом случае для на- хождения оценок параметров сигнала широко используют метод мак- симального правдоподобия (см. гл. 3), при котором ищется оценка мак- симального правдоподобия Хм, определяемая из решения уравнения правдоподобия (3.17), которое запишем в виде Э1пр(уог|х) ЭХ . =0. Х = ХМ (7-6) Напомним, что условная ПВ p^Yq |Xj, рассматриваемая как функ- ция параметров X, называется функцией правдоподобия. Учитывая равенство р(х|уог ) = ср(уог |х)р(Х), нетрудно увидеть, что (7.4) и (7.6) отличаются слагаемым Э1пр(Х)/ЭХ. Следовательно, байесовские оценки при простой функции потерь и оценки максималь- ного правдоподобия совпадают, если априорное распределение р(Х) — равномерное. Иногда бывает удобно вместо функции правдоподобия p^Yq |Х рассматривать отношение правдоподобия, т.е. нормированную функцию 160
р № |*)= p(Y0T |х) p(roWM = o)’ (7.7) Ранее отношение правдоподобия возникало в результате решения задачи обнаружения сигнала (4.4) и широко использовалось в теориях обнаружения и различения сигналов. В отличие от (4.4) в формуле (7.7) подчеркнута зависимость отношения правдоподобия от фиксированного значения оцениваемого параметра к . Отношение правдоподобия также можно рассматривать как функцию от детерминированного параметра к . Так как знаменатель в (7.7) не зависит от к , то отношение правдо- подобия р ( Yq |Х 1, которое здесь для краткости будем записывать как р (X), можно использовать в уравнении правдоподобия (7.6) вместо функции правдоподобия. Следовательно, оценки максимального прав- доподобия можно искать из эквивалентного уравнения Э1пр(Х) ах - =0, Х = ХМ (7.8) которое в дальнейшем также будем называть уравнением правдоподобия. При наличии неинформативных параметров сигнала ц оценку мак- симального правдоподобия следует искать из уравнения правдоподобия (3.25), в которое входит усредненная функция правдоподобия (3.24). Учитывая показанную выше допустимость использования в уравнении правдоподобия отношения правдоподобия, аналогичная процедура за- мены может быть сделана и для (3.25), т.е. оценку информативных па- раметров можно искать из уравнения Э1пр(Х) ЭХ - =0, Х = ХМ (7.9) где р(Х)= J p(X,p)p(p)Jp. (7.10) Оценка хм максимального правдоподобия первоначально была оп- ределена эвристически, поэтому, в отличие от байесовских оценок, о ее качестве, исходя только из определения (3.16), ничего определенного нельзя сказать. Для определения свойств оценок максимального прав- 6—2041 161
доподобия были проведены серьезные исследования, в результате кото- рых доказан ряд важных свойств таких оценок. 7.4. Свойства оценок максимального правдоподобия Свойства оценок максимального правдоподобия получены при от- сутствии неинформативных случайных параметров сигнала, поэтому именно для такой задачи оценивания они будут изложены ниже. Кроме того, для простоты изложения рассмотрим задачу оценки скалярного параметра X. 7.4.1. Несмещенность Рассматривая условную ПВ р (уог |Х j, можно говорить о наблюде- ниях Yq , которые зависят от некоторого неслучайного, но неизвестно- го, параметра X. Пусть в результате обработки наблюдений Yq сфор- мирована некоторая оценка X неизвестного параметра (некоторое наше решение d = M^Korj = X о значении оцениваемого параметра). Данная оценка является функцией от наблюдений, т.е. Х(уог j, поэтому она яв- ляется случайной величиной. Если МО оценки X^yjj равно истинно- му значению параметра X, то оценка называется несмещенной. Если л/[х] = jxp(yor|xpy(f = Х + Дх(Х), С7-11) то оценка называется смещенной, а Ад — смещением оценки. Смеще- ние оценки в общем случае зависит от фактического значения парамет- ра А. 7.4.2. Эффективность Запишем выражение (7.11) в виде |(Х-Х-Дх(Х))р(уог |ХрУог =0. (7.12) Полагая, что функция правдоподобия дифференцируема, продиф- ференцируем (7.12) по X: 162
-J(l + Ax (Х))/,(уог|ХрУог +j(X-X-Ax(X))^|Xhyor = . x / .Эр(уог|Х) = _(1+ДЦХ))+/(Х-Х-Дх(Х)) dY^ =0. (7.13) Учитывая равенство (7.14) выражение (7.13) можно записать в виде I— --ЭIn(о(У) |Л.)) ।- /(х-х-ддх)) ^(уог|х)—Ц-—= (1+д; (х)). (7.15) Используя доказанное в математике неравенство Коши—Буняков- ского <2 J f(x)g(x)dx <°[ f2 {x)dx J g2 (x)dx , причем знак равенства имеет место при (7-16) где константа с не зависит от х, преобразуем (7.15) к виду / / / т. ЛЧ2 ЭХ > (7.17) Первый интеграл в левой части (7.17) определяет дисперсию ошиб- ки оценки X j(x-x-A4x))2p(y0r|x)rfy0r =/(х-л/[х])2р(уог|х)эуог = (7.18) 163
поэтому (7.17) может быть представлено как \2 ЭХ (7.19) Формула (7.19) называется неравенством Рао—Крамера. Если оценка X является несмещенной, то неравенство Рао—Крамера прини- мает вид ЭХ (7.20) Правые части неравенств (7.19), (7.20) определяют нижние границы для дисперсии ошибки любой смещенной или несмещенной оценки, поэтому их называют границами Рао—Крамера. Несмещенная оценка, для которой в (7.20) имеет место знак равен- ства, называется эффективной и обозначается Х^. Пусть Хэф — некоторая эффективная оценка. Тогда по определе- нию эффективной оценки в (7.20) выполняется равенство, а условием, когда неравенство Коши—Буняковского переходит в равенство, являет- ся (7.16), которое в рассматриваемой задаче принимает вид (7.21) ЭХ \ \ / Г' где <р(Х) — функция, не зависящая от Yq . Равенство (7.21) должно выполняться для любого X из области- возможных значений • Но оценка Х^ также принимает значение из той же области • Поэтому выберем такое значение X = X, для кото- рого (7.21) обращается в ноль, т.е. X = Х^ (тог j. Тогда для (7.21) можно записать 164
Э1п(^(ког |х)) ЭХ =(ч(>ог)-^)ф(^)=о. Учитывая выражение (7.14) для производной логарифма функции правдоподобия, приходим к следующему результату: (7.22) Но (7.22) есть не что иное, как уравнение правдоподобия. Следова- тельно, если существует эффективная оценка Х^, то она совпадает с оценкой максимального правдоподобия. Получим эквивалентную форму записи правой части неравенства Рао—Крамера (7.20). Для этого рассмотрим вторую производную Э2 1п(р(у07’|^))_ Э ЭХ2 ’ЭХ' Умножим обе части полученного выражения на p(Yq |Х1 и проин- тегрируем по X и Yq или, другими словами, усредним это равенство по М Э21п(р(У0Г |Х))/эХ2 = М ЭХ 165
Следовательно, неравенство Рао—Крамера (7.20) можно записать в виде (7.24) Выражение (7.25) получило название информации по Фишеру. Таким образом, дисперсия любой несмещенной оценки не меньше величины, обратной информа- ции по Фишеру. Обобщение неравенства Рао—Крамера на случай оценки вектор- ного (т -мерного) параметра X дается следующим образом. Пусть RX=A/ (Х-Х)(Х-Х) — корреляционная матрица ошибок несме- щенной оценки а, состоящая из элементов Ry = М (X,- — Х( дХу — Ху Определим матрицу J = |J;y j, i, j = 1,т с элементами Jy-M- Э1п(р(УоГ|х))Э1п(р(уог|х)) эх; эх~ Э21п(р(у|Х)) ЭХуЭХу (7.26) Матрицу J называют информационной матрицей Фишера. Неравенство Рао—Крамера для нижней границы корреляционной матрицы ошибок имеет вид Re > J“’, (7.27) где J-1 — матрица, обратная информационной матрице Фишера J . 166
Если в (7.27) имеет место знак равенства, то оценки d,, i = 1,т на- зываются совместно эффективными. Применительно к оценке двух параметров X] и Х->, считая эти опенки совместно эффективными, из (7.26), (7.27) получаем п. =R - - 1 1 11 det (J) 2' Di = я22 =—V-=— det(J) M M _____1 1-r2 (? 1 Я12=Я21=г(£ьХ2)^Д2 . (7.28) Здесь r(Xi,X2) — нормированная взаимная корреляционная функция оценок А.] и Х2, det(J) = JnJ22-J22. Из сравнения формул (7.28) и (7.25) следует, что первый сомножи- тель в правых частях первых двух формул (7.28) совпадает со средним квадратом ошибки эффективной оценки одного параметра. Так как все- гда выполняется условие 0 < r^X],X2 j < 1, то ясно, что наличие конеч- ной корреляции между оценками параметров всегда приводит к увели- чению среднего квадрата ошибки совместно эффективных оценок по сравнению со средним квадратом ошибки эффективной оценки одного параметра. 7.4.3. Достаточность Рассмотрим выражение (7.21), где в левой части равенства от на- блюдений Yq зависит условная ПВ 1^-)), а в правой части на- блюдениями определяется только оценка Хэф (у/ j. Оценка X = §(Уо ) называется достаточной, если в результате обработки, т.е. при выпол- нении преобразования g (уог j, из наблюдений Уог полностью извлече- на информация об оцениваемом параметре, т.е. никакая другая обработ- 167
ка наблюдений (никакая другая функция g^Yg j) не может дать допол- нительной информации, касающейся оцениваемого параметра X. Необходимое и достаточное условие того, чтобы оценка X = g (y/f j была достаточной, состоит в возможности факторизации функции прав- доподобия р(гог |х)= /(х,Х = ^(гог ))/z(vJ), т.е. ее представления в виде произведения двух сомножителей, один из которых зависит от истинного значения X параметра и его оценки X = g (у0Г j, а второй (7.28) зависит только от наблюдений YJ и не за- висит от X. Достаточную оценку иногда называют достаточной статистикой. 7.5. Свойства оценок случайных параметров 7.5.1. Смещенность оценок случайного параметра Пусть X — случайный параметр с заданной априорной ПВ Рар , а X — некоторая его оценка. Вычислим МО оценки М ^Х j и рассмотрим разность Д^ = X-A/[xj. Так как X — случайная величи- на, то Д^ также является случайной величиной. Но в соответствии с данным в п. 7.4 определением Д^ — это смещение оценки. Следова- тельно, для каждого конкретного значения X, возможно кроме одного, получаем Д^ *0, т.е. оценка случайного параметра при определении (7.11) всегда будет смещенной. О несмещенности оценки случайного параметра можно говорить лишь в среднем, т.е. о выполнении условия л/[х-л/[х]]=о. 7.5.2. Граница Рао—Крамера для оценки случайного параметра Пусть по результатам наблюдений Yq оценивается параметр сигна- ла X, представляющий собой СВ. Покажем, что средний квадрат ошиб- ки любой оценки X при некоторых условиях имеет значение, которое 168
не может быть меньше нижней границы, определяемой обобщенным неравенством Рао—Крамера. Полагаются выполняющимися условия: 1. др (Х, Yq j/dX и д2р(к,у/ j/ЭХ2 абсолютно интегрируемы по X и Уо; 2 Нт {Рар (Х)Л/[Х]} = 0, где М [X] — условное МО ошибки при X—>i°° заданном X A/[X] = j[x(yor)-x]p(yo7’|X)rfyor • (7-29) Рассмотрим равенство (7.29). Умножим обе части этого равенства на рар (X), а затем продифференцируем по X ^[РаР (^-)А/[Х]] = -£{][х(уог)-х]р(гоГ |Х)Рар (Х)ЭУ0Г} = =-JP(x,yorpyor +j[x(yor)-x] Эр(х,Уог) эх ЭУОГ. Проинтегрируем полученное равенство по X I- Г-7 т \ Т^(Х,У0Г) Рар (Х)ЛГ [х]|_ =-i+Jj|x(yor)-x] ^~dXdYo Согласно условию 2, левая часть данного равенства равна нулю. Следовательно, получаем „г., т\ т JJ X Уог)-Х A ---.2jxjyor = 1. L ' ' J оЛ (7.30) Учитывая формулу дифференцирования (7.14) представим (7.30) в виде Введем две случайные величины (7.31) ^(х,уог)=х(уо7’)-х, п(х,уог)= Э1пр(х,Уог) эх 169
и рассмотрим нормированные случайные величины (732) где Л/[^2] = p^Y^dMYf ; 2 Из очевидного неравенства (£н -т1н) - 0 следует £н+Пн^нТ]н> (7.33) причем знак равенства имеет место в том случае, если £н=Пн- (7-34) Усредняя (7.33) по плотности вероятности р Kor j, с учетом оп- ределения (7.32), получаем 1 > JJ^H (х,гог )пи (*ЛГ )р)dMYf . Подставляя в данное неравенство выражения (7.32) и учитывая оп- ределения случайных величин £ и Т], приходим к следующему нера- венству: яр пЭ1пр Х,КоГ) , _ 1У° Й----------'-pfatyMYj < (7.35) причем знак равенства, в соответствии с (7.34), имеет место при 170
Э In р (х, Уог) ЭХ = х[х(уог)-х (7.36) где к — константа, не зависящая от X. Учитывая равенство (7.31), соотношение (7.35) можно представить так: Д [х(уог) - х]2 р(х,уог )эхэуог эх P(x,yorpxjyor В левой части полученного неравенства стоит средний квадрат ошибки оценки случайного параметра X, поэтому его можно записать в виде p(k,Y^)d^ (7.37) Следовательно, физический смысл полученного неравенства состо- ит в том, что средний квадрат ошибки любой оценки не превосходит некоторой нижней границы, которая определяется выражением, стоя- щим в правой части (7.37), и носит название нижней границы Рао— Крамера для оценки случайного параметра. Для оценки случайного параметра X определим понятие эффектив- ной оценки Хэф как оценки, дисперсия ошибки которой достигает ниж- ней границы Рао—Крамера (7.37), т.е. С другой стороны, знак равенства в (7.37) имеет место при выпол- нении условия (7.34). Проанализируем это условие, для чего продиффе- ренцируем (7.36) по X Э21пр(х,У0г)/эХ2=-Х. (7-38) Используя формулу Байеса, запишем 171
р(х,ГоГ) = р(х|Уо7’)р(УоГ)- (739) Подставляя данное соотношение в (7.38) и выполнив преобразова- ния, получаем Дважды интегрируя данное уравнение, приходим к нормальной апостериорной плотности p|Xi(f ) = ехр(-£Х2 +С]Х + с2 Следовательно, для эффективной оценки случайного параметра апостериорная ПВ должна быть гауссовской. Для неравенства Рао—Крамера (7.37) можно, также как и в п. 7.4.2, получить эквивалентную форму записи, аналогичную (7.24) (7.40) Учитывая представление (7.39), для второй производной, входящей в (7.40), запишем -Ml ЭХ2 \-м Э21прар(Х) ЭХ2 (7.41) Здесь первое слагаемое в правой части учитывает информацию, полу- чаемую из результатов наблюдений, и совпадает с введенной в п. 7.4.2 информацией по Фишеру. Второе слагаемое в правой части (7.41) учи- тывает априорную информацию. Приведем без доказательства неравенство Рао—Крамера при оценке векторного случайного параметра Х = {Х(}, i = \,p . Пусть i,j = 1,р — корреляционная матрица средних квадратов ошибок, со- 172
ставленная из элементов Ry — Л/ЦХ, - X,-дХу — Ху jj . Определим мат- рицу J ={Лу}> ^J = ^P с элементами Э1п(р(Х,Уог)) ЭIn(X,Уог)) ЭХ, ЭХу Неравенство Рао—Крамера для нижней границы корреляционной матрицы ошибок имеет вид R^>J-1, (7.42) где J-1 — обратная матрица. Если в (7.42) имеет место знак равенства, то оценки случайных па- раметров называются совместно эффективными. 7.6.Оц енка параметров сигнала, принимающих дискретные значения Положим, что оцениваемый параметр X может принимать некото- рое конечное множество значений, т.е. X = {X,}, i = 1, р, а неинформа- тивные параметры ц сигнала отсутствуют. 7.6.1. Байесовское решение Для большей наглядности рассмотрим случай оценки одного ска- лярного параметра X. Пусть заданы априорные вероятности возмож- ных значений оцениваемого параметра Рар (X, ) = Р{Х = X,}, так что i=i Для получения байесовских решений, например (7.2), (7.3) необхо- димо рассчитать апостериорные вероятности возможных значений оце- ниваемого параметра. Используя формулу Байеса, запишем Р(Х,- |уог ) = сРар (X,.)р(у0Г |Х,), (7.43) где константа с определяется из условия нормировки суммы вероятно- стей к единице 173
(7.44) Подставляя (7.44) в (7.43), получаем следующий алгоритм для вы- числения апостериорных вероятностей: ) = Рар |Х, )/f Рар (X,-)р|Х,). (7.45) Располагая апостериорными вероятностями, можно сформировать ту или иную оптимальную оценку. Наиболее просто получается опти- мальное решение при простой функции потерь (7.3). Однако (7.3) вклю- чает нелинейные операции, что заметно усложняет вычисления. Поэто- му, учитывая, что функция нахождения экстремума инвариантна отно- сительно монотонных преобразований, прологарифмируем (7.45) Последнее слагаемое в данном выражении является одинаковым для всех апостериорных вероятностей. Поэтому при их сравнении его можно не учитывать. При фиксированных значениях X,- условная ПВ |X, j, с уче- том (4.18), записывается в виде 2 г — JS(r,X/)(y(O-O,5S(/,X/))A.. . о О (746) Вводя обозначение р(Х,) = 1п(р(х; |уог)) и учитывая сделанные выше замечания, (7.46) можно представить как р(Х,) = 1п(Ра/,(Х,))+^-}у(/)5(/,Х,.)Л-^, (7.47) Noo No т где £(XZ) = JS2(/,XZ)A — энергия сигнала при значении параметра о Х = Х,. Из (7.47) следует, что существенной по отношению к принимаемой реализации {у (г), re [О,Г]} является корреляционная обработка 174
2 т — (7.48) ло о с опорным сигналом 5(г,Х,), определенным для значения информаци- онного параметра 1, равного X,. Алгоритм (7.48) по форме аналогичен алгоритму оптимального приемника в теории обнаружения. Однако существенное отличие со- стоит в том, что в нем опорный сигнал S (/, Х;) в общем случае (для произвольного X,) не согласован с сигналом 5(/,Х) в принимаемой реализации, так как Х( # X. Как следствие этого, действительно “опти- мальным приемником” алгоритм (7.48) будет лишь для того значения X,, которое имеет место у сигнала в принимаемой реализации. Для всех остальных значений Х( алгоритм (7.48) не оптимальный. Такая “неоп- тимальность” приводит к уменьшению значения корреляционного инте- грала (7.48), а, следовательно, уменьшению соответствующих апостери- орных вероятностей и их логарифмов. Схема оптимального алгоритма оценки параметра X (рис. 7.1) представляет собой многоканальное устройство, в каждом i -м канале которого стоит перемножитель входного колебания на свой опорный сигнал S(z,X(), интегратор и сумматор. Решающее устройство выбира- ет максимальное из выходных сигналов каналов и определяет соответ- ствующее оптимальное решение X*. Рис. 7.1. Схема многоканального измерителя параметра сигнала при простой функции потерь 175
Некоторое упрощение оптимального устройства оценивания полу- чается в том случае, когда энергия сигнала не зависит от оцениваемых параметров X. Такие параметры сигнала называют неэнергетическими. При этом в (7.47) можно не учитывать последнее слагаемое, а в схеме рис. 7.1 исключить первые сумматоры. Неэнергетическими параметра- ми сигнала являются частота, фаза, а в ряде случаев и задержка. Параметры сигнала, от которых зависит его энергия, называют энергетическими. К ним относятся амплитуда, длительность сигнала, а в ряде случаев задержка, когда при отдельных ее значениях сигнал вы- ходит за пределы интервала наблюдения [0,7’]. Оптимальный измеритель, приведенный на рис. 7.1, является мно- гоканальным устройством. На практике такие многоканальные устрой- ства широко используются в радиолокационных системах при оценке задержки сигнала и доплеровского смещения частоты. Получим теперь оптимальное решение для квадратичной функ- ции потерь. В этом случае оптимальная оценка, в соответствии с (7.2), должна вычисляться как апостериорное среднее по формуле X = £ Х,Р1 Х; pg I. Следовательно, необходимо вычислить все апостери- орные вероятности PIXJ}(f 1 = ср|Уог |X, jP(X( ), где с определяется в соответствии с (7.44). Рис. 7.2. Схема многоканального измерителя параметра сигнала при квадратичной функции потерь 176
Существенной операцией для определения этих вероятностей по- прежнему остается вычисление корреляционного интеграла (7.48). Од- нако в дальнейшем необходимо выполнить ряд нелинейных преобразо- ваний (экспоненциальное и нормировка, см. (7.44)). На рис. 7.2 приве- дена схема устройства оценивания параметра сигнала. Из рис. 7.2 следует, что оптимальная система заметно усложняется. Поэтому для решения практических задач чаще используют схему рис. 7.1, формирующую оптимальную оценку для простой функции потерь. 7.6.2. Небайесовское решение. Оценки максимального правдоподобия Оценки максимального правдоподобия, как следует из п. 7.2, отли- чаются от байесовских оценок от- сутствием априорных вероятностей />(Х/), / = 1,р. Поэтому схема оптимального устройства оценива- ния будет такой же, что и на рис. 7.1, но с отсутствием вторых сум- маторов (с компонентами ln [Рар ,)). В случае оценки неэнер- гетических параметров сигнала по- лучаем наиболее простую схему, приведенную на рис. 7.3. Данная схема включает на- с- „ а ___ Рис. 7.3. Схема многоканального бор корреляторов и блок опреде- измерителя параметра сигнала ления максимального значения. 7.7. Оценка параметров сигнала с непрерывной областью значений 7.7.1. Прямые методы решения задач оценивания параметров сигнала Если область возможных значений параметра сигнала непрерывна, то (как показано в пп. 7.1, 7.2) оптимальные оценки параметров сигнала ищутся в результате решения уравнений (7.4) или (7.8). Рассмотрим оценки максимального правдоподобия и запишем уравнение (7.8) в раз- вернутом виде 177
д (7-49) Nq о *0 = 0. В ряде задач решение данных уравнений удается получить аналити- чески. Оценка амплитуды радиоимпульса. Пусть сигнальная функция описывается соотношением 5(/,Х) = 4/'{r-T3)cos((0/ + (p0), /е [0,Г], (7.50) /(0 = 1, при 0</<ти, 0, при I < 0, z > ти. Положим, что все параметры сигнала, кроме амплитуда А , извест- ны. Амплитуда сигнала является энергетическим параметром, поэтому необходимо учитывать зависимость энергии сигнала Е(А) от ампли- туды. Тогда уравнение правдоподобия (7.49) принимает вид д 2Ате , . , \( / \ А cos(flW+<₽o)И ')“7 з It = 0. A = A (7-51) Оно имеет решение - 1 г A = — $y(t)Si(t)dt, Л1 о т где = j 5|2 (/) dt, S] (t) = f (l - т3) cos (ом + ф0 ) — нормированная сиг- 0 нальная функция. Из (7.51) следует, что оптимальное устройство оценивания пред- ставляет собой коррелятор входного колебания с опорным сигналом Рассчитаем характеристики оптимальной оценки амплитуды. Так как (7.51) определяет линейное преобразование входного процесса, то оценка А — случайная величина, распределенная по нормальному за- кону. Среднее значение оценки 178
M [л] = ^(AS^ + n^S^dt . I о м Таким образом, среднее значение оптимальной оценки амплитуды равно ее истинному значению, т.е. оценка амплитуды сигнала - несме- щенная (см. п. 7.4.1). Дисперсия оценки определяется выражением М = М (А - А) , т.е. равна дисперсии ошибки оценки амплитуды 2£] ти (7-52) Таким образом, дисперсия ошибки оценки амплитуды пропорцио- нальна интенсивности аддитивного шума и обратно пропорциональна длительности импульса. Оценка начальной фазы радиоимпульса. Пусть теперь оценивае- мый параметр — начальная фаза <р0 сигнала (7.50). Уравнение правдо- подобия в этом случае запишется так: Э Э(р0 2 т — J y(t)Af(t-т3 )cos(wz + ф0 )dt Л0 о = 0. (7.53) Здесь учтено, что начальная фаза — это неэнергетический параметр, поэтому второе слагаемое в исходном уравнении (7.49) опущено. Выполнив в (7.53) дифференцирование, находим т J (/) Л/(/- т3 )sin ((1М + Фо )Л = 0, о или фо = -arctg т о______________________ г \y(‘)f(.t-x3)cos(<at)dt о (7.54) 179
Схема оптимального устройства оценки начальной фазы сигнала приведена на рис. 7.4. Рис. 7.4. Схема устройства оптимальной оценки начальной фазы сигнала Как следует из рис. 7.4 и формулы (7.54), устройство оценки на- чальной фазы сигнала есть нелинейное устройство, прямой расчет ха- рактеристик которого достаточно сложен. Поэтому отложим на некото- рое время расчет характеристик оптимальной оценки начальной фазы сигнала. В других задачах оценивания параметров сигнала аналитическое решение найти не удается. В этом случае реализуются поисковые про- цедуры нахождения решения уравнения правдоподобия. Проиллюстри- руем это на следующих примерах. Оценка временного положения радиоимпульса по огибающей. Временное положение радиоимпульса (7.50) может определяться по запаздыванию т3 огибающей. Параметр запаздывания — это параметр неэнергетический. Поэтому уравнение правдоподобия можно записать в виде -----cos((tM + (p0)<// = 0. (7.55) О “Тз Согласно этому выражению, в оптимальном измерителе осуществ- ляется корреляционная обработка между входным колебанием и произ- водной по задержке от огибающей сигнала. При этом производная игра- ет роль опорного сигнала. Нахождение решения уравнения (7.55) может быть реализовано с помощью схемы, приведенной на рис. 7.5. Входная реализация y(t), ге[0,Т] запоминается. Для каждого значения т3 вы- числяется и запоминается значение корреляционного интеграла (на вы- 180
ходе интегратора схемы рис. 7.5). Далее фиксируется такое т3, при ко- тором значение отсчета на выходе интегратора переходит через значе- ние «О». Это значение т3 и принимается как решение задачи. Я») I- —► х #(z-t,) cos(co/ + <p0) Схема фиксации перехода через О di, J Рис. 7.5. Схема поиска и оценки задержки сигнала Таким образом, получена система последовательного поиска по оцениваемому параметру. Недостатком данного метода является необ- ходимость запоминания наблюдаемой реализации и большая длитель- ность процедуры последовательного поиска. Альтернативным решением является дискретизация непрерывной области возможных значений оцениваемого параметра и использование методов оценивания, описанных в п. 7.2. При этом получается многока- нальная система оценивания, которую можно интерпретировать как сис- тему параллельного поиска по оцениваемому параметру. Оценка частоты радиоимпульса. Пусть оцениваемым параметром является частота 0) принимаемого сигнала. Запишем уравнение правдо- подобия т J Zy (z)/(z - т3 )sin (cw+ф0 )Л = 0. (7.56) о Данное уравнение не решается аналитически относительно искомой оценки ю. Поэтому оптимальный измеритель должен находить корень уравнения (7.56) путем перестройки частоты 6) опорного сигнала и вы- числения для каждого значения частоты корреляционного произведе- ния (7.56). Таким образом, получаем систему последовательного поиска по частоте сигнала. Рассмотрим вопрос о возможной реализации такой системы. Для этого представим (7.56) в виде 181
cos ((d)+ 5w)z + <po) ~ cos((w- 5(d) z + Фо) о 25<o Л = 0 (7.57) где 5(0 — расстройка по частоте. Поиск решения уравнения (7.57) может быть реализован устройст- вом, схема которого приведена на рис. 7.6. /(z-т,) cos((e>-6c>y + <p0) Рис. 7.6. Схема поиска и оценки частоты сигнала Другой возможный вариант построения устройств оценки парамет- ров сигнала основан на использовании понятия дискриминатора. 7.7.2. Оценка параметров сигнала с помощью дискриминаторов Уравнение правдоподобия (7.8) можно решать каким-либо итераци- онным методом, например, методом Ньютона. Суть любого итерацион- ного решения произвольного уравнения вида Л(Х) = О '.(7.58) заключается в следующем. Уравнение (7.58) приводится к виду Х = ф(Х). (7.59) Выбирают некоторое начальное приближение и вычисляют последовательные приближения Л('+1) = ф(хМ), / = 0,1,2. Итерационный процесс продолжается до достижения требуемой точности решения. 182
Имеется много способов приведения уравнения (7.58) к виду (7.59). Например, в методе Ньютона функцию Л(Х) разлагают в ряд в точке № с использованием лишь линейного члена разложения. При этом (7.58) принимает вид (7.60) Полагая, что dh (х^ j/ЭХ * 0, из (7.60) получаем х=х(/) - а (х«) эл (х« )/эх *. (7.61) Вычисленное таким образом значение X принимают в качестве но- вого значения итерационной процедуры, т.е. Х^,+1^ = X, и процесс вы- числения повторяется. Так как в рассматриваемой задаче оценивания, например, в соответ- ствии с (7.8), имеем Л(Х) = Э1п(р(Х))/ЭХ, а равенство нулю в (7.58) выполняется при X = Хм , то (7.61) принимает вид Таким образом, оценка максимального правдоподобия может быть выражена через некоторое опорное значение Хоп = Х^\ лежащее в ок- рестности Хм, по формуле Э1п(р(Х0П))[э21п(р(Х0П))Г1 ЭХ2 которую можно представить в виде Э1п(р(Хоп))Гэ21п(р(Хоп)) эх эх2 183
Устройство, выделяющее информацию о рассогласовании между оценкой параметра и его опорным значением, в радиоавтоматике при- нято называть дискриминатором. Определим дискриминатор выраже- нием _Э1п(р(Х0„)) "«------— <7 63) и запишем (7.62) в виде оЛ Из курса радиоавтоматики [3] известно, что при малых фиксирован- ных рассогласованиях ДА. = Хм - А.оп среднее значение процесса на вы- ходе дискриминатора определяется выражением Л/[ид] = .$д (А.оп )ДА.. Поэтому, усредняя (7.63), получаем 5Д (Х0П) = -Л/[э21п(р(Х0п))/Э12]. Но, как следует из (7.24), при А.оп = А. правая часть полученного выражения — это информация J по Фишеру. Следовательно, 5Д (А.) = = / = ,/%' Введем дискриминатор с нормированной характеристикой V, Э1п(р(^оп))Г^21п(р(^оп))] 1 мд,н (Лоп)_ 2 ’ Р-64) оЛ ЭА. который иногда называют оптимальным дискриминатором. Тогда оценка максимального правдоподобия (7.62 ) может записана в виде — ^011 "*"Чд,н (\>п) • (7-65) Формулы (7.64), (7.65) определяют сущность метода нахождения оценок параметров сигнала с помощью дискриминаторов. 7.8. Потенциальная точность оценок параметров сигнала Под потенциальной точностью оценок параметров радиосигнала понимают нижнюю границу Рао—Крамера (7.24) для дисперсии ошиб- 184
ки оценки неслучайного параметра, т.е. оценки максимального правдо- подобия. Потенциальная точность характеризует тот предел точности оценивания, который может быть достигнут только в результате обра- т ботки наблюдаемой реализации , т.е. без учета априорной информа- ции. Потенциальная точность оценки векторного параметра характери- зуется корреляционной матрицей ошибок Rn0T, обратно пропорцио- нальной информационной матрице Фишера, элементы которой, соглас- но (7.26), вычисляются как среднее значение вторых производных от функции правдоподобия по оцениваемым параметрам. Учитывая сказанное, рассчитаем потенциальную точность оценок параметров сигналов для задач оценки параметров радиосигнала. Потенциальная точность оценки амплитуды радиоимпульса. Подставляя в общую формулу для отношения правдоподобия (4.15) вы- ражение (7.50), описывающее радиоимпульс, запишем 1п(р(Л))= (7.58) 2 т = —Ну(ОЛ^(/-Тз)со8(шг + ф°)-0,5Я2/2 (z-t3)cos2 (ом+ф)}Л . ^0 о1 Дифференцирование (7.58) дважды по А приводит к следующему выражению для потенциальной точности: °ш4"«{э21п(р(л))/эл2}'2у52(,)Л/ЛГо о т где Д = J52 (t)dt; Sj (/) = /(г-т3)со5(со/ + фо). о Формула (7.59) совпадает с выражением (7.52) для дисперсии ошибки оценки амплитуды радиоимпульса, полученной прямым расче- том для алгоритма оценивания (7.51). Потенциальная точность оценки начальной фазы радиоимпуль- са. Получим выражение для потенциальной точности оценки начальной фазы радиоимпульса (7.50). Дифференцируя (7.58) дважды по фо, по- лучаем 185
= D . =_________-1 Ло.1 Фэф ОШф0 Л/{э21п(р(фо))/Э<ро} 2£ 2/ (7.60) где Е = 0,5Л2]/2 (/-т3)Л = 0,5Л2ти —энергия сигнала; q = EINQ — отношение сигнал/шум. Из (7.60) следует, что потенциальная точность оценки начальной фазы определяется отношением энергии сигнала к спектральной плот- ности аддитивного шума и не зависит от формы сигнала. Потенциальная точность оценки задержки радиоимпульса по огибающей. Для расчета потенциальной точности оценки задержки ра- диоимпульса по огибающей необходимо (7.58) дважды продифферен- цировать по т3. Прежде всего заметим, что последнее слагаемое в этом выражении представляет собой энергию сигнала. Если весь радиоим- пульс находится в пределах интервала наблюдения [0,7’], то его энер- гия не зависит от временной задержки. Поэтому производная от этого слагаемого равна нулю. Следовательно, получаем Т, Э2/(/-т3) J У )---—5----cos (w t +фо) dt 0 дТз J 4 37 -v,2 7V0 0 (7.61) где /(г-т3) = /(г-т3)со8((ог + ф0). Для проведения дальнейших вычислений в (7.61) запишем выражение т _ J7(z-T3)/(/-T3)A = const, (7.62) о которое не зависит от т3, если радиоимпульс находится внутри интерва- ла наблюдения [0,7’]. Продифференцируем (7.62) два раза по т3 (7.в) 0 Эт3 о дт3 ^з С учетом (7.61), (7.63) получаем следующее выражение для потен- циальной точности оценки задержки радиоимпульса: 186
D = d =__________________!_________= "o _ 1 Чэф 0ШТ’ Л/{э21п(р(т3))/дт2} 2Ep2 2<?p2 ’ o2 _ T( 35 (' ~ хз ) где p =J ----------- 0 . (7.64) dt3 2 /у dt \S2 (t-x3)dt. / 0 (7.65) Формула (7.64) известна под название формулы Вудворда (впервые получившего ее) для дисперсии оценки задержки сигнала. Из (7.64) сле- дует, что потенциальная точность оценки временного запаздывания, как и для предыдущих задач, обратно пропорциональна величине отноше- ния сигнал/шум q. Рассмотрим смысл параметра Р. Введем комплексный спектр 5 (j со) сигнала S(f) S(j©) = {$(г)е-^<Й о и воспользуемся известными соотношениями Г 1 00 I ol Е = jS2(t,x3)dt = — f S(jco) pw, 0 2jt~J 1 5(г-т3) = Л/(/-т3) = А. ]s(jffl)e^P/. Тогда (7.65) преобразуется к виду Из данного выражения следует, что Р — нормированный второй момент энергетического спектра сигнала, часто используемый в качест- ве меры ширины частотного спектра сигнала. С учетом этого, из (7.64) следует, что потенциальная точность оценки временного запаздывания огибающей радиоимпульса обратно пропорциональна квадрату ширины спектра сигнала. Потенциальная точность оценки задержки по фазе сигнала. Описание принятого радиоимпульса в виде (7.50) в принципе возможно, но является в определенной степени идеализацией. Если на передающей стороне излучен радиоимпульс 187
5(r,l) = 4/'(z)cos(a)/ + (p0), zefO.T], то на приемной стороне имеем S(r,X) = 4/'(/-T3)cos(a>(z-T3) + <p0), zefo.r]. (7.67) Из (7.67) видно, что задержка т3 сигнала сказывается не только на задержке огибающей, но и на изменении фазы сигнала, т.е. <ро = = Фо - оп3. Если выше решалась задача оценки задержки сигнала по огибающей при известной начальной фазе ф0, то это было не вполне корректно, так как в этом случае фаза сигнала не являлась известной, но есть СВ, которую, в принципе, можно считать неинформативным пара- метром. Но в этом случае надо решать задачу оценки информативного параметра при наличии неинформативного, т.е. использовать более сложную теорию, которая будет описана в следующих разделах. Рассмотрим теперь другую модельную ситуацию, когда излучается синусоидальный сигнал, т.е. /(/) = !, а задержка сигнала оценивается по фазе принятого сигнала. Для корректности будем полагать, что неод- нозначность измерения по фазе устранена, т.е. известно целое число периодов высокочастотного колебания, входящих в сот3. Как и выше, для расчета потенциальной точности оценивания рас- считаем -2 Лиг М) г Jy(Ocos((o(/-T3)+9o)A -А2Т(£>2 . 2 -------= -2авГ . No Следовательно, потенциальная точность оценки задержки по фазе сигнала определяется выражением т.е. обратно пропорциональна отношению с/ш q и квадрату несущей частоты сигнала. Поскольку обычно со»Р, то точность оценки за- держки по фазе сигнала существенно выше точности измерения по за- держке огибающей. Физически это вполне понятно, так как при уст- раненной неоднозначности фазовых измерений точность определяется периодом несущей частоты сигнала. 188
Потенциальная точность оценки задержки радиоимпульса по огибающей и фазе сигнала. Наиболее точное решение задачи оценки задержки радиоимпульса получается, если информацию извлекать как из задержки огибающей, так и из фазы сигнала. Потенциальная точ- ность оценивания в этом случае легко получается из полученных выше результатов и равна 1 •”* 27(ш2+Р2) (7.69) Потенциальная точность оценки частоты сигнала. Частота сигнала, также как и его фаза, является неэнергетическим параметром. Поэтому при дифференцировании (7.50) по частоте последнее слагае- мое можно не учитывать. Тогда для соответствующей производной по- лучаем следующее выражение: Л/ | (2га )2 у (г) Af (t - т3) cos (ow+фо )Л о 2 т = —~№u)2S2(t^)dt. No о Введем параметр < у ! <j> >1/2 f(2ra)2 S2 (t)dt / JS2 (t)dt / о (7.70) (7.71) представляющий собой среднеквадратическую длительность сигнала. Тогда потенциальная точность оценки частоты определяется выражением D- -D =-----------------------= —— -------- /эф ош/ м {э21п(р(/))/Э/2} 2Еа2 2qa2 (7.72) Таким образом, потенциальная точность оценки частоты обратно пропорциональна отношению сигнал/шум и квадрату среднеквадрати- ческой длительности сигнала. Потенциальная точность совместной оценки частоты и за- держки сигнала (по огибающей). Рассмотрим часто встречающийся на практике случай, когда совместно оцениваются запаздывание сигнала (по огибающей) и его частота (или, что эквивалентно, доплеровское смещение частоты при известной центральной частоте сигнала 189
f - f$ + fa)- Согласно (7.27) рассчитаем информационную матрицу Фишера. Принимая во внимание определение (7.26), нетрудно увидеть, что J] । = -2<?р2, a J22 = -2<?а2. Получим выражение для элементов матрицы Фишера J12 - J21 ~~М ' Э21пр(/,т3) 2 тг , .dS(t-xf) \ = — j2ntS(t-T3)—^- 3,dt. (7.73) No 0 dt3 Э/Эг3 Введем, по аналогии с (7.65), (7.71), параметр J2w5(/-T3)^—Z^-dt /j52(z-T3)<ft (О dX3 / О (7.74) Тогда выражение (7.73) может быть представлено в виде JI2=J21=29/Z. (7.75) Определитель информационной матрицы Фишера равен ~J\2 =4q2a2$2 ~4q2 (ftf =4^a2p2-(ft)2 | Элементы корреляционной матрицы ошибок совместных оценок временного запаздывания и частоты равны А>шг, = , /22 -—Г---—у (7-76> J\}J22~J12 2^la2p2-(/z) j f Jl\J22 -J\2 2<^a2p2 -(/j)2 . - - Хз/ J\ \J22 - J\2 2q^a2p2 - (ft)2 } Из этих соотношений видно, что при ft = 0 ошибки оценок некор- релированы (Doult у = 0). При этом (7.76) и (7.77) совпадают соответ- ственно с (7.64) и (7.72), полученными при раздельных оценках задерж- ки и частоты. При ft * 0 дисперсии ошибок возрастают. 190
При фиксированном отношении сигнал/шум точность оценок за- держки и частоты можно повысить за счет увеличения эффективных ширины спектра р и длительности а радиоимпульса. Однако эти ве- личины не являются полностью независимыми. Известно, что при уменьшении длительности импульса ширина спектра увеличивается, и наоборот. Согласно этому, точность оценки частоты сигнала (или час- тотного сдвига) можно повысить, только понижая точность оценки вре- менного запаздывания, и наоборот. Рассмотрим условия, при которых можно достигнуть максимальной точности оценки и временного запаздывания и частоты. Прежде всего необходимо обеспечить ft-Q. Далее, одновременный максимум точ- ности оценки временного запаздывания и частоты соответствует мини- муму произведения DouliDoat/=(2qa^-2. (7.79) Отсюда следует, что повышения точности совместных оценок можно достигнуть при увеличении отношения сигнал/шум q или произведения ар , т.е. произведения эффективной длительности сигнала на эффектив- ную ширину его спектра. Данную величину называют базой сигнала. Потенциальная точность оценки угловой координаты объекта фазовым методом. Рассмотрим задачу измерения угловой координаты излучающего объекта фа- зовым методом. Схема из- мерения показана на рис. 7.7. Плоская волна падает под углом 0 относительно нормали к плоскости ан- тенны, состоящей из двух элементов (Я]и А2), рас- положенных на расстоя- нии d друг от друга. Пусть на элементе рис> Схема фазового метода измерения имеем сигнал угловой координаты объекта 5] (г)= Лсо8((1М + фо). (7.80) Тогда сигнал на элементе А2 определяется как 191
(7.81) . . ( Ziu/sinfiSp S2 (l) = A cos coz + (p0------- X / где X — длина волны, соответствующая несущей частоте сигнала. С учетом аддитивных гауссовских помех наблюдаемые реализации на входах антенных элементов имеют вид Л (') = 51 (0+л1 (О’ (7.82) У1 (0-52 (0 + л2 (0 (7.83) Шумы «| (?) и п2 (t) полагаем независимыми с одинаковыми дву- сторонними спектральными плотностями No/2. Будем решать задачу оценки угловой координаты тЗ по наблюдени- ям двух сигналов (7.82), (7.83). Потенциальная точность оценки угловой координаты, по- прежнему, определяется общим выражением (7.57). Однако, в данной задаче имеем векторное наблюдение у (?) = |у] (?) у2 (?)|Т , поэтому не- обходимо воспользоваться формулой (4.18) для отношения правдоподо- бия при векторных наблюдениях. Используя (4.18), запишем L 2 ; М) [о где Е = А^т/1 — энергия сигнала на каждом антенном элементе. Дифференцируя (7.84) два раза по тЗ и усредняя полученный ре- зультат, получаем ло[о о (7.84) Э21п(р(-д)) _ -А2Т 2tu/cos(i3) 2 = -2д г п2 2jcdcos(f>) М ЭО2 *0 [ Ь Следовательно, потенциальная точность оценки угловой координа- ты фазовым методом равна «эф 2^[2n^cos(i5)/X]2 Точность оценивания возрастает с ростом отношения с//Х . Однако данное отношение ограничено необходимостью обеспечения однознач- ности фазовых измерений, т.е. должно выполняться условие dcos(0)/X < 1. С возрастанием угла О точность оценивания убывает. 192
Потенциальная точность оценки угловой координаты объекта амплитудным моноимпульсным методом. При амплитудном моно- импульсном методе пеленгации используют две диаграммы направлен- ности антенн, смещенные относительно некоторого равносигнального направления д0 (рис. 7.8). При этом сигналы от источ- ника излучения на входах соответ- ствующих антенных элементом имеют вид 5! (?) = ЛЕ(д-д1)соз(со/ + ф0), S2 (/) = ЛГ(д-д2 )cos(<0/+<р0), где Е(х) — функция, описы- вающая симметричную относи- тельно точки х = 0 диаграмму направленности (по амплитуде) антенного элемента, например, F (x) = sin(x)/х. В задаче амплитудной пеленгации логарифм отношения правдопо- добия (7.84) принимает вид Рис. 7.8. Схема амплитудного метода измерения угловой координаты объекта 2 Мо ln(pW) = ^- Ь10)51(/)Л + ?у2(052(/)Л-0,5£1(О)-0,5£1(б) , Ло [о о (7.85) , х Л27У’2(д-д1) , ч A2TF2 (d-d2) где Е, (д) =----А----12; Е1 (д) =----А----U Дифференцируя (7.85) два раза по О и усредняя полученный ре- зультат, запишем Э21п(р(д)) Эд2 pF(d-d2) Эд J Д Эд Следовательно, для потенциальной точности измерения угловой ко- ординаты амплитудным методом справедливо выражение 7—2041 193
2q pF^-dJ? pF(d-d2)V (7.86) Максимальная точность оценки угловой координаты получается, если излучатель находится на равносигнальном направлении $0. При этом (7.86) принимает вид Чем больше значение производной 3F(x)/3x диаграммы направ- ленности в точке х = ДЗ/2 , тем меньше ошибка оценки угловой коор- динаты. Введем разностную диаграмму направленности F& (d) = = F(d-d2)-F(d-d]), которую представим в виде функции от аргу- мента 3d = d-d0 — отклонение угловой координаты О излучателя от равносигнального направления d0 £д ( 0) = F (3d+Д d/2) - F (3d - Ad/2). (7.88) 11 Са Функция FA (3d) называется пе- d/ \ ленгационной характеристикой, ти- / \ пичный вид которой приведен на 1\► 83 рис. 7.9. Продифференцируем (7.88) по d ЭГД(О) 3Fa(SO) эв SW Рис. 7.9. Пеленгационная характеристика _ 3F(8d + Ad/2) 3F(8d-Ad/2) 38d 38d При St) = 0 формула (7.89) определяет крутизну Sn пеленгацион- ной характеристики с _ЭМ^) п 3d _?3F(Ad/2) 3d = 0 3d Следовательно, (7.87) можно записать в виде 194
D\ =D \=l/qS„, О-,;, 0Ш» / “ П ’ т.е. потенциальная точность оценки угловой координаты моноимпульс- ным амплитудным методом обратно пропорциональна квадрату крутиз- ны пеленгационной характеристики. 7.9. Оценка параметров сигнала по наблюдениям дискретной выборки Рассмотрим задачу оценки параметров сигнала, когда на интервале [О, Г] наблюдается выборка, состоящая из К равномерно отстоящих друг от друга (с шагом дискретизации Td) отсчетов y(k}=S(k;k) + n(k), к = \^К, (7.90) где S(k,‘k) = Af (kTd-т3 )cos((oA7^ + <p0); n(k~) —ДБГШ с нулевым МО и дисперсией . Обозначим наблюдаемую выборку {у (А)}, к = 1,К как Yq , под- черкивая в этой записи, как и раньше, принадлежность наблюдений за- данному временному интервалу [О, Г]. Учитывая, что все положения статистической теории решений (см. гл. 3) справедливы как для непрерывной, так и дискретной выборки на- блюдений, можно утверждать, что структура оптимальных оценок при переходе от непрерывных наблюдений к дискретным не меняется. По- этому байесовской оптимальной оценкой для квадратичной функции потерь (3.1) является оценка условного среднего (3.12). Оптимальной байесовской оценке при простой функции потерь (3.4) соответствует такое значение оцениваемого параметра (3.13), при котором апостер- иорная ПВ достигает максимального значения. Продолжая рассуждать аналогичным образом, легко увидеть, что все результаты предыдущих материалов, базирующиеся на операциях с ПВ рар (л), р(х|ког), p(Yq |А.), также остаются справедливыми. Отли- чия возникают только при переходе к конкретной записи условной ПВ p^Y/ и связаны они с переходом от непрерывных наблюдений к дискретным. При непрерывных наблюдениях указанная ПВ определяет- ся формулой (4.18), а в случае дискретных наблюдений (7.90) соответ- ствующая ПВ вычисляется через аналогичную сумму отсчетов 195
р(у0Г|Х) = Хехр- —\^S(iX)(y(i)-Q,5S(i,k)) . (7.91) Согласно отличиям условной ПВ |х) в представлениях (4.18) и (7.91), далее их можно формально учесть и в алгоритмах оптимального оценивания, приведенных в п. 7.2—7.4. Необходимые изменения сводят- ся к замене спектральной плотности N^/2 аддитивного шума на диспер- г сию дискретного шума, интегрирования по времени |...Л —на сум- мирование У..., а текущего времени t — на дискретное время iTj . Так, в п. 7.3, при оценке параметра, принимающего конечное число дискретных значений, в схемах оптимальных устройств оценивания (см. рис. 7.1—7.3) вместо интеграторов следует использовать сумматоры. При оценке параметров, принимающих значения из непрерывной области, оптимальные байесовские оценки для простой функции потерь находятся из условия, аналогичного (7.4): ЭХ = 0, (7.92) х=х где £(Х) - У. S2 (i,X) — суммарная мощность отсчетов сигнала на ин- тервале наблюдения. Оценки максимального правдоподобия находятся из уравнения, аналогичного (7.92), но не содержащего первого слагаемого. Приведем в порядке иллюстрации конечные результаты решения задач оптимального оценивания амплитуды и начальной фазы, рассмот- ренных в п. 7.7.1. Оценка амплитуды радиоимпульса. Оценка максимального прав- доподобия амплитуды сигнала определяется выражением л=7-Ь(<№(<). Е\ i=l 196
где S'] (i) —/(iTj-T3)cos(toz7^+<ро) — нормированная сигнальная . к функция; Е1 = £ Sj (/). i=i Оценка начальной фазы радиоимпульса. Для оценки максималь- ного правдоподобия начальной фазы сигнала имеем Ф0 =-arctg- z=l К £уШ(Ъ-r3)cos((oiTd) i=i Аналогично решаются и другие задачи оценки параметров сигнала. 7.10. Оценка информативных параметров сигнала при наличии случайных неинформативных параметров Рассмотрим более общую задачу, когда сигнал кроме информатив- ных параметров X, подлежащих оценке, содержит случайные неинфор- мативные параметры |1. В качестве неинформативных параметров, чаще всего, выступают начальная фаза <р0 и/или амплитуда а сигнала, т.е. 5 (г, X, ц) = аА (г )cos (соц t + ф (/)+ф0 ). (793) Полагаем, что заданы априорные ПВ рар (ц), в частности, распреде- ление начальной фазы — равномерное, а амплитуды — рэлеевское (1.9). Будем искать решение в форме оценок максимального правдоподо- бия. Общий подход, по-прежнему, основан на рассмотрении уравнения правдоподобия (7.8), в котором отношение правдоподобия р (X) долж- но быть определено для рассматриваемой задачи, т.е. для наблюдения сигнала, содержащего неинформативные параметры. Аналогичная зада- ча рассматривалась в п. 4.3.2, поэтому воспользуемся полученными там результатами. 7.10.1. Оценка параметров сигнала со случайной начальной фазой Усредненное по фазе сигнала отношение правдоподобия определя- ется формулой (4.39) 197
(7.94) р(У0Г) = ехр. 2ЛГ0 где ^2(/) = Х2(/)+^2(/), хс (') = J у (х)А (х)cos (“ох+<Р (Х)РХ > о t т Xs J У (х)А (х) sin (“0х+ф(*)Рх - « = Р2(т)</т. о о Оценка амплитуды радиоимпульса со случайной начальной фазой. Дифференцируя (7.94) по а и учитывая, что для радиоимпульса а = тн , а Э/о (х)/дх = /] (х), где /] (х) — функция Бесселя 1-го порядка от мнимого аргумента, из уравнения правдоподобия (7.8) получаем ММм£(ПЛ) W) т, ' ' ’ На рис. 7.10 приведена зависимость первого сомножителя в (7.95) от аргумента, откуда следует, что при х » 1 (т.е. 2аХ (Т)/Nq » 1) спра- ведливо приближенное равенство ам~2Х(Т)/хи. Следовательно, при больших от- ношения сигнал/шум оценка амплиту- ды радиоимпульса со случайной на- чальной фазой пропорциональна зна- х чению отсчета огибающей в момент времени Т на выходе квадратурного Рис. 7 10 Зависимость функции приемника (рис. 4.9). /1 W/A) (х) от аргумента х Потенциальная точность оценки амплитуды определяется общим выражением DoiuA М {Э2 1п(р(а))/Эа2} ’ 198
(7.96) которое при большом отношении с/ш принимает вид D- =D 1= — . ошА Хи Сравнивая (7.96) с (7.59), видим, что при большом отношении с/ш точность оценки амплитуды сигнала со случайной начальной фазой и сигнала с известной фазой совпадают. Иная ситуация имеет место при малых отношениях сигнал шум, когда точность оценки амплитуды сиг- нала со случайной фазой становится заметно хуже точности оценки сигнала с известной фазой. Оценка задержки сигнала со случайной начальной фазой. Рас- смотрим задачу оценки задержки огибающей сигнала вида 5 (г, X, ц.) = аА (t - т3 )cos (соц/ + <р0), (7.97) где а — известная амплитуда; ф0 — случайная начальная фаза; A(t) — огибающая сигнала; т3 — оцениваемая задержка сигнала. Отношение правдоподобия в рассматриваемой задаче, по-прежне- му, определяется формулой (7.94), в которой огибающая сигнала опре- деляется следующими соотношениями У(/,т3) = 7^2('Лз)+^2('Л3), (7.98) хс тз) = JУ W А(х" )cos («от+<р(т)рт, О Xs тз ) = jУ (т) А (т- Тз )sin(<°0х + Ф W) О (7.99) . =0. т3=т3 Так как в (7.94) от оцениваемого параметра т3 зависит только оги- бающая сигнала (7.98), то уравнение правдоподобия конкретизируется в виде ЭХ (Г) Эт3 Дифференцируя (7.98) по т3 и приравнивая числитель полученного выражения нулю, приходим к следующим соотношениям: Хс (Г,т3 )- -СА-’ 3-+Xs (Т,Ь) -3-< = 0; ОТ3 стС3 (7.100) 199
dXc(T,t.) Tt , ч Э г / - Ч , чз --Эт---МИ0^{4'~тз)«>8((ог)}Л; ЭА'е (Г,Т3) Tt , . Й г / -ч / 41 —th—~=ih~{A ~ ь )sin ‘ Как и в задаче оценки задержки детерминированного сигнала, ре- шение уравнения (7.100) должно проводится в режиме поиска решения т3, при котором оно выполняется. Схема, реализующая устройство об- работки наблюдаемой реализации у (/), приведена на рис. 7.11. Рис. 7.11. Схема устройства оценки задержки сигнала со случайной фазой В схеме присутствуют два квадратурных канала, характерных при приеме сигнала со случайной фазой. В каждом из квадратурных кана- лов есть ветвь свертка наблюдаемой реализации с опорным сигналом ЭЛ(/-т3)/Эт3 , равным производной огибающей по задержке. Данная ветвь позволяет выявить отличия оценки задержки сигнала от истинно- го значения задержки в каждом из квадратурных каналов. В процессе перестройки т3 ищется такое ее значение, при котором сигнал на выхо- де устройства принимает нулевое значение. 7.10.2. Оценка параметров сигнала со случайными амплитудой и начальной фазой Усредненное по амплитуде и фазе отношение правдоподобия опре- деляется выражением (4.51) 200
(7.101) рК)= 1 ---z---ехр 1 + E/NO 2£/^о Х2 NQa(l + E/NQ) где Ё = М[Е] = а(^ — средняя энергия сигнала; А'(г) —огибающая сигнала на выходе оптимального квадратурного приемника, описывае- мая формулами (7.98). Из приведенной формулы видно, что если оценивается неэнергети- ческий параметр сигнала, например, задержка, то уравнение правдопо- добия приводится к виду, совпадающему с (7.99), т.е. фактически ана- лизируется огибающая X(Т). Таким образом структура оптимального устройства оценивания совпадает с приведенной на рис. 7.10. Однако точность оценивания получается иной. Так как формулы для отношения правдоподобия (7.94) и (7.101) по-разному зависят от отношения с/ш q, то при вычислении потенциальной точности по формуле (4.24) получа- ются разные результаты. 7.11. Оценка параметров сигнала, наблюдаемого на фоне коррелированного шума Прием сигнала на фоне коррелированного шума приводит к изме- нению структуры отношения правдоподобия, которое в этом случае согласно (4.29) определяется как тт Т Т f \ р(уог) = ехр. y(r2)-|s(t2,X)|<Мг loo \ 1 } . При этом уравнение правдоподобия принимает вид л ТТ ( I \ — J y(z2)--S(/2,X) |Л]А2 = о о I 2 ) - j j У—U* (,1>/2)(>'(,2)_5(,2>^))Л1Л2 =0 • (7.102) Введем импульсную характеристику П(/,Х)=/Л„-1(/,05(/,Л)Л1, (7.ЮЗ) о которая удовлетворяет уравнению Фредгольма 1-го рода (4.34) 201
(7.104) jA„(/,r1)n(z,X)z/z = S(z1,X). о Дифференцируя (7.103) по X и подставляя результат в (7.102), по- лучаем о (7.105) . =0. х=х,м Уравнение (7.105) по структуре аналогично уравнению (7.49). Од- нако вместо производной сигнала по оцениваемому параметру исполь- зуется производная функции Т|(^Л) (7.103) по тому же параметру. Основная трудность в получении оценок параметров на основе уравнения (7.105) является нахождение функции Т|(/,Л,) в результате решения уравнения Фредгольма (4.34). Ряд примеров таких функций приведен в [5]. В частности, для гауссовского шума с экспоненциальной функцией корреляции Rn (т) = Dn е’“”1т1 (7.106) имеем п('А) = ^- S(/,X)- d2S(z,X)/dz2~ а2 (7.107) Рассматривая в качестве оцениваемого параметра амплитуду сигна- ла, т.е. X = а, для радиоимпульса (7.50), формула (7.107) принимает вид «У а„ аА (г - т3 )cos (coz + ф0 ). > (7.108) Подставив (7.108) в (7.105) и выполнив необходимые преобразова- ния, получаем алгоритм оптимального оценивания амплитуды сигнала 2 г а = — Jy(z)/}(z-T3)cos(<oz+90)z/z. ти о Данный алгоритм совпадает с (7.51), полученным для оценки ам- плитуда сигнала, наблюдаемого на фоне белого шума, если, как и ранее, т обозначить 51(z) = 74(r-T3)cos(coz + 90), Ех = J52 (z)dt. Аналогично 0 202
можно показать, что алгоритм оценки начальной фазы сигнала (7.50) также не меняется в случае наблюдения сигнала на фоне шума с корре- ляционной функцией (7.106) и определяется выражением (7.54). Контрольные вопросы к главе 7 1. При использовании метода максимального правдоподобия для оцени- вания параметра А. детерминированной или случайной величиной яв- ляется данный параметр? 2. Что такое нижняя граница Рао—Крамера в теории оценок максималь- ного правдоподобия и как она определяется? 3. Что такое потенциальная точность оценок параметров сигнала? 4. Как зависит потенциальная точность оценок параметров сигнал от от- ношения сигнал/шум? 5. В чем достоинство оценок максимального правдоподобия? 6. Какие оценки называются эффективными? 7. Что такое неэнергетический параметр сигнала и как свойство «не- энергетического параметра» используется при получении оценок мак- симального правдоподобия? 8. Чем байесовские оценки параметров сигнала отличаются от оценок максимального правдоподобия? 9. Что такое уравнение правдоподобия и какова его роль в теории оце- нок параметров сигнала? 10. Можно ли рассчитать и как потенциальную точность оценок инфор- мативных параметров сигнала при наличии неинформативных слу- чайных параметров? 203
Глава 8 РАЗРЕШЕНИЕ СИГНАЛОВ Многие РТС работают в условиях, когда на входе приемника при- сутствуют несколько сигналов, и в этих условиях он должен решать возложенные на него задачи. Типичным примером этого являются ра- диолокационные системы (РЛС), работающие в условиях многоцелевой обстановки. Возможность раздельного наблюдения близко расположен- ных целей и раздельного измерения параметров каждой цели называют разрешающей способностью РЛС. Так как измерение параметров цели связано с измерение тех или иных параметров принимаемого сигнала, а от каждой цели приходит свой сигнал, то можно говорить о разрешении сигналов, под которым понимают возможность раздельного наблюдения и измерения параметров сигналов. Говоря о разрешении сигналов, все- гда имеется в виду разрешение по тем или иным параметрам сигнала. Если сигналы приходят с разных направлений, то говорят о разрешении сигналов по направлению. Если сигналы имеют разную задержку, то го- ворят о разрешении сигналов по задержке (или по дальности в РЛС) и т.д. В статистической теории РТС под измерением параметров сигнала понимают их оценивание. При этом сформулированную выше задачу разрешения сигналов можно расширить, включив в нее параметр обна- ружения 0 (см. гл. 4). Такую задачу часто называют «разрешение- обнаружение», для подчеркивания ее отличия от задачи «разрешение— измерение», когда разрешение проводят по параметрам самих прини- маемых сигналов. 8.1. «Разрешение—обнаружение» сигналов Задача «разрешение—обнаружение», по сути, является задачей об- наружения сигнала (/) на фоне мешающих сигналов S,(/), i = 2,m и аддитивного шума »(/) Рассмотрим, например, задачу с двумя сиг- налами, которую сформулируем следующим образом. На интервале [О, Т] наблюдается реализация у(0 = ^1(/)+52(/) + и(г), где S] (/), ,S’2 (0 — известные сигналы; «(/) — БГШ с нулевым МО и двусторонней спектральной плотностью No /2; 1} — случайный пара- 204
метр, принимающий значения 0 с априорной вероятностью Рар (0) или 1 с ?ар (О • Ставится задача оценки параметра О, т.е. принятия решения о том, присутствует или нет сигнал (z) в наблюдаемой реализации. Отме- тим, что в данной постановке полагается, что при отсутствии сигнала (z) наблюдения y(t), тем не менее, содержат сигнал S2 (г). Как и в гл. 2, имеем двухальтернативную задачу обнаружения, по- этому общее решение дается выражениями (4.3), (4.4), т.е. , ч 0=1, при р(кЛ>й, 0 = 0, где h - Pap (O)/Pap (1) — порог обнаружения; (8.1) условные плотности вероятности |O = lj и p(Yq |0 = oj опреде- ляются выражениями (8.2) 2 т p(Yq |0 = о) = Лехр JS2(/)(y(z)-0,552(/))A •. [ Ло о Подставив (8.2) в (8.1) и выполнив необходимые преобразования, получим . . 9 Т п Т р Г0Г =ехр -^-fS1(/)(^(0-0)5S1(/))Jz-—. (8.3) [Л'о 0 Ло о Сравнение (8.3) с формулой (4.15), полученной для задачи обнару- жения сигнала на фоне только БГШ, показывает, что они отличаются вторым слагаемым, стоящим под знаком экспоненты. Данное слагаемое определяет взаимную корреляцию двух сигналов (взаимную энергию 205
(8.4) т Е|2 = jS| (z)S2 (/)Л ). Если сигналы не коррелированны, то оно не О влияет на процедуру и характеристики обнаружения. Для коррелиро- ванных сигналов характеристики обнаружения изменяются. Переходя от сравнения отношения правдоподобия (8.3) с порогом к сравнению соответствующих логарифмов, запишем — (/)rf< > —+ 1п(/г) + ~£|2 Из (8.4) видно, что структура обнаружителя сигнала не изменилась. Изменилось лишь значение порога обнаружения, и это изменение тем больше, чем больше корреляция между сигналами. Рассмотренную выше задачу «разрешения—обнаружения» можно расширить, введя дополнительные альтернативы. Например, можно рас- смотреть следующие возможные альтернативы: «(/), 0 = 0; 51 (') + «(')- 0 = 1; $2(г)+л(/), 0=2; 51 (j) + S2 0) + n(Z)> 0 = 3. При этом возникает необходимость оценивать четыре значения случайного параметра О, что приводит к многоканальной схеме опти- мального устройства оценивания, как это имело место, например, в за- даче различения m сигналов (см. п. 6.3). 8.2. «Разрешение—измерение» сигналов Рассмотрим теперь задачу разрешения сигналов по параметрам. В соответствии с принятым выше определением необходимо рассмотреть задачу оценки параметров 1, сигнала, наблюдаемого на фоне аддитив- ного шума л (г) и мешающего сигнала, который имеет ту же структуру S(/,A/), но иное значение оцениваемого параметра. Таким образом, имеем наблюдение y(t) = S(/,l)+5(/,X')+n(z), /е[0,Т]. (8.5) В гл. 7 показано, что для отыскания оценок параметров сигнала час- то используют функцию правдоподобия или нормированное ее значе- ние. Нормировка при этом возможна на любую функцию, не зависящую 206
от оцениваемых параметров. Воспользуемся такой же нормировкой, что и в п. 8.1. Введем функцию p(y07’|s(zA),s(/,X')j /’(yo7'|S(r,X)sO,5(z,X')j = exp 2 т j т —— JS(/,X)(y(/)-O,5S(/,X))<//--j-|5(/Д)5(/Д')Л . «О О «0 о . (8.6) Так же как и в задаче «разрешение—обнаружение», формула (8.6) отличается от аналогичного выражения (7.46) в задаче оценки парамет- ров сигнала, наблюдаемого только на фоне БГШ, вторым слагаемым, стоящим под знаком экспоненты. Данное слагаемое определяет взаим- ную корреляцию сигнала и его копии, смещенной по оцениваемым па- раметрам, т.е. т V(X,X')=fS(z,X)S(z,X')tft. (8.7) о Таким образом, функция ф(ХД') определяет характеристики ре- шения задачи «разрешение—измерения», а точнее, их отличие от обыч- ной задачи «измерения» параметров сигналов, т.е. их оценки при на- блюдении сигнала лишь на фоне БГШ. Поэтому эта функция может быть принята как мера разрешающей способности сигналов по парамет- рам. Обычно для сигналов с конечной энергией используют нормиро- ванную функцию 1 т V(X,X') = -JS(z,X)S(z,X')<*. (8.8) Ео т где Е = f S2 (г,Х)Л — энергия сигнала, о Функцию у (Л, Д'), определенную в соответствии с (8.8), называют функцией неопределенности сигнала Sfak') по параметру X. Для узкополосных радиосигналов, когда допустимо описание в форме комплексных амплитуд S(z,X), функция неопределенности мо- жет быть представлена в виде 1 г у(Х,Х') = -^/5(/,Х)5*(г,Х')Л 0 (8-9) 207
Перейдем от рассмотрения отношения правдоподобия (8.6) к его логарифму, т.е. рассмотрим функцию 1 т т и(Т) = —-j5(/,A)(y(r)-0,55(z,A))t/r--j-JS(r,A)S(/,A')i/r. (8.11) Л0 о Л0 о Фиксируем значения параметров А и V. В гл. 4 введено понятие оптимального приемника, реализующего корреляционную обработку наблюдаемой реализации у (г) и опорного сигнала S(j) (4.22), т.е. “on (')“МХ)$(ХУХ о или с использованием импульсной характеристики g (t - т) = S (т) 2 ‘ uon(z) = 77-j>’(x)^(r-'c)rfT- (8Н) yvOo Подставляя (8.5) в (8.11), запишем выражение для среднего значе- ния процесса на выходе оптимального приемника м [иоп (')] =—j g (' - Т, A) (S (т, А)+5 (т, А')>/т = "О о 7 t ) t '*0 0 /Vo 0 2 t 2 z = —Js(t,A)S(t,A>/t+—JS(t,A)S(t,A>t. (8.12) N0 0 No 0 Из (8.12) видно, что отклик на выходе согласованного с сигналом 5 (г,А) фильтра (согласованного приемника) при поступлении на его вход двух сигналов отличается от аналогичного отклика при поступле- нии на вход приемника одного сигнала таким же слагаемым, что (8.6). Следовательно, корреляционный интеграл (8.7) определяет также и ха- рактеристики оптимального корреляционного приемника при наличии на его входе двух сигналов. Это еще раз подтверждает возможность использования функции (8.8) в качестве меры разрешающей способно- сти сигналов. Количественно разрешающую способность определяют по каждой компоненте А, (при всех остальных значениях 8Ау = 0,у * i) как значе- 208
ние AX', соответствующее сечению функции неопределенности гори- зонтальной плоскостью на уровне 0,5. 8.3. Функция неопределенности сигнала по задержке и частоте Функция неопределенности сигнала была впервые введена Вудвор- дом для временных сигналов в радиолокации. В качестве оцениваемых параметров сигнала рассматриваются задержка т3 и доплеровское сме- щение частоты /д. Для узкополосного сигнала 5(/^з>А) = ^(г-Тз)со5((щ0+а)д)г+ф(/-Тз)) и его смещенной по параметрам т3 и /д копии 5(г,Тз+5Тз,/д+5/д) = = Л(г-т3 -5t3)cos((<o0 +сОд +3(1)д)г + ф(г-т3 -5т3)} введем комплексные амплитуды Тогда, учитывая определение (8.9), функцию неопределенности по задержке и частоте (доплеровскому смещению частоты) запишем в виде Js(r)5*(z-8r3)e dt (8.13) о Функция неопределенности (8.13) обладает следующими свойствами: наибольшее значение функция неопределенности принимает при бт3=О, 8/д=0, у(0,0) = 1; (8.14) объем тела неопределенности у2 (8т3,8/д ) не зависит от вида сиг- нала и равен 209
j J Ж2(8т3,8/др&т3б/5/д=2я. (8.15) Соотношение (8.15) является наиболее общей формулировкой прин- ципа неопределенности, согласно которому никакие виды модуляции не могут изменить объема тела неопределенности. При разных видах модуляции радиосигнала функция неопределен- ности может деформироваться, однако при этом должны оставаться в силе равенства (8.14) и (8.15). Поэтому, если сжать функцию неопреде- ленности по оси т3, она расширяется по оси /д, и наоборот, при сжа- тии ее по оси /д получаем расширение по оси т3. Если требуется полу- чить узкий пик в начале координат, то весь остальной объем функции неопределенности должен быть распределен в плоскости т3 и /д в тонком слое на большой площади или в виде серии пиков. Наличие по- следних означает возникновение неоднозначности оценки задержи и доплеровского смещения частоты. При решении вопроса о выборе формы сигнала необходимо учиты- вать следующие требования: получение высокой точности измерения параметров т3 и /д; отсутствие (по возможности) неоднозначности оценки; обеспечение высокой разрешающей способности. Рассмотрим вопрос о связи функции неопределенности и точности оценки параметров т3 и /д. В п. 7.8 было показано, что потенциальная точность совместной оценки задержки сигнала по огибающей равна Э21пр(т3,/Д)/ Domi. ~ а частоты — D г. = -1М Э2 1пр(т3,/д)/ Ад ’ T где т3 и /Д берутся в точках истинных значений данных параметров. Рассмотрим Э21пр(т3,/Д)/ Аз ^(Т3»/л о Эт2 Дифференцируя (8.8) два раза по т3, получаем М (8.16) 210
Э2у(от3,5/Д) ЭЗт2 5т3 = 0,5/д=0 Эт2 (8.17) Е о Сопоставляя (8.16) и (8.17), видим, что они с точностью до констан- ты Е совпадают. Но вторая производная функции неопределенности характеризует ширину ее главного пика по соответствующему парамет- ру: чем больше значение модуля производной, тем уже пик. Следова- тельно, ширина главного пика функции неопределенности по парамет- рам т3 и /д пропорциональна потенциальной точности измерения дан- ных параметров. Разрешающая способность по т3 и определяется как значения от- клонений 5т3, 5/д, при которых значение функции неопределенности равно 0,5 в сечениях по соответствующим осям. Прямоугольный радиоимпульс. В качестве примера рассмотрим прямоугольный радиоимпульс 5(z,X) = 4/'(/-T3)cos((a>+(0a) t + <р0)> te. [0,Г], /(0= 1, при 0 < t < ти; 0, при t < 0, t > ти. Комплексная амплитуда сигнала равна S(z,X) = Д/'(г-т3)е^0)д,+Ч10^ Тогда (8.13) принимает вид у(8т3,5/д) = -^ р2/(г-т3)/(,-т3-Зт3)е о |sin (лЗ/д (ти - |5т3 |))/яЗ/дти |, |5т31 < ти; 0, |5т3|>ти. Сечения функции неопределенности \(/(5т3,8/д) в двух плоскостях определяются выражениями |5т3|< ти; М >ти; V (0,5/д) = |sin (л5/дти)/ тсЗ/л ти | и приведены на рис. 8.1 и 8.2. 211
Рис. 8.1. Сечение функции неопреде- ленности плоскостью 8/д = О Рис. 8.2. Сечение функции неопреде- ленности плоскостью 8т3 = О Сечение функции неопределенности на уровне 0,5 горизонтальной плоскостью дают значения разрешающей способности Дт3=ти, ДГд=1,2/ти. (8.18) Из (8.18) следует, что при уменьшении длительности импульса ти разрешающая способность по задержке увеличивается, а по частоте — уменьшается, и наоборот. Это наглядно можно проиллюстрировать гра- фиками функции неопределенности в сечении горизонтальной плоско- стью на уровне 0,5 (рис. 8.3). а) б) Рис. 83. Сечения функции неопределенностью горизонтальной плоскостью на уровне 0,5: а —для «длинного» радиоимпульса; б — для «короткого» радиоимпульса 212
Отмстим, что два сигнала не могут быть разрешены, если значения разности времен запаздывания и частот между ними лежат внутри за- штрихованной области. Радиоимпульс с линейной частотной модуляцией. Как показано в п. 7.8, для увеличения потенциальной точности совместной оценки за- держки и частоты сигнала используют сигналы с большой базой, для которых произведение ширины спектра сигнала Д/с на его длитель- ность АТС много больше единицы: B = tf'ATc»l. (8.19) Величину В называют базой сигнала. Сигналы с В - 1 называются простыми, а сигналы, для которых выполняется условие (8.19), — сложными. Сложные сигналы получаются в результате дополнительной моду- ляции сигнала. Одним из типов сложных сигналов является импульсный сигнал с дополнительной частотной модуляцией. Рассмотрим случай линейной частотной модуляции (ЛЧМ), для которой /(0 = /0+Vm^h. (82°) где /о — начальное значение частоты; Д/м — девиация частоты. При линейном законе изменения частоты (8.20) его фаза изменяется по квадратичному закону: ф(1) = 2^+®у//ти • Следовательно, комплексная амплитуда для ЛЧМ-импульса . (8.21) Подставляя (8.21) в (8.13) и выполняя интегрирование, получаем у(8т3,б/д)=- ып(п(8/д +ДГм8т3/ти)(ти -|8т3|)) я(8/д+ДГм5ТзЛи)^и 0, |5-с3|<ти; |8т3|>ти. В сечениях 8/д = 0 и 5т3 - 0 функция неопределенности описыва- ется выражениями 213
v(8t3,0) = 8т(л(ДГм8т3/ти)(ти-|8т3|)) яДАЛзЛи О, ж(о,з/д)= 5ш(я8/дти) ’гё/л Зависимость функции неопределенности у (0,5/"д) в сечении Рис. 8.4. Сечение функции неопре- деленности плоскостью 5/^=0 8т3 =0 не изменилась и имеет вид, приведенный на рис. 8.2. График функции неопределенно- сти в сечении \|/(8т3,0) приведен на рис. 8.4, откуда видно, что для ЛЧМ- импульса разрешающая способность по задержке определяется величиной девиации частоты AfM, а не длитель- ностью импульса. На рис. 8.5 приведен® горизон- тальное сечение функции неопреде- ленности ЛЧМ-импульса на уровне 0,5. Как видно из рисунка, допол- нительная частотная модуляция приводит к повороту главного лепестка функции неопределенности, что вызывает уменьшение ширины пика в Рис. 8.5. Горизонтальное сечение функции неопределенности ЛЧМ-импулъса на уровне 0,5 сечении 5Л. = 0. При прохождении ЛЧМ-им- пульса через оптимальный приемник (сглаживающий фильтр) на выходе получается «сжатый импульс». Если определить длительность выходного отклика по уровню 0,5 от макси- мального значения отклика, то мож- но показать, что она равна А"СВых ~ 1’2/Д/д • Введем коэффициент сжатия _ тн тиД/м А^ВЫХ 1’ 2 214
Теперь разрешающую способность по задержке можно представить в виде Дт3 — 1,2/Д/"м = ти j Kc-X . (8.22) Сопоставляя (8.22) с (8.18), видим, что разрешающая способность у импульсного сигнала с ЛЧМ в Ксж выше, чем у обычного импульсного сигнала. Разрешающая способность по частоте у обоих сигналов одина- кова и обратно пропорциональна длительности импульса. Контрольные вопросы к главе 8 1. Что понимается под разрешением сигналов? 2. Что понимается под «разрешением—обнаружением», «разрешением— измерением»? 3. Что такое функция неопределенности сигнала и какова ее роль? 4. Какими свойствами обладает функция неопределенности сигнала? 5. От чего зависят характеристики разрешения сигналов? 6. Какие сигналы называются сложными и почему? 7. Как связана функция неопределенности сигнала с потенциальной точ- ностью измерения его параметров? 215
Глава 9 ОСНОВЫ ТЕОРИИ ФИЛЬТРАЦИИ СЛУЧАЙНЫХ ПРОЦЕССОВ Выше рассматривались задачи статистической теории радиосистем, в которых оцениваемые параметры не меняются за время наблюдения. Если они меняются, то имеем задачу оценивания случайных процессов. В отличие от задачи оценивания постоянных параметров сигнала, когда оценка формируется в конце заданного интервала времени Т, в задачах оценивания случайных процессов возможны различные комбинации между текущим моментом времени, т.е. тем моментом, когда проведено последнее наблюдение, и моментом, для которого формируется оценка процесса. В соответствии с этим различают следующие задачи и типы оценок: если оценка £(z) процесса £(г) формируется для того же момента времени Z, для которого получено последнее наблюдение, то говорят о задаче фильтрации, а соответствующие оценки называют фильтраци- онными', если формируется оценка £(z + t) при наблюдениях y(v), ve [0,z], то при т > 0 задача оценивания называется экстраполяцией, а соответ- ствующая оценка называется экстраполированной', если в описанной выше задаче полагается т < 0, то такая задача оценивания называется интерполяцией, а оценки — интерполяционны- ми. Наиболее часто встречаются задачи фильтрации случайных процес- сов. При этом можно ставить и решать задачу фильтрации как самого сигнала S(r), т.е. полагать £(z) = S(z), так и задачу фильтрации ин- формационного процесса, т.е. принимать £(z) = X(z). Первая постанов- ка более характерна для задачи обнаружения сигнала при его описании случайным процессом [7]. Вторая — для задачи извлечения информа- ции из детерминированного или квазидетерминированного сигнала, т.е. по сути, для оценки меняющихся во времени параметров сигнала. Круг задач, связанных фильтрацией случайных информационных процессов более широк и разнообразен для практических приложений, поэтому сформулируем постановку данной задачи более подробно. Пусть на интервале времени [0,z] наблюдается реализация 216
у(/) = 5(/Д(/))+н(г), (9 j) где *(<.*(<)) — сигнал, несущий информационный процесс Х(/); n(t) — помеха. Используя наблюдения (9.1) и априорную информацию о статисти- ческих характеристиках процессов Х(/) и п(г), необходимо сформиро- вать оценку X(г), наилучшую в том или ином смысле. Заметим, что в сформулированную постановку вписываются и зада- чи оценивания постоянных параметров сигнала. При этом формировать фильтрационную оценку можно в каждый текущий момент времени t, а потребителю выдавать искомую оценку лишь в конечный момент t = Т . Поэтому можно говорить, что задача фильтрации случайных процессов является более общей по сравнению со всеми описанными ранее зада- чами. В дальнейшем, в основном, будет рассматриваться задача фильтра- ции, когда помеха в (9.1) является БГШ с нулевым МО и двусторонней спектральной плотностью Nq/2. Обобщения на случай коррелирован- ных и негауссовских помех будут даны ниже. Априорная информация о фильтруемом процессе X(z) может зада- ваться в разной форме (см. гл. 1): в виде многомерных плотностей веро- ятности или дифференциальных уравнений с заданными начальными условиями. При использовании второго описания наиболее часто ис- пользуют представление Х(/) в виде компоненты многомерного мар- ковского процесса, т.е. полагают Х(/) = сх(/), где х(/) — «-мерный вектор, изменение во времени которого описывается дифференциаль- ным уравнением 1-го порядка, например, линейным: ^-F(,)I+C(<)5(r). х(<о) = хо, (9.2) at где £(/) — m -мерный вектор БГШ с корреляционной матрицей R§(T) = S?/25(t). Наиболее полные и интересные результаты в теории фильтрации получены при описании сообщений марковскими процессами (см. п. 1.8). Поэтому в дальнейшем будет рассматриваться именно это направление общей теории фильтрации. 217
В каждый фиксированный момент времени t значение случайного процесса х(г) является векторной случайной величиной, которая опи- сывается ПВ p(x,t).Bn. 1.8.3 показано, что для марковского процесса (9.2) эволюция ПВ р(х,г) во времени описывается уравнением Фокке- ра—Планка—Колмогорова (1.79). Плотность вероятности р(х,/) назы- вают априорной, так как она описывает априорные статистические све- дения о процессе х(г). После того как проведены какие-либо наблюде- ния у(/), связанные с процессом x(z), статистические сведения о дан- ном процессе изменились, и они уже содержатся в апостериорной ПВ (АПВ) р(х|yof j. Естественно ожидать, что АПВ, также как и априорная ПВ, описывается некоторым дифференциальным уравнением. Если та- кое уравнение получим, то будем располагать всей имеющейся стати- стической информацией процессе x(z) при заданных наблюдениях Уд , на основе которой далее можно искать те или иные оптимальные оцен- ки этого процесса. 9.1. Уравнение для апостериорной плотности вероятности непрерывных процессов Рассмотрим для простоты задачу фильтрации скалярного непрерыв- ного марковского процесса Х(/) = х(г), полагая, что наблюдается адди- тивная смесь сигнала и БГШ y(l) = S(X,/)+n(r). Введем в рассмотрение совместную ПВ и, используя правило ум- ножения вероятностей, представим ее в виде р(х,Г0г) = /?(х|г0г)р(ГоГ), где /^х|Ур ) — АПВ, которую для дальнейшего использования удобно записать в виде р^Х,/|Уо j, подчеркивающим ее явную зависимость от времени. Пусть на интервале времени проведено дополнительное на- блюдение реализации ^(t). Введем приращение 5 У = У/+5/ и рассмот- 218
рим приращение 5paps апостериорной ПВ, обусловленное прираще- ниями 8/ и 8У: 8рвр5=р(х(/+8/),г+&|у0,+8,)-р(х(г),/|у0')= = р(х(/+8/)д+&|у0,+8')-р(х(г),/|у0'+б/) +[р(х0),/|уо,+5,)-р(х0),/|уо')] = 8^д + Здесь 8papsa — приращение АПВ, обусловленное изменением сообще- ния (динамики) за время 8z, a 5papsH — приращение АПВ, обуслов- ленное приращением наблюдений 8У. При 8/-> 0 приращение ?>papsa ПВ марковского процесса Х(г) описывается уравнением Фоккера—Планка—Колмогорова (1.75), кото- рое можно представить в обобщенном виде dPapsn ~ L^Paps (U^O > где /.(*) — дифференциальный оператор Фоккера—Планка—Колмо- горова (1.75). Можно показать [9, 13], что при 8/ —> 0 приращение АПВ 8pa/?SH описывается соотношением ^Рарь н F (X,t)- f F (X,t)p (x,t |y0' JrfX p (X,t |y0' , ^(V) = ^^(y(/)-0,55(X,r)). (9.3) Таким образом, изменение АПВ описывается интегро-дифферен- циальным уравнением Wo = z(p(x,/|y0'))+ F(k,t)_jF(X,z)/7(x,z|y0')</X р(Х,?|Уо) (9.4) 219
с начальным условием p(X,0|0) = рар (X), где pap(ty—априорная ПВ распределения А, в момент времени t = 0. Первое слагаемое в правой части (9.4) ведет к расширению апосте- риорного распределения, обусловленному изменением марковского процесса X(z), а второе слагаемое — к его сужению, что вызвано нако- плением сведений о фильтруемом процессе в результате наблюдения реализации y(t). Уравнение (9.4) впервые получено русским математиком Р. Л. Стра- тоновичем, поэтому в отечественной литературе оно часто называется уравнением Стратоновича. Для векторного процесса x(z), например (9.2), и векторных наблю- дений y(r) = S(A.,/)+n(r), X(r) = cx(z), Л/|^п(т)пт(л-т)^ = Нл/25(т) уравнение Стратоновича имеет вид с начальным условием р(х,0|0) = рар (х) и F(x,/) = ST (cx,/)2N;‘ (y(/)-0,5S(cx,r)). Уравнение (9.5) описывает эволюцию во времени АПВ и будет ис- пользовано в последующих материалах книги для синтеза алгоритмов оптимальной фильтрации. Здесь же рассмотрим один частный случай, когда фильтруемые параметры не меняются за время наблюдения, т.е. с/х/dt =0. В этом случае оператор Фоккера—Планка—Колмогорова Z(*) = 0 и уравнение (9.5) принимает вид Представим данное уравнение в эквивалентном виде 220
d In dt \ из которого следует очевидное решение Л, 0 (9.6) (о где рар (х) —априорная ПВ оцениваемых параметров. В (9.6) экспоненциальный сомножитель — это отношение правдо- подобия р(х) (4.17). Таким образом, приходим к известному результа- ту, который заключается в том, что апостериорная ПВ может быть представлена (с точностью до константы) в виде произведения априор- ной ПВ рар(х) на отношение правдоподобия р(х). Положим, что в качестве постоянного оцениваемого параметра вы- брана задержка сигнала, который в общем виде может быть записан как 5 (г,т3) = аА (Г - т3 )cos ((Оо (/ - т3)), т.е. рассматривается задача оценки задержки сигнала, входящей в его огибающую Л(?) и фазу. Полагая, что задержка сигнала не влияет на его энергию, уравнение (9.6) в рассматриваемом случае могут быть записаны в виде / I \ ( 2 ' 1 pH.'Ро) = Фвр(т3)ехр — Jy(/)oz!(/-T3)cos(a)0(/-T3))A . (9.7) 1Л°0 Используя известное представление cos(a-P) = cos(a)cos(P) + +sin(a)sin(P), преобразуем (9.7) к виду P = ^(гз)ехР 77-(eos(o)0'r3)^c(r1T3)+cos(w0T3)Jr5(z,T3)) ,(9.8) Ло 221
где ХС ('> Т3) = IУ)А (' - )cos (av)A , о W3) = T3)sin(a>0^)^ о — квадратурные составляющие огибающей X(t,x3) = - (z,x3)+Xj (г,т3) на выходе согласованного фильтра. Так как а\)Т3 определяет составляющую фазы сигнала, то, по ана- логии с (7.54), определим оценку этой фазы соотношением Ф = 0) = arctgJfj (/,т3 )/Хс (/,т3). Тогда (9.8) можно записать в виде Р (ь -1 |у0 ) = ср ар (*3) ехр \^~ X (I, т3) cos (Ио (т3 - т3 (/))) ^Л'о > (9-9) Фиксируем момент времени t = Т и рассмотрим’ АПВ т3,1 = /(т3) как функцию т3. Из (9.9) следует, что поведение /(т3) определяется медленно меняющейся функцией Х{Т,х3} и бы- стро меняющейся периодической функцией cos(cOq (т3 -т3 (г))) . Нали- чие периодической функции приводит к периодическому характеру АПВ, вид которой схематично приведен на рис. 9.1. р(ъ|г0Г) Многомодальность АПВ приводит к проблеме неодно- значности измерений. Это об- стоятельство обусловлено по- пыткой оценивать задержку сигнала по фазе несущего коле- бания. Полученная в п. 7.8 оценка потенциальной точно- сти задержки сигнала по фазе 3 несущего колебания относятся Рис. 9.1. Апостериорная плотность к случаю, когда оценка нахо- вероятности дится в пределах главного мак- симума АПВ, т.е. решена про- блема неоднозначности фазовых измерений. Отметим также, что АПВ, 222
приведенная на рис. 9.1, является негауссовской. Поэтому рассматри- ваемые в последующих главах приближенные алгоритмы фильтрации, основанные на гауссовской аппроксимации АПВ, в таких задачах ока- зываются неработоспособными. 9.2. Рекуррентное уравнение для апостериорной плотности вероятности дискретных процессов При синтезе дискретных систем фильтрации считаются заданными дискретные уравнения ((1.83) или (1.84)), описывающие фильтруемый процесс, и уравнения наблюдения в дискретном времени, например, (7.90). Рассмотрим сначала задачу фильтрации одномерного МП Хк . Используя правило умножения вероятностей, запишем два эквива- лентных выражения для условной совместной ПВ р , ук |T(f-1) >Ук |>0 ') - |}0 |*0 1)=р(>'*|^’10 ')• Выразим из этого выражения апостериорную ПВ |у0*) = ср(ук |ХА. )р(х* |УОА’'), (9.Ю) где с — константа, не зависящая от X. Так как наблюдение ук при фиксированном Кк зависит лишь от шума пк и не зависит от предыдущих наблюдений У*-1, то р{у’к ) = Р^Ук ) • Таким образом, уравнение (9.10) можно записать в виде Р(Х* |УО*) = ср(ук |Х* )Р(Х* |УО*-'). (9.11) При к - 0, т.е. при отсутствии наблюдений, следует полагать р(>Ф°) = МЛо)- (912) Условная ПВ р (ук |Х*) может быть найдена из уравнения наблю- дения (7.90). Ранее (в задачах обнаружения и оценки параметров сигна- ла) мы имели дело, например (4.13), с условной ПВ совокупности на- блюдаемых отсчетов при заданном значении оцениваемого параметра. В задачах фильтрации всегда будем иметь дело с условной ПВ одного отсчета наблюдения при фиксированном значении оцениваемого про- 223
цесса в этом отсчете. Данная условная ПВ, рассматриваемая как функ- ция Х^ , называется одношаговой функцией правдоподобия. Качественно такую ситуацию можно пояснить следующим образом. Ранее говори- лось об оценке постоянных за время наблюдения параметров. Пусть, например, это был один параметр 0. Условная ПВ /’(j>|d) любого отсчета наблюдений {k = l,N ), рассматриваемая как функция парамет- ра 0, была одной и той же. Поэтому, задание некоторого значения полностью определяло как одношаговую функцию р (ук |д), так и «многошаговую» функцию р^У^ . Иная ситуация в задаче фильтра- ции, когда оцениваемый параметр 'кк меняется в каждый момент вре- мени. В этом случае одношаговая функция правдоподобия р(у^|Х^) зависит от одного параметра X*. В то же время, условная ПВ совокуп- ности из N наблюдения зависит от N параметров: X], Х2..^-к > • ••> Ху. Поэтому в данном случае необходимо было бы рассматривать функцию p{Y]N |Х] , Х2 , ^,...,Ху) • В принципе это возможно, но существенно усложняет проведение необходимых выкладок. Условная ПВ р (х^ |у0*~ 1 j марковского процесса Х^ , входящая в (9.11), определяется уравнением, аналогичным (1.71): р(*к |*о-1 ) = J p(Vi|Уо-1)р(^ 1^-1 И*-1. (9.13) где р (X* |Х^_]) — ПВ переходов МП, которая может быть найдена из уравнения, описывающего фильтруемый процесс X* , например (1.84). Для расчета ПВ />(х* |у0*-1 j используется полученная на предыду- щем шаге расчетов АПВ р(х*_| |у0*-1 j, в которой учтены данные, по- лученные из всех наблюдений, соответствующих интервалу времени [0,А-1], и ПВ р[кк |Х^_]) переходов МП X. Следовательно, при за- данных наблюдениях Уо*-1, плотность вероятности р(хк |у0*-1 j для момента времени к рассчитывается только по априорным сведениям о 224
фильтруемом процессе. Поэтому ее иногда называют экстраполирован- ной ПВ или плотностью вероятности экстраполированных значений процесса. Уравнения (9.11)—(9.13) позволяют рекуррентно вычислять значе- ние АПВ j на k-м шаге по соответствующему значению той же ПВ на предыдущем шаге. Начальным условием для такой рекур- рентной процедуры служит (9.12). Обобщение задачи дискретной фильтрации на векторный случай дается простой заменой в (9.11)—(9.13) скалярных процессов на век- торные. Полагая, как и выше, ‘кк = схк, где вектор хк описывается, например, уравнением (1.83), запишем р(х* |*0 ) = сР(Ук Iх* )р(х* |Уо“‘) - (914) />(х* |Yo-1)= J p(*k-i |Vo’1 )р(х* |х*-1 Рх*-1 - <915) p(x0|Y0°) = pap(x0)- (9-16) 9.3. Рекуррентное уравнение для апостериорной плотности вероятности дискретных процессов при наличии случайных неинформативных параметров сигнала Рассмотрим задачу дискретной фильтрации, полагая, что сигнал, несущий сообщение к.к = схк, содержит неинформативные параметры ц, которые постоянны за время наблюдения. В этом случае наблюдае- мый процесс имеет вид У к = sk(h^) + nk . Рассмотрение скалярного наблюдения не ограничивает общности рассматриваемого подхода, а выбрано для простоты изложения. Дополним постановку задачи соотношением щ = р^_|, отображаю- щим условие постоянства неинформативных параметров. Введем расширенный вектор АПВ р(г*|у0*)- 8—2041 и соответствующую ему 225
Поскольку нас интересует только фильтрация процесса х^ , то не- обходимо получить выражение для АПВ р [хк |у0* j. По свойству согла- сованности ПВ имеем р(*к|*о ) = k(z*pg = JР(х*,и|1о pH• (917) U и С другой стороны, используя формулу Байеса, запишем р[ч |у0* ) = ciP(Yok |х* )Рар (zk). (9.18) Подставляя (9.18) в (9.17), получаем р{*к |*о ) = ci jр(*о Iх*-н)Рар (ч-НИН = И = С1JР(*0 Iх*ЫРар (M-Ир- = = с\Рар [Ч ) j p(YQ Iх*.И)Рар (РИН = с\Рар (х* )p(Y0 Iх* ). (919) Н где p(y0 Iх*) = JРро Iх*.и)Рар (н)<*Н (9.20) ц Аналогичные выражения можно записать для АПВ р[*к j : р(ч |УО*-’) = с2Рар (х* )р(У0*-1 |х*), (9.21) р(У0*-,|ч) = /р(г0*",|хьЦ)рвр(н)^. (9-22) И Представим АПВ р{хк |у0* j в виде, аналогичном (9.14) р(*к |1о ) = ср(ук Iх* )р(*к |>о ) • (9-23) Из сопоставления выражений (9.19)-(9.23), получаем р(Ук Iх* ) = p(y0 Iх* )Д(*0 Iх* ) = 226
= |x* ,n)Pap (n)dn IJ M~x |хъц)рар (ц)^ц. (9.24) н / И Уравнение (9.23) аналогично уравнению (9.14) с той лишь разни- цей, что вместо одношаговой условной ПВ р (ук |хЛ ) в него входит усредненная по априорной ПВ неинформативных параметров функция ЖЫ (9.24). Уравнение (9.23) необходимо дополнить уравнением (9.15) для ПВ экстраполированных значений р(х* |у0*-1 ), которое не зависит от не- информативных параметров ц. Таким образом, уравнения (9.21)—(9.24) и (9.15) дают общее реше- ние задачи оптимальной нелинейной фильтрации при наличии случай- ных неинформативных параметров сигнала, которые не меняются за время наблюдения. 9.4. Рекуррентное уравнение для апостериорной плотности вероятности непрерывных процессов при наличии случайных неинформативных параметров сигнала Как следует из предыдущего матерала, при наличии неинформатив- ных параметров сигнала в уравнениях для апостериорной ПВ возникает усредненная условная ПВ наблюдаемой реализации при заданном зна- чении фильтруемого процесса. Аналогичная ситуация возникает и в задаче фильтрации непрерывных процессов. Для доказательства этого факта определим наблюдаемый процесс как у(?) = 5(г,1,ц)+и(г), + т)] = А0/23(т) (9.25) и рассмотрим совместную АПВ /лх,ц Уд ), для которой можно запи- сать уравнение Стратоновича (9.5) для расширенного вектора X ц z = —!—- = L dt + F(x,ji,r)~ | F(x,p.,/ (9.26) 227
p(x,O|O) = pep(x), где Z(*) — оператор Фоккера—Планка—Колмогорова для процесса х('); —---ip I V |—7 F(x,|M) = S(cx,g,f)2A^’ (у(/)-0,55(сх,|1,/)) =------------- at [г р1Уо |x,pj = exp' |Г(х,ц.,т)г/т • —отношение правдоподобия. Io Проинтегрируем (9.26) по |1 ;(9.27) - J (9.28) где /(x,r) - JF(х.цд)р(х,ц|Yq)</ц. (9.29) И Используя формулу Байеса, запишем p(x>p|yo) = ср(*0 М) Рар (Х,Р) = С1Р (Y0 |х>н)Рар (х,Ц) • (9.30) Представим производную, входящую в (9.27), в виде dln(p(r0'|x,g)) j др(У0'|х>ц) Э/ р(*о|х>н) Э' (9.31) Подставим (9.30)—(9.31) в (9.29) и выполним необходимые преоб- разования Эр(У0'|х,ц) Эр(г0'|х) Лх>') = ci J----------Рар (х.пИи = <\рар (х)--------= Э1п(р(Уо |х)) _ = С\Рар (х)р(уо Iх)--Т.------= ^(x-')p(x|yo (9.32) 228
где р(*0 |х) = Jp(lo М)ра;> (иИи, (9.33) И dln(p(r0'|x)) ^(м) =--------------• (9.34) Подстановка (9.32) в (9.28) дает следующее уравнение для АПВ: Уравнение (9.35) совместно с формулами (9.33)—(9.34) дают реше- ние задачи оптимальной фильтрации при наличии неинформативных па- раметров сигнала, не меняющихся за время наблюдения. Данное уравне- ние отличается от аналогичного уравнения (9.5), справедливого при от- сутствии неинформативных параметров сигнала, функцией F(x,f), ко- торая теперь определяется в соответствии с (9.33)—(9.34). 9.5. Рекуррентные уравнения для апостериорной плотности вероятности дискретных процессов, зависящих от случайных параметров В ряде задач фильтруемый процесс х^ может быть задан с точно- стью до вектора а случайных постоянных параметров, т.е. хА (а). Та- кая ситуация возникает, например, когда в формирующих уравнениях (1.83) или (1.84) те или иные матрицы, входящие в правую часть урав- нений, зависят от а. Рассмотрим для примера линейную модель сооб- щения (1.84), которую запишем в виде xjt(a) = Fjt_I(a)x*_i(a)+GJt_1(aXA_1, х(г0) = х0, (9.36) где — векторный ДБГШ с матрицей дисперсий (a). Для вектора случайных величин а можно записать тривиальное уравнение а*=а*-1> а('о) = ао- (937) 229
Положим, что наблюдается реализация ук = Sk (к* (а)) + пк , Лф^тЬЛ^.где кк (а) = стх*(<х). Как и в п. 9.3, введем расширенный вектор *к и соответст- 2* вующую ему АПВ p[zk Уо* ). Чтобы вектор zk был марковским про- цессом, уточним модель (9.36) с учетом (9.37) в виде хк ~ F*-l (а*-1 )xi-l (а*-1 ) + СЧ-1 (а*-1 )£*-1 > где ^-1 — векторный ДБГШ с матрицей дисперсий (а*_]). Для МП zk справедливы уравнения для АПВ (9.14)—(9.15) с заме- ной хк на гк . Однако во многих задачах фильтрации в большей степени интерес- на не оценка расширенного вектора zk, а оценка процесса хк , которая может быть найдена из АПВ |у0*). Поэтому получим выражение для данной АПВ. Для этого рассмотрим АПВ |у0* ) для расширен- ного вектора и, используя формулу Байеса, представим ее в виде р(*к |*о ) = р(ч.а* |*о ) = р(ч |*о >«* )р(ак |*о ) • (9-38) Интегрируя (9.38) по а, получаем p(xt|*o)- J р(х*|¥0\а*)р(а*|¥0*ра* . (9.39) Здесь р[*к |Yq ,ак j — условная АПВ вектора zk при заданных на- блюдениях Yq и фиксированных значениях параметра а. Фиксация параметров а приводит уравнение (9.36) к разряду уравнений с известными параметрами, а сообщение хк (а) имеет из- вестные статистические характеристики. Поэтому АПВ |Yq соответствует рассмотрению задачи фильтрации сообщений с извест- ными параметрами, и для нее можно использовать рекуррентные урав- 230
нения, аналогичные (9.14) — (9.16), но при условии фиксированного значения а,т.е. р(х* |y0*,ак) = ср(ук |хьа*)р(х* |y^“*,, (9.40) р(**|Уо"1.ая)= J p(*jt-i|Yo",.«*-i)p(x*|x*_i„a*_1 )**_!, (9.41) p(xo|Yoo,a<)) = pap(xo|ao). Получим выражение для />(a^|Yo j, входящей в (9.39). Для этого рассмотрим условную ПВ р(а*,у* |Yq“1 j. Используя формулу Байеса, запишем р(<*к,ук |y0*-1 ) = p(a* | Yq , У к )р(ук | Yo ) = = Р (ук |Yo , а.к) р (ак | Yo*-'). Из полученной формулы следует, что р[ак |Y0t) = cp(yi|Y0t-,.at)p(a* |), (9.42) где с — константа, не зависящая от a, которая может быть найдена в результате интегрирования (9.42) по a _________________1_______________ J р(ук |Хэ_1,<хЛ)р(аА |Yq “* )<йх* С учетом постоянства параметров a, что отображается уравнением (9.37), справедливы следующие выражения p(yj |Vo‘,.a1)=Р (у 4 |yo“' ,at-i). Последнее соотношение в (9.43) следует, в частности, из (9.15), если его записать для вектора a. С учетом (9.43) формула (9.42) принимает вид 231
P(a* |y0* ) = ср(ук |y0*-’,a*_j )р(а*_, |Yo^') (9.44) и является рекуррентным уравнением для расчета АПВ р ^ак | Yq j с начальным условием р(а0|у0°) = рар(а). (9.45) Уравнения (9.39)—(9.41) и (9.44), (9.45) дают решение поставлен- ной задачи фильтрации сообщения Xt(a), зависящего от вектора a случайных параметров. Применение данных уравнений для получения оценок кк будет подробно рассмотрено в гл. 13. 9.6. Рекуррентные уравнения для апостериорных плотностей вероятности непрерывных процессов, зависящих от случайных параметров Рассмотрим аналогичную задачу фильтрации непрерывного сооб- щения X(z,a), зависящего от вектора а случайных (постоянных) па- раметров, описываемых априорной ПВ рар(а). Процесс X(f,a) в пространстве состояний зададим вектором х(/,а), так что 1(/,а) = = сх(/,а) и ^ = F(r,a)x + G(z,a)$(z), х(г0) = х0. (9.46) at где £(г) — т -мерный вектор БГШ с корреляционной матрицей R§(T) = Sja)/25(t). На вход приемника поступает реализация у(г) = 5(/Д(г,а))+л(0, (9-47) где л (г) — БГШ с двусторонней спектральной плотностью Nq/2 . Задание а в виде случайных величин предполагает их постоянство за время наблюдения, что математически может быть записано как — O,a(O) = ao, (9.48) at где a0 — случайная величина. 232
Уравнения (9.46)—(9.48) описывают расширенный МП z = х а . По- этому для апостериорной ПВ plz Уд I можно записать уравнение Стра- тоновича (9.5) (9.49) с начальным условием р(z,0|0) = рар (z) = рар (х)рар (а) и ^(г,г) = Г(х(а),/) = 5(сх(а),г)2Уо1 (у(/)-0,5$(сх(а),г)). (9.50) В (9.49) £(*) — оператор Фоккера—Планка—Колмогорова для процесса x(f), так как составляющая дифференциального оператора, соответствующая компоненте a, тождественно равна нулю вследствие постоянства данных параметров (9.48). Рассмотрим условную ПВ р(х|Уо,а). Поскольку при фиксирован- ном значении а процесс х(г), описываемый уравнением (9.46) являет- ся марковским с известными статистическими характеристиками, то для АПВ р(х|Уд,а) можно записать уравнение Стратоновича (9.5) ^(xlyj.a) -A-L—' = Цр(х|у0',а))+ (9.51) где £(*) — тот же дифференциальный оператор, что и в (9.49); F(x((x),/) —описывается тем же соотношением, что и в (9.50). Используя формулу Байеса, запишем p(z|yof ) = p(x,a|r0') = p(x|yo',a)p(a|rj). (9.52) 233
Подставляя (9.52) в (9.49) и выполняя необходимые преобразова- ния, получим р^х|г0',а)р(а|у0').(9.53) Домножим (9.51) на p(aho), вычтем полученное уравнение из (9.53), а результат вычитания сократим на plx 1q,а). В результате по- лучим уравнение jF(x(a)j)p(x|y0',a)dx- (9.54) Обозначим F(a,z) = jF(x(a),z)p[x|y0',apx X (9.55) и запишем (9.54) в виде 4р(а|у0') Л F(a,z)- J Г(х(а),г)р(х,а|Уорх</а х,а р(а|у0'). (9.56) Уравнение (9.56) эквивалентно уравнению = F(a,z)- J F(x(a),/)p^x,a|yo jt/xJa. х,а (9.57) Второе слагаемое в правой части (9.57) — это число, поэтому реше- ние данного уравнения записывается в виде </ln(/>(a|y0'j) Л 234
plapo ) = cexp- t jF(a,x)dx .0 Pap (a)» (9.58) где константа с находится из условия нормировки ПВ pla yj j к еди- нице и равна с= j exp- |F((x,t)Jt to Pap(a)da. (9-59) Уравнение (9.51) совместно с формулами (9.50), (9.55), (9.58)-(9.59) дает общее решение задачи фильтрации сообщения, зависящего от век- тора случайных параметров. Конкретизация этих общих соотношений для получения различных алгоритмов адаптивной фильтрации будет дана ниже ( в гл. 13). Контрольные вопросы к главе 9 1. Является ли АПВ случайного процесса детерминированной или слу- чайной функцией и почему? 2. Как изменится общее уравнение для АПВ при фильтрации квазиде- терминированных процессов? 3. Как изменится общее уравнение для АПВ при фильтрации процессов, переносимых детерминированным сигналом и сигналом, имеющим случайные неинформативные параметры? 4. Как изменится общее уравнение для АПВ при фильтрации процессов с априорно неизвестными статистическими характеристиками? 235
Глава 10 ОПТИМАЛЬНАЯ ЛИНЕЙНАЯ ФИЛЬТРАЦИЯ ИНФОРМАЦИОННЫХ ПРОЦЕССОВ 10.1. Оптимальная линейная фильтрация непрерывных процессов 10.1.1. Общие уравнения оптимальной линейной фильтрации Уравнение Стратоновича (9.5) для АПВ в общем виде не решается. Лишь в частном случае линейной фильтрации, когда уравнения наблю- дения и формирования сообщения линейные и априорная ПВ рар (X) — гауссовская, уравнение (9.5) имеет точное решение. Пусть фильтруемый процесс Х(/) описывается скалярным уравне- нием ^ = F(z)X+G(0^(/), Х(О) = Хо, (10.1) at где F(r), G(/) —известные функции времени, £(/) —БГШ с двусто- ронней спектральной плотностью 5^/2, Xq — случайное число, распре- деленное по гауссовскому закону с нулевым МО и дисперсией Г\о . Наблюдается реализация процесса у(/) = Я(г)Х(г)+л(0, (Ю.2) где и(/) —БГШ с двусторонней спектральной плотностью Nq/2 . При гауссовском распределении начального значения Хо процесс X (/), описываемый линейным уравнением (10.1), является гауссовским. Наблюдаемый процесс (10.2) в рассматриваемой задаче также является гауссовским. Можно строго доказать [13, 15], что в этом случае АПВ />(x|1q ) — гауссовская, поэтому для нее можно записать выражение - (IOJ> 236
где Х(г) и Z\(/) — среднее значение и дисперсия гауссовского рас- пределения; заметим, что по определению =М (Х-Х)2 , а, следо- вательно, —это дисперсия ошибки фильтрации процесса Х(г). Получим уравнения, которым удовлетворяют среднее значение X и дисперсия 1\ . Запишем оператор Фоккера—Планка—Колмогорова для процесса (10.1) Зр л,<и g2(<)sc32p « ' 1 ' ' (ЮЛ) ' 1 ' ал. 4 дл, С учетом (10.4) уравнение (9.4) для АПВ принимает вид dt ' ’ V G2 (t)S^ d2p(bt + 4 эх2 ЭХ + Я(г)Х-^-(у(/)-0,5Я(/)Х)- L No Перейдем от уравнения для р к уравнению для и = In . Учитывая, что du _</1п(р(х,г|у0'))_ i 4р(х,/|уог) dt dt p(v|lo) dt Эи jin(P(x,/|yj)) t 3P(x,/|yj) 237
э2и_д2ь(р(х,/|к0,))_ J э2р(м|г0') ЭХ2" эх2 ~p(x,z|y0') эх2 31nlp(X,z У0'П ЭХ (10.6) из уравнений (10.5)—(10.6) получаем (+Г—f' эх2-+ эх ^ = -F(,)-F(,)X^tG2(,>^fe Л ЭХ 4 ЭХ2 7 + Я(/)Х—(y(z)-0,5^(z)X)- Ло =о ~ - J Ло ,5tf(z)X)p(x,z|y0'pX p(x,z|y0'). (10.7) Для гауссовской ПВ р^Х,z|yj j (10.3) выражение для и имеет вид и = In(р(Х,11Уо')) = с(z)-, где с (t) = - In (2л£\ (z ))/2 — переменная, не зависящая от X. Запишем выражения для производных, входящих в (10.7): du dc(t) 1 dD\ dt dt 2 dt (10.8) Преобразуем выражение, стоящее в квадратных скобках (10.7): ^(O^^-(y(O-o.5//(z)x)- nq -J ^(z)X^-(^(z)-O,5^(z)X)p(x,z|yo')rfX = ^-^(z)Xy(z)- —» Ло ' 1 ' zvq (z)X2 -LH(t)ky(t)+^-H2 (z) J X2p(x,z|y0') JX = No M) Д, v 1 ' 238
~~^н2 (')(**Ч + <10.9) При выводе соотношения (10.9) учтено, что J x2P(x,z|y0'px-x2(z)= J (x-x)2p(x,z|yo')rfx=2\. Подставляя (10.8), (10.9) в уравнение (10.7), получаем = -F(z)+F(z)X/£l(X-X)+ +^('Ж1(х-х)2 + G +1\2(*-ь)2]+ +^"(О(^-Ч(у(О-^(')Ч-^-я2(/)(х-х)2+А-я2о)^. Приравнивая в (10.10) члены при одинаковых степенях разности X — X, запишем = (10.11) ^ = 2F(t)Dk + G2(t)^--H2(t)^-I^. (10.12) Начальные условия для уравнений (10.11), (10.12) определяются следующим образом: Х(О) = Хо, Z\ (0) = 7\о . Уравнения (10.11) описывают линейную нестационарную следя- щую систему, структурная схема которой приведена на рис. 10.1, где 2 K(t) =—— коэффициент усиления следящей системы. Ко- ^0 эффициент усиления меняется во времени, в первую очередь, вследст- вие изменения дисперсии ошибки фильтрации которая опреде- ляется уравнением Риккати (10.12). 239
Оценка X фильтруемого процесса является средним значением АПВ (10.3), т.е. Другими словами, оцен- Рис. 10.1. Схема оптимальной следящей с системы ка Л. — это оценка услов- ного среднего. В то же время, из теории статистических решений (см. гл. 3) следует, что оценка условного среднего минимизирует дисперсию ошибки фильтрации. Следовательно, уравнения оптимальной фильтрации (10.11), (10.12) формируют оптимальную оценку по критерию минимума дисперсии ошибки фильтрации. Приведем без вывода основные соотношения многомерной линей- ной фильтрации векторного процесса х(/), определяемого уравнением (9.2) в случае векторных линейных наблюдений y(/) = H(z)x(l) + n(f). (10.13) Структура оптимального линейного фильтра описывается уравне- ниями ^ = F(/)i + K(z)(y(t)-H(/)i), х(0) = х0. (10.14) где K(r) = Dx(/)HT(z)2N“1 (10.15) — матричный коэффициент усиления; Dx (г) — матрица дисперсий ошибок фильтрации, которая определяется матричным уравнением Рик- кати ^=f(z)dx+d;f(0+1g(0s^gt(/)-dxht(02n;1h(/)dJ = = F(r)Dx+ DxF(/)+-^G(/)S^GT (z)--^K(r)N„KT (г), Dx(O) = DXo. (10.16) Уравнения оптимального фильтра (10.13)—(10.16) во многом ана- логичны уравнениям (10.11)—(10.12), полученным для скалярного про- 240
цесса X(z). Схема оптимального многомерно фильтра также практиче- ски совпадает со схемой, приведенной на рис. 10.1, если в ней под K,F,H понимать соответствующие матрицы, а связи между отдель- ными блоками полагать векторными. Приведенные выше уравнения оптимальной линейной филктряпии в форме дифференциальных уравнений впервые были получены Р. Кайма- ном. [17] и носят его имя. Отметим, однако, что данные уравнения были им получены иным путем: в результате непосредственной минимизации дисперсии ошибки фильтрации с использованием методов вариацион- ного исчисления. 10.1.2. Некоторые обобщения алгоритмов оптимальной линейной фильтрации В ряде задач оптимальной фильтрации формирование фильтруемо- го процесса х(/) обусловлено не только случайным формирующим шумом £(/), как это имело место в (9.2), но и некоторой детерминиро- ванной составляющей, т.е. —^ = F(z)x + B(z)u(z)+G(z)lj(z), х(г0) = х0, (10.17) at где u(z) —детерминированная векторная функция времени. Так как уравнение (10.17) — линейное, то, следуя принципу су- перпозиции в линейных системах, можно утверждать, что добавление аддитивного детерминированного возмущения В(/)и(/) в правую часть уравнения (10.17) приведет к появлению дополнительной аддитивной составляющей в процессе x(z), которая также будет детерминирован- ной, т.е. известной. Но тогда и в соответствующей оптимальной оценке x(z) должна появиться точно такая же составляющая, так как опти- мальность оценки предполагает минимизацию среднего квадрата ошиб- ки м (х(')-*('))2 . Но такая составляющая в оценке x(z) может возникнуть лишь тогда, когда в правой части фильтра Каймана (10.14) будет такой же возмущающий член, что и в (10.17). Приведенные рас- суждения на «физическом» уровне подтверждаются строгим математи- ческим выводом. В результате алгоритм оптимальной фильтрации про- цесса (10.17) имеет вид 241
— = F(r)x+B(z)u(/)+K(z)(y(/)-H(/)i), x(O) = xo. (10.18) Соотношение (10.15) для матрицы коэффициентов усиления и уравнение для дисперсий ошибок фильтрации (10.16) при этом не изме- няются. Другое обобщение алгоритма оптимальной линейной фильтрации (10.14)—(10.16) дается на случай, когда формирующий шум lj(z) и шум наблюдения п(/) коррелированны. Такая ситуация возникает, напри- мер, в задаче линейной фильтрации процесса на фоне коррелированной помехи (см. п. 10.3). Положим, что Л/^(/)пт(г + т)] = ^п/25((т)). (10.19) Коррелированность двух шумов не влияет на структуру алгоритма оптимальной фильтрации, т.е. уравнение для оценки процесса имеет вид либо (10.14) при отсутствии детерминированной компоненты в уравне- нии формирования, либо (10.18) при наличии такой детерминированной компоненты. Изменяется выражения для коэффициента усиления, которое теперь имеет вид K(z) = (dx (z)Ht (z)+G0)4*^/2)2N-’, (10.20) а уравнение для дисперсий ошибок фильтрации записывается как = F(/)DX +d;f(z)+|g (/)S^Gt (/)-|k(z)n„kt (/), at 2. Z Dx(0) = DIo. (10.21) Коррелированность шумов формирования и наблюдения повышает точность фильтрации, так как в этом случае в наблюдениях (10.13) ин- формация о фильтруемом процессе содержится не только в первом сла- гаемом, но и во втором, т.е. в шуме n(z). 10.1.3. Использование теории оптимальной линейной фильтрации для синтеза сглаживающих фильтров следящих измерителей Аппарат теории оптимальной линейной фильтрации применяется в раз- личных областях радиотехники. В том числе, он может быть применен 242
при синтезе сглаживающих цепей радиотехнических слепящих систем. Как известно [3], радиотехническая следящая система (рис. 10.2) включает в себя в качестве основных элементов дискри- у(0=5(Х,/)+л минатор (Д) и сглаживающий фильтр (Ф). Дискриминатор является „ - « Рис. 10.2. Обобщенная схема нелинейным устройством, радиотехнического следящего выделяющим информацию о измерителя рассогласовании 81 = 1—1 между сообщением и его оценкой. Про- цесс Ид на выходе дискриминатора имеет регулярную составляющую С/ (81) (МО процесса ия) и флуктуационную составляющую £(/) Мд(0 = С/(8Х)Ч(Ф (10.22) Флуктуационный процесс, как правило, зависит от ошибки слеже- ния 8k, т. е. ^ (/, 8Х). Однако в дальнейшем, для простоты, будем пола- гать, что он не зависит от ошибки слежения. Представление (10.22) является статистическим эквивалентом (мо- делью) дискриминатора. Принимая во внимание (10.22) и вводя опера- торный коэффициент переда- чи К(р) фильтра в контуре следящей системы, схему (рис. 10.2) представим в эк- вивалентном виде, приведен- ном на рис. 10.3. Зависимость математиче- ского ожидания U(81) вы- Рис. 103. Эквивалентная схема следящей системы ходного процесса дискриминатора от ошибки слежения 81 называют дискриминационной характеристикой. Форма дискриминационной характе- ристики приведена на рис. 10.4. При большом отношении сиг- нал/шум на входе следящей системы ошибка слежения мала и не выходит за пределы линейного участка дискрими- национной характеристики которая в этом случае может быть представлена в виде U (81) = 5Д81, где Рис. 10.4. Дискриминационная характеристика 243
Э<У(8Х) д Э8Х 8Х = 0 — крутизна дискриминационной характеристики. Следовательно, при большом отношении сигнал/шум следящую систему можно линеаризовать (рис. 10.5). Рис. 10.5. Линеаризованная схема следящего измерителя В линеаризованной схеме (рис. 10.5) флуктуационный процесс £ (t) можно пересчитать на вход следящей системы, что приводит к Рис. 10.6. Эквивалентная схема линеаризованного следящего измерителя эквивалентной схеме (рис. 10.6). В данной эквивалентной схеме двусторонняя спектральная плот- ность шума л(/) равна N„/2 = = , где Л^/2 —дву- сторонняя спектральная плот- ность флуктуационного процесса £(1) на выходе дискриминатора, и K(p) = SaK(p). Свойства следящей системы (рис. 10.6) определяются коэффициен- том передачи К\р), который, в свою очередь, определяется коэффици- ентом передачи К\р} фильтра в контуре следящей системы (рис. 10.2). При изменении коэффициента передачи К\р) меняются свойства фор- мируемой на выходе следящей системы оценки X. Следовательно, можно ставить задачу выбора оптимального коэффициента передачи Kopt (р)’ например, по критерию минимума дисперсии ошибки фильт- рации. В то же время, из курса «Радиоавтоматика» известно, что в ли- нейной следящей системе операторный коэффициент передачи от входа системы к ее выходу К-^(р) = К(р)/(\ + К(/>)). Другими словами, 244
коэффициент передачи К(р) фильтра в контуре следящей системы однозначно определяет коэффициент передачи К.^ (р) всей следящей системы и наоборот. Поэтому оптимизация К (р) эквивалентна опти- мизации /S-^(p). Но последняя задача оптимизации есть ни что иное, как синтез оптимального фильтра для выделения (оценки) процесса Х(/) из наблюдаемой реализации y(/) = X(r)+n(z). При описании X(z) в виде гауссовского МП (например, (10.1)) и шума л(/) - как бе- лого гауссовского, для синтеза оптимальной линейной следящей систе- мы можно использовать приведенные выше уравнения оптимальной фильтрации. 10.1.4. Примеры синтеза оптимальных линейных систем фильтрации Пример 10.1. Рассмотрим задачу синтеза оптимального линейно- го фильтра системы частотной автоподстройки. Полагаем, что дискри- минатор полностью задан, отношение сигнал/шум достаточно велико, так что ошибка слежения мала и не выходит за пределы линейного уча- стка дискриминационной характеристики. Запишем воздействие на вхо- де эквивалентной следящей системы в виде y(t) = 12(/)+й(/), где й(/) — БГШ с нулевым МО и спектральной плотностью Nq/1. Частоту Q(z) будем описывать случайным процессом со спектральной плотно- а25? стью (со) = . со2(со2+а2) Процесс Q(z) с заданной спектральной плотностью может быть отображен в пространстве состояний двухкомпонентным МП х(/) = |х1 хгГ> который описывается следующими дифференциальными уравнениями: ОД = х1(/), ^- = х2, ^- = -ах2+а^), (10.23) at at где £(z) —БГШ с спектральной плотностью 5^. Запишем (10.23) в векторном виде 245
— = Fx+G^(f), (10.24) 0 О где F = ; в рассматриваемом примере матрица наблюде- ний Н=|1 0|. Из общих уравнений (10.14)—(10.16), с учетом (10.24), получаем следующий алгоритм оптимальной фильтрации ^L = x2+^LL(y(z)-x1), dt 2 Nq ' у и ^. = -otx2 -i-^12 dt 2 No v 1 u ^11 = 2D,2-2£u, ^LX = D22_aD12_^!1^2., dt Nq dt Nq dt 2 Nq Схема оптимальной системы фильтрации приведена на рис. 10.7, K{=2E{l/N0,K2=2El2/N0. Рис. 10.7. Схема оптимальной системы фильтрации Рассмотрим установившийся режим работы следящей системы (t ~^оо ). в этом случае систему уравнений (10.25) можно решить ана- литически, что приводит к следующим выражениям для дисперсий ошибок фильтрации: Al =_~(V1 + 2Vp -1)’ A2=£*l2l/^0> 246
^22 =^(«2^/2-2D122/^0), р = $(=/(а2лг). Параметр р — безразмерный и определяет отношение энергетиче- ских характеристик (спектральных плотностей) фильтруемого процесса (сообщения) и аддитивного шума. Поэтому его можно назвать отноше- нием сообщение/шум. В установившемся режиме коэффициенты усиления К2 посто- янны, а операторный коэффициент передачи фильтра в контуре следя- щей системы (рис. 10.7) определяется выражением К2 1 р + а J ^(p) = -Uk1 + ^1 Р + (а + ^2/^1) Р Р + « Таким образом, в установившемся режиме в контуре следящей сис- темы оптимальным фильтром является фильтр, состоящий из интегра- тора и пропорционально-интегрирующего фильтра. Оптимальные зна- чения параметров фильтра зависят от параметра сообщения а и от от- ношения сообщение/шум р. Коэффициент передачи ХГ(р) сглаживающего фильтра в контуре реальной следящей системы (в данном случае системы частотной авто- подстройки (рис. 10.2, 10.3)) связан с коэффициентом передачи (р) синтезированной системы выражением К{р}~ K^(p)/Sa . Следовательно, структура фильтра остается той же самой (интегратор и пропорционально-интегрирующий фильтр), а изменяется лишь коэф- фициент усиления на нулевой частоте. v П р и м е р 10.2. Рассмотрим задачу фильтрации речевого сообще- ния Х(/), передаваемому по каналу связи с БГШ. В гл. 2 представлена одна из моделей такого сообщения в виде двухкомпонентного процесса, описываемого уравнениями (2.28), которые для удобства приведем еще раз: = -<ад +0О [-а2х2 +а2$(/)], ^. = -а2*2 +«2^(0> at at где £(z) —БГШ с двусторонней спектральной плотностью S^/2 . Спектральная плотность процесса X = X] описывается выражением 247
c t ч_ afeo^w2 X(“)_2(®2+a2)(m2+ai)' На вход приемника поступает реализация у(/) = Х(т)+л(г), где л (?) — БГШ с двусторонней спектральной плотностью Nq/2. Введем вектор х (/) = )*! х2|т, который, также как и в предыдущем примере, описывается векторным уравнением, однако с иными матрич- ными коэффициентами, а именно: -aj -a20o г — О —<Х2 «200 а2 , G = (10.26) Матрица наблюдений по-прежнему равна Н = |1 0|. Подставляя (10.26) в общие уравнения оптимальной фильтрации (10.14)—(10.16), получаем ^- = -a.ixl-a2Qox2+~-(y(t)-i]), (10.27) «» TVq —^- = —otx2 j]) dt 2 Nq V 12 2 = -2a, , - 2a2(?0£>i2 -^L, (10.28) dt Nq dt 2 ' ' Nq Схема оптимальной линейной фильтрации, описываемая уравне- ниями (10.27), приведена на рис. 10.8. Уравнения (10.28) для дисперсий ошибок фильтрации в установив- шемся режиме в данной задаче также могут быть решены аналитически. Однако выражения получаются достаточно громоздкими и здесь не приводятся. Операторный коэффициент передачи фильтра в контуре следящей системы рис. 10.8 определяется выражением 248
Кф(р)= К1 (р+р) (p+ai)(p + a2)’ где P = a2 (1-QqK2/K^. Из первого уравнения (10.28) в установившемся режиме следует, что Рис. 10.8. Схема оптимальной линейной фильтрации ₽ = а2 0-00^2/^) = -а20_£?О-°12/£)11)--“7‘ + а1 +а2 >0. No Следовательно, 7р = 1/Р > 0 и определяет постоянную времени форсирующего звена в сглаживающем фильтре оптимальной следящей системы. 10.1.5. Оптимальный фильтр Винера Кроме дифференциальной формы представления оптимальных ли- нейных фильтров возможна интегральная форма, предложенная Н. Ви- нером и названая фильтром Винера. Интегральное уравнение Винера. В своей работе [18] Н. Винер рассматривал задачу фильтрации СП Х(1) по наблюдению у(/) на ин- тервале времени [0,1], связанному известной зависимостью с фильт- руемым процессом. Предполагалось, что известны корреляционная функция Ry (1],/2)наблюдаемого процесса у(1) и взаимная корреляци- онная функция R\y(t\,t2) фильтруемого процесса Х(/) и Наблюдений у (г). МО наблюдаемого процесса полагалось равным нулю. Оптимальный фильтр искался в классе линейных фильтров, форми- рующих следующую оценку: X‘(l) = Jg(l,T)y(T)</T (Ю.29) о по критерию минимума среднего квадрата ошибки ?(,)=« (1(<)-Г(>))2 (10.30) 249
В отличие от постановки задачи синтеза фильтра Калмана, Н. Винер не задавал модель наблюдений в форме (10.2), а требовал лишь зависи- мость наблюдений от фильтруемого процесса, причем известным обра- зом, который определяется заданием корреляционных функций и ЯаД'ьМ- Другим отличием постановки задачи синтеза по Н. Винеру являют- ся априорные сведения, которые определяются заданием корреляцион- ных функций Лу(Г],12), Данные априорные сведения ослаблены по отношению к априорным сведениям в постановке задачи калмановской фильтрации. Так, например, задание указанных взаимных корреляционных функций совсем не говорит о том, что процессы Х(/) и у (Г) являются гауссовскими. В общем случае они могут быть негаус- совскими. Для таких негауссовских процессов также можно искать наи- лучшую оценку вида (10.29), т.е. в классе линейных фильтров. Однако, это совсем не значит, что такая оценка будет наилучшей из всех воз- можных, т.е. «абсолютно» оптимальной. Можно искать «нелинейные» оценки, т.е. оценки, полученные в результате нелинейной обработки наблюдений, которые будут иметь средний квадрат ошибки (10.30) меньше, чем линейные оценки (10.29). Еще одно отличие постановки задачи по Винеру заключается в том, что помеха может быть коррелированным процессом. В п. 1.7 показано (см. «Следствие для условных плотностей вероят- ности»), что линейная зависимость условного математического ожида- ния Х = J от наблюдений y(t) является неизбежным следствием лишь для совместно гауссовских процессов X(z) и y(t), что имеет место в постановке задачи синтеза по Калману. Поэтому, лишь в этом случае линейный фильтр является «абсолютно» оптималь- ным, т.е. нельзя найти никакой другой системы обработки наблюдений y(z), которая имела бы меньшее значения среднего квадрата ошибки. Заметим, что в оригинальной работе Н. Винера рассматривался обобщенный временной интервал [a,Z>] и оценка X* (z) искалась для произвольного момента времени t. Такая постановка охватывает как задачи фильтрации (t = b), так и задачи интерполяции (t < b) и экстра- поляции (t > b). В данной главе рассматриваются лишь задача фильтра- ции, поэтому временной интервал определен как [0, t]. 250
Преобразование (10.29) является линейным оператором над наблю- дениями у(т), те [0,z], который обозначим как G(yo') = X’(O = fg(/,'r)j'('t)^T. (10.31) о Докажем, что минимум среднего квадрата ошибки (10.30) достига- ется для такой импульсной характеристики g0(z,r) и соответствующе- го ей оператора Gq (yj) > ПРИ которых выполняется условие М [(x(z)-G0 (у0' ))y(v)] = М [(X(r)-X(/))y(v)] = 0 при всех ve [0,z], (10.32) где X(r) = Go(ro,) = X‘0(0 = Jg0G,T)J(T)rfT. (10.33) о Физический смысл условия (10.32) заключается в том, что при оп- тимальной оценке (10.33) текущая ошибка 5X(z) = X(z)-X(z) не корре- лированна со всеми наблюдениями y(v), ve [0,z]. Пусть gonT (z,t) — импульсная характеристика, при которой дости- гается минимум среднего квадрата ошибки (10.30), a Gom. (yj j — соот- ветствующий ей линейный оператор. Положим, что gonT (z, т), при ко- торой (10.30) достигает минимума, отлична от g0(z,t), для которой выполняется условие (10.32), и g0 (z,t) = gonT (z,T)+5g(z,'t). В соответ- ствии с определением (10.31) можно записать С0(Уд ) = Сопт(Уо )+ +SG(y0'). Запишем выражение для минимального значения среднего квадрата ошибки е2. cmin (10.34) 251
Так как по определению оператора Go (Tq j разность (ЦО-Go (Yq jj некоррелированна с любым наблюдением у (у), v е [О, г], то она некоррелированна и с любой линейной комбинацией от у (у), в том числе и с SG^Tq j. Следовательно: M[fa(r)-Gn(yo'))8G(Knl = 0. (10.35) Раскрывая правую часть (10.34) и учитывая (10.35), получаем Е* (10.36) Первое слагаемое в правой части полученного выражения есть средний квадрат ошибки при использовании оператора Go (yoz j, а вто- рое слагаемое — неотрицательно. В то же время, в левой части (10.36) стоит минимальное значение среднего квадрата ошибки. Это возможно, если SG^Tg ) = 0, так как в противном случае использование оператора Go (1q j давало бы меньшее значение среднего квадрата ошибки. Сле- довательно Go (yj ) = Gorrr (у0)»что и завершает доказательство. При оптимальном операторе GonT I Уд I средний квадрат ошибки Emin(0=^[(x(/)-GonT(yJ))x(o]=M[(x(0-x(0)x(0]- Выполнив в условии (10.32) необходимые преобразования, с учетом равенства Go ) = <50пт (^0 ) и приведенных в постановке задачи опре- делений корреляционных функций, получаем ^0-v) = jgonT0>t)^(T,v)^, ve[0j]. (10.37) 0 Таким образом, оптимальная импульсная характеристика gonT (z,t) находится из интегрального уравнения (10.37), которое называют урав- нением Винера, а импульсную характеристику gonT (/>т) = Sb (г’т) на" зывают импульсной характеристикой фильтра Винера. 252
В общем виде уравнение (10.37) не имеет аналитического решения. Стационарный фильтр Винера. Рассмотрим важный частный случай, когда процессы X,(f) и у (г) — стационарны и стационарно связаны в широком смысле (см. определения стационарности в п. 1.6). Это означает, что корреляционные функции Rv(t\,t2) и ^XyGi»^) за- висят не от абсолютных значений моментов времени и , а лишь от разности т = t2 -t\, т.е. имеем Ry (т) и R\y (т). Кроме того, будем полагать, что интервал наблюдения бесконеч- ный. При этом пределы интегрирования в (10.37) следует положить ±°о. Однако, рассматривая синтез физически реализуемых фильтров, пределы интегрирования полагаем [0,°°]. При стационарном входном процессе у(г) и бесконечном интерва- ле наблюдения выходной процесс фильтра будет стационарным в широ- ком смысле, и оптимальный фильтр можно отыскивать в классе линей- ных фильтров с постоянными параметрами, т.е. стационарных фильтров. Учитывая принятые допущения, уравнение (10.37) принимает вид RXy (т) = 1 £опт (v)*y (T-v)rfv. (10.38) о Это интегральное уравнение для нахождения оптимальной им- пульсной характеристики называется уравнением Винера—Хопфа. Его решение возможно для процессов, спектральная плотность которых описывается дробно-рациональной функцией Л (со2) М“) = -7^ (Ю.39) где л(со2 ) = a0co2m +ai<B2(m+... + am_lco2 +ат , ? в(со2) = Лй<о2л + й1со2(л’1) +... + йл_1(02 +Ьп , т<п . Процесс с дробно-рациональным спектром можно сформировать на выходе физически реализуемого фильтра с коэффициентом передачи (jco) > таким, что 253
(10.40) при подаче на его вход белого шума с единичной спектральной плотно- стью. Заметим, что сформулированным условиям удовлетворяет про- цесс, отображаемый в пространстве состояний многомерным марков- ским процессом, например (9.2), с постоянными коэффициентами сноса и диффузии. Один из возможных методов решения уравнения Винера—Хопфа основан на введении обеляющего фильтра, который преобразует вход- ной процесс у(г) со спектральной плотностью (10.39) в процесс T|(f) с равномерной спектральной плотностью, т.е. некоррелированный про- цесс. При этом, если операция такого преобразования является обрати- мой, то из процесса т|(/) в результате обратного преобразования можно получить исходный процесс у(<). Это, в частности, означает, что при таких преобразованиях не происходит потери информации, и, следова- тельно, не теряется свойство оптимальности фильтра (более подробно о свойствах обратимых преобразований см. п. 4.2.7). Из (10.40) следует, что в качестве обеляющего фильтра можно вы- брать линейный фильтр с частотной характеристикой T(jw) = l/^(j(o) (10.41) и соответствующей ей импульсной характеристикой gy (т). Оптимальный стационарный фильтр Винера ищется в виде после- довательного соединения двух линейных фильтров (рис. 10.9): обеляю- щего с коэффициентом передачи TQ'co) (импульсная характеристика Рис. 10.9. Оптимальный фильтр Винера в форме последовательного соединения двух фильтров gtp (т)) и линейного фильтра k(r) с коэффициентом передачи Хлф()(о) (импульсная ха- рактеристика £лф (т)). Из определения коэффи- циентов передачи Ку (jto) и 'P(jo) следует, что процесс Т|(/) имеет единичную спектральную плотность, и, следовательно, его функция корреляции имеет вид Лп(т) = 1-5(т). 254
Определим теперь коэффициент передачи /Слф(]©) линейного фильтра в схеме рис. 10.9. На выходе фильтра необходимо получить оптимальную оценку Х(/) при условии, что на его входе действует про- цесс Г|(/). Импульсная характеристика такого линейного фильтра должна удовлетворять уравнению Винера—Хопфа, но при входном про- цессе T|(f). Поэтому (т) = /£лф (v)«n (т-v)rfv = J£лф (v)8(t-v)rfv = £лф (т), т> 0. о о При т<0 импульсную характеристику физически реализуемого фильтра можно доопределить как g^ (т) = 0 . Рассчитаем корреляционную функцию ^Xn(T) = Af Х(г) J gT(v)y(z-x-v)Jv = = J g4,(v)RXy(x + v)dv= J g4>(-v)^(x-v)«7v. (10.42) Выражение (10.42) описывает прохождение через линейный фильтр с импульсной характеристикой g»p (-v) (коэффициент передачи T*(j®)) процесса £(/) = R\y(t) • Такое преобразование можно запи- сать в частотной области как 5^ (jco) = <P*(jco)Sxy С03)- Спектр (J®) определяется как преобразование Фурье от (х) > т е- Wj®)= f ^(T)e‘J“t(/T = Mxi1We’JWI^+ оо 0 о + J WT)e JtOTi/T = 5^(jo))+Sxn(j®)> поэтому он содержит составляющую (j to), все полюса которой на- ходятся в левой полуплоскости комплексной переменной j(i), и состав- ляющую 5^ (j со) с полюсами в правой полуплоскости. Для физически реализуемого фильтра необходимо взять только составляющую 255
SxT|(j<0)- Таким образом, получаем выражение для коэффициента передачи линейного фильтра в схеме рис. 10.9 *лф (j®)=йп (j®)=[** 0®Ж (®)]+ SXy (®) ,^(j®) (10.43) Коэффициент передачи стационарного фильтра Винера, учитывая последовательное соединение обеляющего и линейного фильтров и формулы (10.41), (10.43) для их коэффициентов передачи, записывается как ^-опт (j®) — 1 (®) ^y(j®)[/r‘(j(o) (10.44) Отметим в заключение, что выделение составляющей [...J*, входя- щей в (10.44), основано на разложении функции, стоящей в квадратных скобках, на неприводимые множители с последующим выбором тех из них, для которых полюса находятся в левой полуплоскости комплекс- ной переменной jco. Вывод фильтра Винера из уравнений фильтра Калмана. Другое представление для импульсной характеристики фильтра Винера можно получить, используя постановку задачи синтеза фильтра Калмана и вы- текающие из нее уравнения оптимальной калмановской фильтрации. Пусть имеем скалярное наблюдение (10.2), в котором А.(г) — фильтруемый процесс, отображаемый в пространстве состояний век- торным МП х(/),такчто A(z) = cx(г). Векторный процесс х(/) опи- сывается априорным уравнением (9.2). Оптимальная оценка х(/) по критерию минимума дисперсии ошиб- ки фильтрации в сформулированной задаче определяется уравнением фильтра Калмана (10.14), которое представим в виде ^• = (F(t)-K(r)H(t)c)x + K(t)y(t), x(0) = x0, (10.45) где К(0 = Ох(0^(')сТ2МГ'- Введем переходную матрицу Ф(/,т), удовлетворяющую однород- ному уравнению 256
^Е1 = (Р(/)-К(/)Н(?)с)Ф(г,т), с начальным условием Ф(т,т) = 1. Полагая, как и выше, х(0) = 0, решение неоднородного матричного уравнения (10.45) можно записать через переходную матрицу Ф(/,т) в виде х(г) = |ф(г,т)К(т)у(т)е/т = о = /Ф(г,т)Ох (т)Н (т)ст2Л/{7’ у(т)</т = Jg(f,T)y(T)dT, о о где g(/,i) = Ф(?,т)Вх (т)7/(т)ст2У(7' —матричная импульсная харак- теристика оптимального линейного фильтра. Учитывая связь между вектором х и процессом А(г), запишем t Х(г) = |сФ(г,т)К(т)у(т)«/т = о = /сФ(г,т)Ох (т)Я (т)ст2^’у(т)£/т = J gonT (z,x)y (t)Jt , о о где gonT (г,т) = сФ(г,т)Вх (т)ст/7 (г)2Уд1 — импульсная характери- стика фильтра Винера для рассматриваемой задачи. 10.2. Оптимальная линейная фильтрация дискретных процессов 10.2.1. Рекуррентные алгоритмы оптимальной дискретной линейной фильтрации Так же, как и в задачах непрерывной фильтрации, задача синтеза оптимальной линейной дискретной фильтрации может быть решена строго, исходя из рекуррентных уравнений для АПВ (9.11), (9.13). Пусть сообщение описывается скалярным уравнением +с*-Л*-1 ’ (Ю.46) 9—2041 257
где — ДБГШ с дисперсией <т|; Хо — начальное значение фильт- руемого процесса, которое полагаем распределенным по гауссовскому закону с нулевым МО и дисперсией . На вход системы обработки поступают дискретные отсчеты ук=Нккк+пк, (10.47) где пк — ДБГШ с дисперсией . Из уравнения наблюдения (10.47) следует, что условная ПВ Р {ук ) ПРИ фиксированном значении Хк является гауссовской с МО, равным Hk"kk , и дисперсией 1 cJ (у,.-НМ1 I--— СЛР ? 2стл (10.48) Плотность вероятности переходов р(кк ), в соответствии с (10.46), также является гауссовской с МО FA_|X^._] и дисперсией G^oj.T.e. / i х (Xi — Fk_\Xk_]) p | Vi) =c exP--------------- (10.49) _2 где c — нормировочная константа. Рассмотрим формулу (9.13) на первом шаге к = 1. Под знаком инте- грала этой формулы имеем: р |г0° j = р (Хо ) — гауссовская функция; р(Х]|Хо) — гауссовская функция. Так как интеграл от гауссовской функции есть также гауссовская функция, то условная ПВ р^к\ |у0° ) — гауссовская. Далее обратимся к уравнению (9.11), из которого следует, что апостериорная ПВ |1q j — также гауссовская функция, по- скольку она получается в результате перемножения двух гауссовских функций. Рассуждая аналогичным образом далее, можно утверждать, что АПВ р(Х^_| Ко*-11 —гауссовская. Обозначим 258
^•k-l J (10.50) co 2 Aa-i = J (k*-i~k*-i) p(^-i|io*_,)rf^*-i и запишем очевидное выражение для гауссовской функции (10.51) Подставим (10.49), (10.51) в (9.13) и выполним интегрирование Р С1 J exp- - (Ч )2 2G*M •ехр 2£V-1 = с2 ехр- (10.52) Подставляя (10.52), (10.48) в (9.11), получаем Ro ) = ^ехр- (Ч -Fk-X^k-l) 2 (rf-l^k-l + Gk-l°l) (Ук-ММ2 K32n (10.53) В то же время, как было показано выше, ПВ р (хА |у0* j — гауссов- ская с МО и дисперсией, определяемыми формулами (10.50) для момента времени к. Поэтому можно записать выражение, аналогичное (10.51): Р 1 -----ехр 5^7 = с4 ехр 1 Х^ - Х^ 22\к (10.54) Из соотношения (10.54) следует, что оценка X* — это коэффици- ент при X*/1\к , а величина —коэффициент при Х*/2.Вы- 259
деляя аналогичные члены в показателе экспоненты (10.53) и приравни- вая коэффициенты при указанных членах, получаем ч = Fk^k_} + Нк ^±{ук (10.55) ------5——+^- (10.56) А.Л Fk-\^\,k-\+Gk-^ ст« Уравнение (10.55) описывает структуру оптимальной дискретной системы фильтрации, а уравнение (10.56) — изменение дисперсии к ошибки фильтрации и коэффициента усиления синтезированной системы Кк=Нк^. (10.57) о; В (10.56) можно выделить переменную ^к ~ Fk-\^k-\ > (10.58) которая по своей структуре повторяет регулярную компоненту фильт- руемого процесса (10.46). Значение \к называют экстраполированной оценкой. Рассчитаем дисперсию экстраполированной оценки А.,* = М (^k~^k) =М\ (FkAKk-\ + Q-l^A-1 “ Fk-\^k ) = (10.59) С учетом (10.59) уравнение для дисперсии ошибки фильтрации (10.56) можно записать в виде (ю.60) Из (10.60) следует, что всегда выполняется неравенство k > I\k, т.е. дисперсия ошибки экстраполяции всегда больше дис- персии ошибки фильтрации. Физически это объясняется тем, что экст- раполированная оценка Ик формируется по априорным данным и на- блюдениям Ко*-1, полученным на момент времени к -1, в то время как оценка \к формируется по тем же априорным данным, и по данным 260
наблюдений Yq -{io* \ y^|, включающих как Yq 1, так и текущее наблюдение ук . Оптимальная дискретная система работает следующим образом. Пусть в (Л-1)-й момент времени сформирована оценка \к_\ фильт- руемого процесса. Используя данную оценку, формируется экстраполи- рованная на такт дискретной обработки оценка по алгоритму (10.58). После получения текущего наблюдения ук формируется разно- стный процесс vk=yk-HkXk, (10.61) который иногда называют обновляющим процессом или невязкой изме- рений. Процесс vk несет информацию о расхождении текущего значе- ния X* фильтруемого процесса и его экстраполированной оценкой \к . Далее разностный процесс vk умножается на весовой коэффициент Кк (10.57) и используется для аддитивной коррекции экстраполированной оценки кк, в результате чего формируется текущая оценка кк (ее ино- гда называют фильтрационной). Из уравнения (10.60) следует, что = —7^-----у • Нк^\,к +<Гп Следовательно, для коэффициента усиления (10.57) оптимальной системы фильтрации можно записать эквивалентное выражение Нк1\к Кк=-^-, . (10.62) Нк£>к,к+<ъ Рассмотрим разностный процесс vk (10.61). Прежде всего отметим, что он является гауссовским, так как получается в результате линейных преобразований гауссовских процессов. Покажем, что он к тому же яв- ляется некоррелированным (т.е. типа белого шума). Для этого вычислим корреляцию двух соседних отсчетов Л/ [v*v] = М [(у* - НкЪк ) (Ук-\ -Нк^к-\)] = = Л/[(#£ (Хк-кк^+пк^(нк_\ (Xt_] -Х*_])+иА_] )] = 261
- Л/ЦЯ* -Рк_хкк_х) + пк )(#л-1 (*•*-! -k*-l )+«*-! ~ HkHk-\Fk-\M (\l-l -^*-1 )(^t-l "\t-l ) ~ = HkHk_xFk_x M (k*-l-\t-l) ~^k-\^k-\M (^*-l~^t-l) ~HkFk-\Kk-\^1n = “ ^kFk-\ {^t-1 А.Л-1 ~ Kk-\Hk-\^Jt-\}~ HkFk-{Kk-\°2n “0 • (10.63) При выводе (10.63) учтено выражение (10.62) и свойство некорре- лированности шумов пк,^к. Аналогично можно показать, что некоррелированными являются любые два отсчета обновляющего процесса. Заметим, что при выводе (10.63) существенную роль играют формулы для оптимальных значений коэффициента усиления (10.57), (10.62). Если использовать другие зна- чения коэффициента усиления, то процесс vk окажется коррелирован- ным. Это является важным признаком оптимальных систем фильтрации. Некоррелированность процесса vk означает, что оптимальная система извлекла из наблюдений ук всю возможную информацию о фильтруе- мом процессе. Никакая другая дополнительная обработка процесса vA не даст дополнительной информации о кк, так как в белом шуме нет никакой информации. Дисперсия разностного процесса vk равна Замечание. Обновляющий процесс вида (10.61) можно ввести и в непрерывных системах фильтрации. При этом в оптимальной системе фильтрации он также является некоррелированным гауссовским процес- сом, т.е. БГШ, со спектральной плотностью, равной спектральной плот- ности аддитивного шума наблюдения. Схема оптимальной дискретной системы фильтрации приведена на рис. 10.10, где z-1 обозначает задержку на такт. 262
Рис. 10.10. Схема оптимальной дискретной системы фильтрации Уравнения оптимальной фильтрации многомерной МП хк , ко- торая описывается уравнением х* =Fjt-lx*-l+GJt-i^-i > х(/о) = хО> (10.64) где — векторный ДБГШ с матрицей дисперсий , при векторных наблюдениях У к = +п4 ’ (10.65) где п* — векторный дискретный БГШ с матрицей дисперсий D„, являются обобщением уравнений (10.55)—(10.60) и имеют вид *к = ik+Kk(yk-Hkik), (10.66) Ч- = F*-1X*-1 . (10.67) К, =DxjtH^D;’ =D^HI(HJDX>*H*+D„)"’, (10.68) Dx,* = +Gi_,D^Gl_1, (10.69) оД =6a +hId;'ha или Dxi =(1-к*щ)6хЛ. (io.7O) Здесь ik — оценка фильтруемого процесса; ik — экстраполированная оценка процесса; Кк — матричный коэффициент усиления; Dx jl — матрица дисперсий ошибок фильтрации; Dx к — матрица дисперсий ошибок экстраполяции. Уравнения оптимальной фильтрации (10.66)—(10.70) называют уравнениями фильтра Калмана (по имени автора, впервые их получив- шего). Так же как и в задаче фильтрации одномерного МП, введем вектор- ный разностный процесс ^к =Ул-н*х*> 263
который в оптимальной системе фильтрации является БГШ с нулевым МО и дисперсией 10.2.2. Пример синтеза оптимальной дискретной системы фильтрации Пример 10.3. Рассмотрим задачу дискретной фильтрации дально- сти до цели, движущейся на встречном курсе с РЛС. Движение цели и РЛС в плоскости описывается уравнениями (2.32). В качестве модели ускорения a(t) вдоль линии визирования цели примем БГШ ^(/) с двусторонней спектральной плотностью S^/2 . Переходя от непрерыв- ных уравнений (2.32) к дискретным с шагом дискретизации Td , напри- мер, методом Эйлера получаем следующую дискретную модель измене- ния дальности до цели Ъ = Ъ-l +TdVk_}, Vk = Vk_x +^ч, (10.71) где t,k —ДБГШ с нулевым VJ и дисперсией = S%Td /2. Наблюдению доступны отсчеты дальности в аддитивной смеси с ДБГШ у* +п* , Введем вектор х = |Я* К*|т . Записывая уравнения (10.71) в вектор- ной форме (10.64), получаем F = 1 0 Td 1 , а также Н = |1 о|. (10.72) С учетом (10.72) уравнения оптимальной дискретной фильтрации (10.66)-(10.70) конкретизируются в виде Rk=Rk+KVk(yk-Rk}, Rk=Rk-\+TdVk_x, (10.73) ^к = ^к-1 + ^2,к (Ук ~^к)> Чк =^,кЬп , *2,к = ^2,к/^п - (Ю.74) Д1,* +'2‘TdD\2,k-\ + Td®22,k-\> (10.75) 264
^12,к ~ °12,к-\ + Т<1^22,к-1 > D22,k = D22,k-\ + , &\\,к = Л1,И^/(Л1,* +ал)’ °\2,к = A2,*CT^/(Al,Jt+CT^)’ (Ю.76) &22,к = &22,к ~^\2,к/(Д1,* + ап ) • Схема оптимального фильтра приведена на рис. 10.11 и представля- ет собой дискретную следящую систему за параметром Rk. В устано- вившемся режиме AS] = const, К2 = const. Рис. 10.11. Схема оптимального фильтра В задачах радиолокационных измерений фильтр (10.73) с постоян- ными параметрами часто называют (а-^)-фильтром. При этом урав- нения (10.73) записывают в виде &к = +а(у* ~^к ) > Л = At-1 +Td^k-i » ^=г*-1+£(л-Л)’ Jd где аир —безразмерные параметры. Дисперсионные уравнения (10.75)—(10.76) для дискретной задачи фильтрации аналитического решения в установившемся режиме не имеют, что затрудняет анализ дискретной системы фильтрации. При малом шаге дискретизации Tj «\/bfcc , где Д/сс — полоса пропуска- ния следящей системы, анализ дискретной системы фильтрации можно заменить анализом соответствующей непрерывной системы. При Td —> 0 уравнения оптимальной дискретной фильтрации (10.73)-(10.76) переходят в соответствующие уравнения оптимальной непрерывной фильтрации, в которых дисперсионные уравнения имеют вид 1н _ 9 Г1 2Д11н ^12н _ п _ 1н^12н Л ^2н~ No ’ dt ^2н No 265
—^н. - —щн (10.77) dt 2 Nq где NQ/2 = c1nTd. Система уравнений (10.77) в установившемся режиме имеет решение •^11 и,уст = \[Nq^S^NqJ4 , -О12н,уст = yj^NoJi , Р22 н.уст Уравнения (10.73) описывают следящую систему с астатизмом 2-го порядка. В установившемся режиме полоса пропускания такой следя- щей системы определяется выражением _ 1 2^2ycr^rf уст ^2 ycr^d 2K}ycrTd 4-2K}yct-K2yeiTd • При малом шаге дискретной обработки Td полоса пропускания пропорциональна квадратному корню из коэффициента усиления = 7^2 уст/^</ по контуру следящей системы. 10.2.3. Некоторые обобщения алгоритмов оптимальной линейной дискретной фильтрации Так же, как и в случае непрерывной фильтрации, алгоритмы опти- мальной линейной дискретной фильтрации могут быть обобщены на случай, когда уравнение формирования (10.64) включает дополнитель- ное регулярное возмущение, т.е. ХЛ = F*-1X*-1 + ®A:-lui-l > х(/о) = хО> (10.78) где и^_] — известная функция времени. Такие же рассуждения, что и в п. 10.1.2, приводят к тому, что в уравнения формирования оценки также должна входить детерминиро- ванная составляющая . Так как в дискретном алгоритме фильт- рации (10.66)—(10.65) регулярная составляющая формирующего урав- нения определяет закон экстраполяции оценки, то приходим к выводу, что при фильтрации процесса (10.78) в алгоритме оптимальной фильт- рации (10.66)—(10.70) изменяется лишь алгоритм формирования оценки (10.67), который принимает вид 266
*к - F*-14-1 +Bi-Iu*-1 • Остальные уравнения оптимальной фильтрации остаются без изме- нений. Если в постановке задачи синтеза оптимальной системы фильтра- ции формирующий шум и шум наблюдения заданы коррелиро- ванными, т.е. М , то в алгоритме оптимальной фильт- рации остается неизменным уравнение (10.66) для формирования оцен- ки ik, т.е. Ч =»*+к* (.Ук ~икЧ) • Так как в шуме наблюдения содержится информация о шуме фор- мирования (в их взаимной корреляции), то уравнение для экстраполиро- ванной оценки изменяется и принимает вид *к ~ +K*-i (Ум ), (10.79) к*_, =G*_1^nD;1. Заметим, что в алгоритме экстраполяции (10.79) участвуют наблюде- ния у^_], полученные на предыдущем шаге, в то время как в алгоритме фильтрации участвую наблюдения у к , полученные на текущем шаге. Так как изменилась экстраполированная оценка, то изменяется и уравнение для матрицы дисперсий ошибок экстраполяции _)Dx *_i (Fa_! -Kji-i) +G4._]D^Gj_! -KaD„KJ . (10.80) При этом матрицы коэффициента усиления и дисперсий ошибок фильт- рации рассчитываются по формулам DIJt =(I-K*H*_,)D^. (10.81) Форма записи соотношений (10.81) совпадает с одной из форм запи- си уравнений (10.68) и (10.70). Однако численные результаты расчета получаются различными, так как изменяется дисперсия ошибки экстра- поляции (10.80) и (10.70) соответственно. Также как и в задаче непрерывной фильтрации, коррелированность шумов формирования и наблюдения приводит к уменьшению дисперсии ошибки фильтрации. 267
10.2.4. Дискретный фильтр Винера Пусть априорные сведения о фильтруемом X* и наблюдаемом ^процессах заданы в форме корреляционных функций R^y{k,m) и Ry(k,m). Рассмотрим задачу получения линейной оценки вида * 1 X* = £ Skjyj > которая минимизирует средний квадрат ошибки 7=1 (10.82) Сформулированная задача оптимальной линейной дискретной фильтрации была впервые решена А.Н. Колмогоровым в 1939 г. [2], т.е. раньше, чем фильтрация в непрерывном времени, разработанная Вине- ром (1942 г.). Так же, как это было сделано в п. 10.1, можно показать, что мини- мум (10.82) достигается при такой оценке X* и соответствующей ей оптимальной импульсной характеристики gt iOnT , при которых выпол- няется условие = 0 при всех 5 е 1, к. (10.83) - к Так как Хк = £ gkjomyj > т0> выполнив в (10.83) усреднение, по- 7=1 лучаем gk.j0^y(J^- (Ю.84) 7=1 Таким образом, оптимальная импульсная характеристика фильтра Винера gt50nT находится из решения уравнения (10.84). Для стационарных и стационарно связанных процессов X* и ук корреляционные функции зависят от разности временных аргументов v = s -к , т.е. R-^y (v) и Ry (v). При бесконечном времени наблюдения фильтр Винера будет стационарным, а его импульсная характеристика находится из уравнения 268
к ЛХу(у) = Е Sjotn^v (v — j} ’ 7=1 которое является дискретным аналогом уравнения Винера_____Хопфа Связь оптимальной дискретной фильтрации по Винеру и Кол- ману. Дискретный фильтр Винера, также как и его непрерывный вари- ант, описывает оптимальную линейную систему фильтрации в инте- гральной форме, которая может быть получена и в постановке задачи дискретной калмановской фильтрации. Пусть наблюдается процесс (10.47), в котором X* = сх* описывает- ся компонентой многомерного МП х* , удовлетворяющего уравнению (10.64). При такой постановке задачи однозначно определяются корре- ляционные функции Rxy(k,m) = M (к, т)ст, Ry (к.т) = М [X*ym ] = Hj-cRi (k,m)cr + R„(k,m). Следовательно, выполнены условия постановки задачи синтеза фильтра Винера. Для сформулированной задачи оптимальная оценка, минимизи- рующая дисперсию ошибки фильтрации, описывается уравнениями (10.74), (10.75), которые запишем в виде Ч = (1-К*^4с)Г*-1Л-1 +К-кУк =Фк,к-1*к-\+КкУк > (10.85) где I — единичная матрица, К* — матрица коэффициентов усиления фильтра Калмана, определяе- мая уравнениями (10.68)—(10.70). Решим уравнение (10.85) на одном шаге *к = фк,к-1фк-\,к-2*к-2 + ф*,*-1К*-1 Л-1 +К* Ук = > 1 = фк,к-2*к-2 + Е Л-i > 1=0 гДе фк,к =1. ф*,*-2 = Фк,к-\Фк-1,к-2- Выполнив решение еще на одном шаге, получаем 269
1 ** = Фк,к-2Фк-2,к-3*к-3 + фк,к-2^к-2Ук-2 + ЪФк,к-^к-1Ук-1 = /=0 2 = фЛ,Л-зЧ-3 + S • 1=0 Продолжая решение далее на к -1 шагах, запишем Л-1 *к = фЛ,0*0 + Е фк,к-1^-к-1Ук-1 ’ (10.86) 1=0 где /—1 ____________________________ фк,к~1 ~ П фЛ-/,Л->-1 > ' = 1»* ; ФУ,У = I • /=0 Так как обычно полагают х0 = 0 , то, вводя обозначение вм=фмк^ (ю.87) представим (10.86) в виде = (10.88) 5=1 Из соотношения (10.88) следует, что g* s — импульсная характе- ристика дискретного линейного фильтра. Таким образом, оптимальная оценка х* может быть получена на выходе линейного фильтра с им- пульсной характеристикой s (10.87). Учитывая соотношение - сх^, запишем выражение для оценки фильтруемого процесса А Л к ^•к ~ X ®ВЛ,5/5 = X £1Л,5ОПт.У5 ’ 5=1 5=1 где gk,sorn =сфЛ,5^5 _ импульсная характеристика дискретного фильтра Винера. 10.3. Оптимальная комбинированная кламановско-винеровская фильтрация В предыдущих материалах книги были приведены алгоритмы оп- тимальной линейной фильтрации в дифференциальной (разностной) (фильтр Калмана) и в интегральной (фильтр Винера) формах. Оба фильтра в любой момент времени дают совершенно идентичные оценки 270
фильтруемого процесса с минимальной дисперсией ошибки фильтра- ции. Естественно, встает вопрос об оптимальной системе фильтрации, в которой сочетаются дифференциальные (разностные) и интегральные алгоритмы обработки или, другими словами, алгоритмы Калмана и Ви- нера. Ниже будут рассмотрены два типа таких алгоритмов, соответст- вующие двум различным задачам фильтрации. 103.1. Непрерывно-дискретная калмановско-винеровская фильтрация Наблюдение (измерение) той или иной физической величины всегда аналоговое, так как реализуется тем или иным физическим датчиком (давления, температуры, радиолокатором, навигационным или связным приемником и т.д.). В то же время информация может выдаваться по- требителю не непрерывно, а лишь в некоторые дискретные моменты времени . Таким образом, можно ставить задачу синтеза оптимальной системы фильтрации, которая в заданные (тактовые) моменты времени tk формирует оптимальные (в смысле минимума дисперсии ошибки фильтрации) оценки ik непрерывного процесса х(/), описываемого уравнением ^ = F(r)x+G(/)§(/), х(г0) = хо (10.89) at и наблюдаемого на фоне БГШ y(/) = H(/)x(t)+n(/). (10.90) В (10.89), (10.90) лф(/)£т(г + т)] = 8£/25(т), Л/[п(/)пт (/ + т)] = = N„/25(t). Так как фильтруемый процесс и наблюдения являются непрерыв- ными процессами, то рекуррентным фильтром, формирующим опти- мальные оценки процесса в каждый момент времени будет фильтр Кал- мана (10.14), для которого запишем уравнение ^ = F(z)x + K(/)(y(/)-H(/)x), х(0) = х0. (10.91) at Пусть задана равномерная сетка отсчетов , в которые необходимо формировать оптимальные оценки х* , таких, что -tt-i ~ ?d 271
Положим, что в момент времени ^_] сформирована оптимальная оценка х*_|. Проинтегрируем уравнение (10.91) на интервале времени [**-!***]• Использую ту же методику, что и в п. 10.2, представим (10.91) в виде ^ = (F(/)-K(r)H(/))i + K(0y(/). (10.92) Введем переходную матрицу Ф(/,т), удовлетворяющую однород- ному уравнению ^^ = (Г(г)-К(г)Н(/))Ф(/,т), (10.93) с начальным условием Ф(т,т) = I. Теперь решение неоднородного матричного уравнения (10.92) на интервале времени можно записать через переходную матрицу Ф(1,т) в виде **=*(М = ф('*Л-№-1 + f ф(4.х)кМуМ^ = '*-1 к = xk + J Ф(^,т)К(т)у(т)^т. (10.94) 't-i Соотношение (10.94) является одной из форм оптимальной непре- рывно-дискретной фильтрации, которая реализуется схемой, приведен- ной на рис. 10.12. Рис. 10.12. Схема оптимальной непрерывно-дискретной системы фильтрации В алгоритме непрерывно-дискретной фильтрации (10.94), так же как и в алгоритме рекуррентной дискретной фильтрации, сначала фор- мируется экстраполированная оценка 272
х*=Ф('*Л-№-1- (10.95) Однако, в отличие от дискретной фильтрации, для экстраполяции ис- пользуется переходная матрица Ф(^,^-1) фильтра Калмана. Это отли- чие является принципиальным, так как физически более понятна экстра- поляция в соответствии с динамикой изменения априорного уравнения (10.89), а не в соответствии с динамикой изменения оценки (10.91). Принимаемые на интервале времени наблюдения у(/) об- рабатываются в фильтре Винера в непрерывном времени 4 uB0*)= J 8в('*л)у(*И. 4-1 где 8в(^,т) = Ф(/^,т)К(т) — импульсная характеристика фильтра Винера. Сформированный на выходе фильтра Винера в момент времени tk отсчет используется для коррекции экстраполированной оценки (10.95), в результате чего получается искомая оптимальная оценка х* фильт- руемого процесса. Возможна другая реализация оптимальной непрерывно-дискретной системы фильтрации, которая получается, если воспользоваться сле- дующим представлением для переходной матрицы Ф(/Л-1) = Фар('Л_1)- J Ф(г,т)К(т)Н(т)Фцр(т,4_1)</т, (10.96) 4-i где Фцр(4т) — фундаментальная матрица априорного уравнения (10.89), удовлетворяющая однородному уравнению = (Ю.97) с начальным условием Фар (т,т) = I. В справедливости (10.96) можно убедиться, продифференцировав его по времени ^^=^Ц^.ФМК(;)Н(, h 4-i at 273
= г0)фар('.^-1)-К(/)Н(г)Фар (?,/*_!)- - J (Р(/)-К(/)Н(/))Ф(м)К(т)Н(т)Фвр(т,4_1)^ = = (F(r)-K(r)H(z))x х Фар )- J Ф(ст)К(т)Н(т)Фф(т,гн)Л '*-1 = (Р(/)-К(0Н(0)Ф(М*-1)- (10.98) Таким образом, приходим к уравнению (10.93), которое верно по определению переходной матрицы Ф(г,т). Подставляя (10.96) в (10.94), получаем *к =фар(4Л-1)Ч-1 + + 1 ф(^^)К(т)(у(т)-Н(т)Фар(т,^_1)х*_1)^т = '*-1 = ** + J фО*л)К(т)(у(т)-Н(т)хтрт = = *к + J 8в(^^)(уМ-Н(-с)хт)^, (10.99) где 1к = Фар (tk,tk_} )х*_|, хт = Фар (Vjt-i )4-i — экстраполирован- ные с момента времени tk_} на моменты времени tk и те (/*_],/*) оценки фильтруемого процесса, 2в(/£,т) = Ф(/*,т)К(т) —импульс- ная характеристика фильтра Винера. Отметим, что в данном случае экс- траполяция осуществляется в соответствии с переходной матрицей ап- риорного уравнения (10.89). Схема, реализующая оптимальный алгоритм непрерывно-дискрет- ной фильтрации (10.99), показана на рис. 10.13. Схема представляет собой следящую систему комбинированного типа. Для каждого момента времени tе (tk_\,lk] формируется разност- ный процесс
Фильтр Винера ®яр(^4-1) * Рис. 10.13. Схема комбинированного калмановско-винеровского фильтра который поступает на аналоговый фильтр Винера. Фильтр Винера рабо- тает на интервале времени (fy-i ], в конце которого формируется от- счет ив (г*). Оценка ik фильтруемого процесса формируется в резуль- тате экстраполяции (в соответствии с переходной матрицей априорного уравнения (10.89)) на момент времени tk оценки х^_|, полученной на предыдущем шаге, с последующей ее аддитивной коррекцией на вели- чину отсчета, полученного на выходе фильтра Винера. Схема непрерывно-дискретной фильтрации (рис. 10.13) получила название комбинированного калмановско-винеровского филыпра, так как она сочетает рекуррентную фильтрацию (замкнутая следящая систем) по Кламану и фильтр Винера на каждом интервале времени (4-1 »4]- Причем фильтр Винера стоит внутри следящего кольца. Отметим, что в комбинированном калмановско-винеровском фильт- ре точность формирования оценок в моменты времени tk совпадает с точностью оценок в аналоговом фильтре Калмана (10.14) в те же мо- менты времени. Это следует, из того факта, что (10.99) получено в ре- зультате интегрирования уравнения (10.14). Поэтому можно говорить о том, что комбинированный калмановско-винеровский фильтр реализует оптимальную обработку непрерывных наблюдений с целью фор- мирования оптимальных дискретных оценок фильтруемого процесса. 10.3.2. Дискретная калмановко-винеровская фильтрация Рассмотрим задачу дискретной фильтрации многомерной МП х* , которая описывается уравнением 275
x* =F*-1X*-1 + G*-1^*-1 > x('o) = xO> (10.100) где — векторный дискретный БГШ с матрицей дисперсий , при векторных наблюдениях Ук =Н4х*+п*, (10.101) здесь п* — векторный ДБГШ с матрицей дисперсий D„. Уравнения (10.10)—(10.101) заданы в дискретном времени с шагом дискретизации Td. В ряде приложений не ставится задача выдавать потребителю ин- формацию о векторе состояния х* в каждый момент времени. Доста- точно формировать оценки в более редкие моменты времени, но они, по-прежнему, должны быть оптимальными, а, следовательно, обрабаты- вать все имеющиеся наблюдения у*. Данная задача аналогична той, которая рассматривалась ранее, с той лишь разницей, что наблюдения и фильтруемый процесс описывается в дискретном времени. Для удобства последующего изложения введем новую индексацию последовательных моментов времени, приведенную на рис. 10.14. Каж- дые два соседних отсчета отстоят ~ друг от друга на интервал времени 1 * 11 * 1,2 *"* 'у_| lk Td. Оценки фильтруемого процесса Рис. 10.14. Временная диаграмма необходимо формировать в тактовые моменты времени tk , к -1, 2, ... та- кие, что tk -tk~i = NTd = Т , tk^ N = tk , гЛ_1>0 = tk~i. В принятых обозначениях фильтруемый процесс (10.100) и наблю- дения (10.101) на интервале времени [4-ь**] описываются соотноше- ниями хк-!,/• = F*-l,i-lx*-l,i-l +G*-i,i-i£*-i,i-i ’ x(z*-l) = хк-1,0 » (10.102) У *-1,1-1 = н*-1,/-1х*-1,1-1 + п*-1,/-1 > / = 1,2V. (10.103) Запишем уравнения дискретного фильтра Калмана для модели (10.100)—(10.103) х*-1,1 = х*-1,1 + к*-1,1 (у*-l,i ~ н*-1,/х*-1,1) > х*-1,< = , i = l,N, (10.104) 276
где матрица коэффициентов усиления фильтра Калмана, ко- торая определяется уравнениями (10.68)—(10.70). Решим уравнения (10.104) на N шагах, начиная с начального зна- чения . Используя методику, описанную в п. 10.2 и формулы (10.85)—(10.86), запишем выражение N-1 X* = ф*;*-1Ч-1 + Z k-l,N-i (10.105) i=0 гДе Ф*;*-1,« =Ф(4>^-1,1); Ф*;*-1Л-1 - П ®k-\,X-j\k-\y-j-\ > » = 1.^; 7=0 Ф*;* =1 Уравнение (10.105) аналогично уравнению непрерывно-дискретной фильтрации (10.94), но для дискретного описания фильтруемого про- цесса (10.100) и наблюдений (10.101). Для получения алгоритма комбинированной калмановско-винеров- ской фильтрации воспользуемся соотношением для переходной матри- цы, аналогичным (10.96), N-1 ф*;*-1 ~ Фарк;к-} ~ X ^k;k-},N-i^k-\,N-i^k-\,N-i^apk-l,N-i-,k-l > 1=0 (10.106) N-i-\ _______ где фарк-\,н-г,к-\ = П ; 1 = 0,ЛГ-1; фцр*-1;*-1=1 — переход- 7=0 ная матрица априорного уравнения (10.102). Подставляя (10.106) в (10.105), получаем *к ~фарк;к-\*к-1 + N-l I • \ /=0 ЛГ-1 = Х*+ X ф*;*-1Л-1К*-1Л-1 (y*-l,N-i -Н*-1Л-/Ч-1,ЛМ;*-1) = 1=0 ЛГ-1 = X* + Z (У*-1,У-1 ) > (10.107) 1=0 где ik-\,N-i;k-i =фар*-1Л-|;*-1Ч-1 ~ экстраполированная на момент времени оценка; gkjc-l.N-i =ф*;*-1,лг-1К*-1Л-< —импульсная характеристика дискретного фильтра Винера. 277
Уравнение (10.107) описывает дискретный комбинированный кал- мановско-винеровский фильтр, схема которого аналогична той, что при- ведена на рис. 10.13. Отличие заключается в том, что вместо непрерыв- ного фильтр Винера используется дискретный, а вместо аналогового экстраполятора на текущий момент времени используется экстраполятор лишь на дискретные моменты времени tk_\ j е (tk_\,tk]. 10.4. Оптимальная линейная экстраполяция и интерполяция 10.4.1. Оптимальная линейная экстраполяция Во многих радиотехнических задачах возникают ситуации, когда сигнал на некоторое время пропадает, но, тем не менее, оценку инфор- мационного процесса необходимо формировать и в отсутствие наблю- дений. Такую задачу называют задачей экстраполяции. Рассмотрим случай непрерывного времени. Пусть на интервале вре- мени [0,/(] проводились наблюдения у (г) = H(r)x(z)+n(z), где x(f)— фильтруемый процесс, описываемый уравнением (10.89). На интервале времени [0, rj оптимальная оценка x(z) определяется уравнениями фильтра Калмана (10.14)—(10.16). При t > /] наблюдения отсутствуют. Требуется оптимальным обра- зом сформировать оценку х(/) при t > г(. Напомним, что при решении задачи фильтрации ищется, прежде всего, апостериорная ПВ p(x,z|Yq) . Для линейной задачи фильтрации АПВ является гауссовской, а ее МО х и дисперсия Dx описываются уравнениями фильтра Калмана. Эта же методология используется и для решения задачи экстраполяции, т.е. необходимо рассмотреть апостери- орную ПВ /?(x,r|Yo) при />Гр Отсутствие наблюдений при t>tx формально записывается как у(г) = О,г>/]. (10.108) Уравнение Стратоновича (9.5) для АПВ записано для произвольных наблюдений, в том числе и нестационарных. В момент времени t = 278
АПВ равна р^х,Г] YqJ с параметрами £(/]), Dx(/i). При />Г], учи- тывая (10.108), уравнение для АПВ принимает вид Данное уравнение есть ни что иное, как априорное уравнение Фок- кера—Планка—Колмогорова (1.79) с начальным условием р (х, |Yq1 j. Так как ПВ p^Xj/Jy^1 j — гауссовская, то p(x,/|Yq), порождаемая (10.109), также будет гауссовской, и для ее определения необходимо знать МО х(/) и дисперсию Dx. Уравнение для оценки получается усреднением априорного уравне- ния (10.89) и имеет вид ^ = F(/)x, />/,, i(?i) = x(/1). (10.110) at Получим уравнение для дисперсий. Введем Зх = х - х и запишем дифференциальное уравнение at at at По определению Dx (/) = Л/(ЗхЗхт j. Продифференцируем это вы- ражение по времени с учетом (10.111) Д>х ..Ге/Зх» т —- = М -----ох dt dt _ </8х ох----- dt = F(t)M [ЗхЗхт ] + + М +М [Зх8хт ] FT (г)+M [(G (t )£)8хт ]+M Зх (G (г)£)т (10.112) Вычислим математическое ожидание М (G(z)£)8xT . Запишем решение уравнения (10.111) i 3x(f) = 3x(/])+JO(r,v)G(v)^(v)rfv, 'i где Ф(/,у) —переходная матрица однородного уравнения 279
dt = F(/)O(t,t), с начальным условием Ф(т,т) = I. Тогда для искомого МО получаем M (G(')£(')) 8х('1)+ J<D(f,v)G(vX(v)Jv jO(f,v)G(v)A/p;(v)£T(f)jGT(v)<Zv J®(z,v)G(v)-S^8(z-v)GT(v)</v 2 =-^-G(/)S^GT (г). Аналогичное выражение получается и для последнего слагаемого в (10.112). Суммируя полученные результаты, окончательно запишем ^ = F(/)Dx+DxFt(;)+1g(t)S^Gt0), Dx(r = n) = Dx(0. (10.113) at 2 Уравнения (10.110), (10.113) дают решение задачи экстраполяции в непрерывном времени. Аналогичным образом решается задача экстраполяции при фильт- рации в дискретном времени. Более того, в структуре алгоритма опти- мальной дискретной фильтрации (10.66)—(10.70) уже есть алгоритм одношаговой экстраполяции (10.67), (10.69). Если поступает новое из- мерение, то экстраполированная оценка и ее дисперсия корректируются в соответствии с уравнениями (10.66), (10.70). Если измерение не посту- пает, то необходимо делать следующий шаг экстраполяции по тем же уравнениям (10.67), (10.69). 10.4.2. Оптимальная линейная интерполяция В задаче интерполяции процесса х(г) по наблюдениям у (г) на ин- тервале времени [0,г] необходимо получить оценку х(т) для момента времени те [Од], т.е. лежащего внутри интервала наблюдения. В отли- чие от задачи фильтрации, в которой при формировании оценки х(г) в 280
момент времени t использовались лишь наблюдения у(/), полученные к этому моменту времени, в задаче интерполяции в формировании оценки х(т) участвуют как наблюдения, полученные к моменту време- ни т, так и наблюдения, полученные после него. Понятно, что увеличе- ние объема наблюдений должно приводить к увеличению точности, по- этому точность интерполированных оценок должна быть выше точности фильтрационных оценок. Различают три типа интерполяции: интерполяция на фиксированном интервале, при которой фиксиру- ется интервал наблюдения / = const, а момент времени т, для которого ищется интерполированная оценка, может быть любым в пределах ин- тервала [0,г]; интерполяция в фиксированной точке, при которой фиксируется момент времени т, для которого ищется интерполированная оценка, а время t > т меняется, т.е. наблюдения продолжают поступать в реаль- ном времени; интерполяция с фиксированной задержкой, при которой поддержи- вается постоянной разность t - т - const > 0, т.е. наблюдения продол- жают поступать в реальном времени и момент времени т, для которого ищется интерполированная оценка, также меняется, таким образом, что t - т = const. Рассмотрим задачу интерполяции в дискретном времени. Пусть на интервале времени [0, Хс] наблюдается реализация (10.65), в которой фильтруемый процесс х* описывается уравнениями (10.64). Оптимальную обработку во всех задачах интерполяции определяет АПВ р (xv | Yq j, v е 1, к при дополнительных ограничениях на характер изменения и соотношение между индексами v и к. При выводе различных алгоритмов интерполяции удобно опери- ровать с совместной АПВ p(x*,xv |Yq j, которая связана с интересую- щей нас АПВ p(xv |Yq j соотношением (см. (1.18)) p(i,|y0‘)= 7р(1,д,|¥0*)л(. (10.114) ео Ниже потребуется соотношение 281
P^xv|x^,Yq j = p^xv|xM,Y^-1 j длявсех 0<v<p.^fc, (10.115) которое вытекает из равенств р(xv |хц ,Yo ) = Р(xv |*ц Ар , Y* ) = = Р (xv, xg ,Y0M, Y* )/р (xg ,Yog-1. Y* ) = = p(Y* |xv,xg,Y0M )p(xv,xg,Y0^ )/p(Y* |xg,Y<r')P(xgЛ0М~')» = p(Yg |хц jp^xv,Xg,Y^ j/p^Yg |хц)р(хц,Х^* ) = - /?(xv’xh»Yq )/р(хц,Уо ) = p(xv |хц»Х) )• Приводимая ниже методика вывода основана на получении рекур- рентных уравнений для совместной АПВ p(x*,xv |Yq j с последующим получением обычной АПВ p(xv |Yq j по формуле (10.114). Оптимальная интерполяция на фиксированном интервале. Представим АПВ p(x*,xv|Yq j в виде p(x*,xv|Yo )= J p(xjt»xv,xv+1 |Yo )jxv+| = = J p(xv|x*,xv+iYo )p(xk^v+i|Yo pxv+l • (Ю.116) BC В соответствии с (10.115) имеем p(xv |x*,xv+IYo*) = p(xv |xv+1,Yo ) = = p(xv |YOV)p(xv+1 |xv )/p(xv+1 |Yq ). (10.117) Подставляя (10.117) в (10.116), получаем p(xt,xv |y0*) = 282
= p(xv|*o) J /’(4,xv+l|Yot)p(xv+l|xv)/p(xv+i|Y^pxv+1 .(10.118) Формула (10.118) описывает рекуррентный алгоритм для АПВ plxt,xv Yq I при фиксированном объеме наблюдений Yq . Начальным условием для этого алгоритма является (10.119) т.е. АПВ для задачи фильтрации, соответствующая моменту времени к . После нахождения АПВ p(x*,xv|Yq) искомая АПВ p(xv|Yq j на- ходится из (10.114). Так как в (10.114), (10.118)—(10.119) все преобразования линейные, то АПВ p(xv |Yq j является гауссовской и, следовательно, описывается МО xv|* и дисперсией Dxv|* . В результате достаточно громоздких пре- образований из (10.114), (10.118) получается следующий алгоритм ин- терполяции на фиксированном интервале: ^v|Jt = + Kv (xv+i|jt ~ Fvxv j, (10.120) Kv — DIVFV Dxy+j, +KV (div+1|A -Dw+1 )k; , (10.121) где xv, — оптимальная оценка и дисперсии ошибок фильт- рации и экстраполяции фильтра Калмана (10.66)—(10.70). Уравнения (10.120), (10.121) решаются в обратном времени с на- чальными условиями Хф = ik, . Принцип работы алгоритма интерполяции основан на формирова- нии фильтрационных оценок xv для всех моментов времени ve 1,к. Данные оценки включают всю информацию, содержащуюся в наблюде- ниях, полученных к моменту времени v. Далее в обратном времени проводится коррекция этих оценок с целью включить в итоговую (ин- терполированную) оценку информацию, заключенную в наблюдениях, полученных после того, как была сформирована соответствующая фильтрационная оценка. Причем в этой коррекции участвуют не сами 283
наблюдения, а соответствующие фильтрационные оценки, в которые они уже вошли (которые являются достаточными статистиками). Оптимальная интерполяция в фиксированной точке. В этой за- даче рекуррентное уравнение должно связывать АПВ p(xA,xv Yq 1 с АПВ р (xi+| ,xv IYg+| I. Данную задачу можно трактовать как задачу фильтрации расширенного вектора zk = Ч xv по текущим наблюдениям L Yo , но при этом вторая компонента вектора zk с течением времени не меняется. Исходя из этого, можно сразу записать рекуррентные уравне- ния для АПВ р(х*,ху Yq I, аналогичные (9.14)—(9.15): р(**+1Ду|уо) = J p(x*,xv|Y0 (10.122) Р (ч+1 |Yo +') = СР (х*+1 Ду | Y0 )р (у*+11>*+1). (10.123) которые необходимо дополнить очевидным начальным условием р(чДу |y0*) = p^xv IYq' j, где р^Ху |Yq j — обычная АПВ для за- дачи фильтрации. Так как фильтруемый вектор является двухкомпонентным, то и оптимальный фильтр для интерполяции содержит два блока. В одном блоке формируются фильтрационные оценки х^ и сопутствующие им параметры Кд-, (матричный коэффициент усиления и дис- персии ошибок фильтрации и экстраполяции) в соответствии с уравне- ниями фильтра Калмана (10.66)—(10.70). Рекуррентные уравнения для второго блока, формирующего интер- поляционную оценку £у|д и дисперсию Dxv|t, полученные на основе (10.122), (10.123), имеют вид ху|А xv|i-l+^у|А: (х* xt)> ху|у ху > Ку|А — Ку|А-1 1^-1 , Ку|у — I, 284
®xv|i-l , Djvjy — Djv . Здесь, как и в предыдущем методе интерполяции, формирование интерполированных оценок происходит в результате коррекции фильт- рационных оценок, причем наблюдения в этом процессе выступают не непосредственно, а также через фильтрационные оценки. Оптимальная интерполяция с фиксированной задержкой. В дан- ной задаче необходимо получить рекуррентную зависимость между АЛВ p(x£,xv|Yoj и p(xt+1,xv+1 |Yq+1 j. Требуемые соотношения можно получить из (10.118), (10.122), (10.123). При этом уравнение (10.118) надо рассматривать относительно переменной р^,ху+) | Yq j p(x*,xv |Хо ) = p(xv|Yo) J /’(x*>xv+l|Y0 )p(xv+1|xv)/p(xv+1|y0 p*v+l ,(10.124) а уравнения (10.122), (10.123) объединить и представить в виде р[хл+1,ху+1|у0*+1) = ср(у^+1|х*+]) J P(*k ^v+l |Y0 )p(x*+i Iх* )d*k (10.125) При наличии в постановке задачи фиксированной задержки 5 = k - v алгоритм (10.124)—(10.125) должен начинать работу с началь- ного условия p(xA_v,x0|Y1t-v), которое можно вычислить, используя алгоритм интерполяции в фиксированной точке (10.122), (10.123). Уравнения для интерполированных оценок, вытекающие из (10.124), (10.125), имеет вид xv|* = Fv-lxv-l|*-l +~G*-lS^GI-lFv-lD»l-l (Xv-1|A-1 -х*-1) + (У* ~Н*х*)> xO|jt-v = x*-v > Kv|* = (Dmv-iFv-iDxv ) ^v-l|i-l®»t-lF4-l®x^ ’ 285
Bxv|i Bxv — (®xv-l^v-l®xv ) Bxv-lBxv-l|A-l (®xv-1^v-1®xv ) ’ ®xO|jt-v = BxA-v (10.126) Как и в предыдущих задачах интерполяции, алгоритм (10.126) рабо- тает совместно с алгоритмом фильтра Калмана (10.66)—(10.70) и ис- пользует его оценку х^_| на предыдущем шаге, матричный коэффици- ент усиления К* и матрицы дисперсий ошибок фильтрации и экстра- поляции. Однако, в отличие от предыдущих задач интерполяции, теку- щее наблюдение у* обрабатывается непосредственно в алгоритме (10.126), а не через оценку хк (достаточную статистику). 10.5. Оптимальная линейная фильтрация при коррелированных шумах наблюдения До сих пор рассматривались задачи фильтрации процессов, наблю- даемых на фоне белого (некоррелированного) шума. Теперь рассмотрим задачу фильтрации дискретного процесса (10.64) по наблюдениям (10.65), в которых шум и* является векторным МП, описываемым уравнением ак = А*-1п*-1 + в*-1П*-1 > (10.127) где Т|£_] — ДБГШ с матрицей дисперсий . Решение данной задачи получается в результате обобщения теории фильтрации МП, приведенной в гл. 9, и базируется на теории условных марковских процессов. Рассмотрим расширенный процесс гк - 4 Ук и покажем, что он яв- ляется марковским. Подставим (10.64) и (10.127) в (10.65) и выполним ряд преобразований У к (F*-i4-i +G*-i£*-1)+A*_1n*-1 + Bi-iTU-i - = НЛ-14-1 + АЛ-1пЛ-1 + а*-1Н*-14-] ~ + (10.128) + + B<l-iTU-i = = (НЛ-гА*-1Щ-1)4-1 + + ВА_1Т|А._1 . 286
Теперь для вектора можно записать разностное уравнение гк ~ +GZ£K_] , Gt-1 0 В* где Fl-1 О -AA_|Ht_| А*_( 1 Таким образом, процесс гк является многомерным марковским процессом. Положим, что такой процесс задан, т.е. известна ПВ перехо- дов р (гк |гА_,) = р (\к, ук |х*_,, у*_t). Рассмотрим АПВ p^|Yq j и, используя свойство согласованности ПВ, запишем p(*t|Y0* )= J р(*Ь*1-1^)л*_, . (10.129) На основании формулы Байеса для ПВ р I хк, Yq I имеем p(y*|Y0*4) Так как процесс гк — марковский, то справедливо равенство Р (*1. У к | ХЛ-I »Yo 4 ) = Р (*t. У к | *t-i ,У i-1) • (10.131) Подставляя (10.130) в (10.129) и учитывая (10.131), получаем J р(*1>У1 |*t-l»Уi-1 )р(*1-1 |Yo-1 )rf*t-i --------------тлм----------------------• (10Л32) \У*г° / 287
Данное уравнение является рекуррентным относительно искомой АПВ p(ik |v£) и, следовательно, дает решение задачи фильтрации при коррелированном шуме наблюдения. При выводе алгоритмов оптимальной фильтрации используется еще одно уравнение, являющееся аналогом уравнения (9.15) для экстраполи- рованной ПВ. Используя формулу Байеса, запишем Сопоставляя (10.132) и (10.133), получаем искомое уравнение р(**>У* |Yq-I)= J р(х*,У*|Ч-1»У*-1)р(х*-||¥0-1)Л*-1 •<10Л34) —oo Алгоритм оптимальной фильтрации получается из (10.132), (10.134) аналогично тому, как это было сделано п. 10.1, т.е. ПВ j, p(zk |zit-l) ’ .р(х£-1 |Yq-1), р[%к |^о ) представляется в виде гауссов- ских функций, которые подставляются в (10.132), (10.134). Далее дела- ются необходимые матричные преобразования и приравниваются соот- ветствующие члены в левой и правой частях равенств. В результате по- лучаются следующие алгоритмы оптимальной фильтрации: *к = ?k-l*k-i + Кк(Ук ~а*-1Уа-1 -Н^х^), (10.135) К* = )т )х (10.136) D„ = H,Ga_,D^ (Н*С*_, )т + , (10.137) Dx* -F*-lDxJt-lF*-l +gjI-id5gI-1 “ , (10.138) где h;4 = - AWHW . (10.139) 288
Кроме описанного выше, возможна иная методика вывода уравне- ний оптимальной фильтрации. Введем процесс “*=У*-А*-1У*-1- (10.140) Из (10.128), с учетом определения (10.139), можно записать = Щ-1Ч-1+£a-1’ (10.141) где £*-l = H*G*-1£*-1 + В*-]!)*-! > a M (H*G*_t )T + . Вектор ti£ можно рассматривать как новые наблюдения, представ- ленные в форме (10.141), которые линейно зависят от фильтруемого процесса х, поэтому можно ставить и решать задачу оптимальной ли- нейной фильтрации процесса х по наблюдениям (10.141). В этой задаче шумы формирования и наблюдения коррелированны: м [^t-lCI-1 ] ~ (HtG*-l Г + ВачВдВ*-! . Поэтому для решения задачи оптимальной фильтрации необходимо воспользоваться уравнениями (10.79)—(10.81). Применение этих урав- нений приводит а алгоритму, совпадающему с (10.135)—(10.138). Преобразование (10.140) есть ни что иное, как обеляющий (помеху) фильтр. Таким образом, решение задачи фильтрации на фоне коррели- рованной помехи также как и в задачах обнаружения и оценки парамет- ров сигнала сводится к предварительному «обелению» помехи линей- ным фильтром с последующим решением задачи оптимальной фильтра- ции на фоне некоррелированной помехи. Обобщенная схема оптималь- ной системы фильтрации приведена на рис. 10.15. Рассмотрим задачу опти- мальной непрерывной фильт- рации многомерного марков- ского процесса х(1), описы- ваемого уравнением (10.89), при наблюдениях У* Обеляющий фильтр Фильтр Калкана Рис. 10.15. Схема оптимального фильтра при коррелированной помехе у(г) = Н(/)х(/) + п(г), (10.142) 10—2041 289
где n(/) —коррелированная помеха, описываемая уравнением = A(r)n+B(z)n(0, М[п(г)т|т (/ + т)] = Nn/25(t). Для получения уравнений оптимальной фильтрации воспользуемся ме- тодом обеляющего фильтра. Продифференцируем (10.142) по времени dy dll „dx dn — -—х + Н—+ — = dt dt dt dt = A(z)y + (H'(z)+H(/)F(/)-A(z)H(z))x + +H(z)G(tX(/)+B(0n(0- (10.143) Определим процесс на выходе обеляющего фильтра соотношением u(/) = ^-A(r)y. (10.144) Тогда, используя (10.143), имеем u(/) = H*(/)x + £(r), (10.145) где H*(0 = H'(r)+H(r)F(/)-A(/)H(z), C(/) = H(/)G(/^(O+B(Z)T](/), М [с (ОС (/+т)] = 1(н (0G (r)S5 (Н (r)G (t ))т + B(z)SnBT (о)з(т) = = ^N45(t), A/[C0C(/ + t)] = ls^(H(r)G(/))T5(T). Как и в задаче дискретной фильтрации, формирующий шум §(t) и шум СО эквивалентных наблюдений (10.45) — коррелированны. По- этому для получения алгоритма фильтрации необходимо использовать уравнения (10.14), (10.20), (10.21). В результате получаем следующий алгоритм: — = F(z)i + K(/)(u(/)-H*(z)x], х(0) = х0, (10.146) 290
K(z) = (dx (z)H*t (O+G(/)S^(H(/)G(/))t)2N^, (10.147) = F(z)Dx + dtxf(0+|g(?)S^Gt (/)-1к(0!^Кт (г), Dx(O) = DXo. (10.148) Уравнения (10.144), (10.146)-(10.148) определяют алгоритм опти- мальной фильтрации процесса x(z), наблюдаемого на фоне коррелиро- ванной помехи. Контрольные вопросы к главе 10 1. При каких условиях фильтр Калмана является абсолютно оптималь- ным, т.е. нельзя найти никакого другого линейного фильтра, дающего меньшую дисперсию ошибки фильтрации? 2. Чем постановка задачи синтеза фильтра Калмана отличается от поста- новки задачи синтеза фильтра Винера? 3. Какую структуру имеет оптимальная система фильтрации непрерывно- го процесса с формированием оптимальных оценок в дискретные мо- менты времени? 4. Какие типы линейного сглаживания вы знаете? Дайте их определения. 5. Чем определяется закон формирования экстраполированных оценок? 6. Какую роль играют априорные сведения в задаче фильтрации? 7. К какому значению стремятся в установившемся режиме коэффициен- ты усиления фильтра Калмана при фильтрации квазидетерминирован- ного процесса и почему? 291
Глава 11 ОПТИМАЛЬНАЯ НЕЛИНЕЙНАЯ ФИЛЬТРАЦИЯ ИНФОРМАЦИОННЫХ ПРОЦЕССОВ Задача фильтрации называется нелинейной, если сообщение описы- вается нелинейным дифференциальным уравнением и/или входит нели- нейно в наблюдения y(z). Задачи нелинейной фильтрации являются типичными для радиотехнических приложений. Так, например, в систе- мах связи, радиолокации и радионавигации, когда полезная информация (сообщение) передается путем модуляции частоты, фазы, задержки сиг- нала, длительности радиоимпульсов и др., имеем случай нелинейной связи сообщения и наблюдений. В ряде задач измерения координат объ- ектов радиолокационными методами изменение координат во времени (которые в данном случае являются полезными сообщениями) описы- вается нелинейными дифференциальными уравнениями, например, (2.30)—(2.31). В отличие от задачи линейной фильтрации гауссовских процессов, когда АПВ является гауссовской, в задаче нелинейной фильтрации АПВ, как правило, является негауссовской. Это, во-первых, приводит к тому, что оптимальные оценки сообщения, соответствующие различ- ным критериям оптимальности, могут отличаться друг от друга. Так, например, оценки условного среднего и максимума АПВ не совпадают при несимметричных апостериорных распределениях. Во-вторых, даже в рамках одного критерия оптимальности, например критерия миниму- ма дисперсии ошибки фильтрации, не удается получить точного, замк- нутого решения, так как АПВ описывается бесконечной цепочкой взаимосвязанных моментов, квазимоментов или семиинвариантов (см. гл. 1). Поэтому в теории оптимальной нелинейной фильтрации исполь- зуют те или иные приближенные решения. Практически наибольшее распространение получило гауссовское приближение, при котором АПВ полагается гауссовской. 11.1. Уравнения оптимальной нелинейной фильтрации в гауссовском приближении Известно несколько алгоритмов гауссовского приближения. Приве- дем вывод одного из алгоритмов для одномерного марковского процес- са Х(/), описываемого уравнением 292
и скалярного наблюдения y(z) = S(X,z)+«(z), где n(l), £(z) — БГШ с двусторонними спектральными плотностями Л о/2 и S^/2 соответственно. Будем искать оценку условного среднего X = М [х | Уд J, которая яв- ляется оптимальной по критерию минимума дисперсии ошибки фильт- рации. Аппроксимируем апостериорную плотность вероятности р(Х Io ) гауссовской где X и 1\ — среднее значение и дисперсия гауссовского распределе- ния. В гл. 10 показано, что гауссовская АПВ (11.1) является решением уравнения Стратоновича, если наблюдения зависят линейно от фильт- руемого процесса, а сам процесс описывается линейным дифференци- альным уравнением. При этом функция F(X,z) (9.3), входящая в урав- нение (9.4), зависит от X квадратично. Воспользуемся этим фактом для вывода приближенного алгоритма нелинейной фильтрации. Разложим нелинейные функции /(X,z), g(X,z), F(X,z) в ряды в окрестности точки оптимальной оценки X и ограничимся конечным числом членов d/(X,z). .. . /(X,z) = /(X,z)+-А-' Х-Х , g(X,z) = g(X,z), СгЛ» .. . ar(x,z). .. 3f2(x,z). ..2 F(X,z)«f(X,z)+ 7(х-х)+ 7(х-х) . (11.2) Учитывая (11.2), дальнейший синтез алгоритма фильтрации прове- дем по той же методике, что и при выводе оптимального линейного ал- 293
горитма (см. п. 10.1). Запишем оператор Фоккера—Планка—Колмо- горова Подставляя (11.53) в уравнение Стратоновича (9.4) и переходя от уравнения для р^А.|Уо j к уравнению для и = 1п(р(х|Уос учетом (10.6) получаем После подстановки (10.8) в (11.4) имеем Л 2 dt ' ' ' ’ dt 294
Приравнивание в (11.5) членов при одинаковых степенях разности (X - Х) дает следующий алгоритм фильтрации: di !- \ (11.6) dt ЭХ Э2г(Х,/) ЭХ2 Выражения для производных функции (11.7), имеют вид F (X, /), входящих в (11.6), ЭХ No эх F(X,r) 2 32s(X ЭХ2 ~ No ЭХ2 ЭХ (11.7) (11.8) (П-9) Первым слагаемым в (11.9), как правило, можно пренебречь. Тогда, подставляя (11.8), (11.9) в (11.6), (11.7), получаем di /- \ 1 3s(X,f). . £ММ*ад^44('М(Ч). (11.10) (11.11) нелинейной Уравнения оптимальной в гауссовском приближении фильтрации (11.10)—(11.11) иногда называют расширенным фильтром Калмана, так как они по структуре совпадают с уравнениями фильтра Калмана (10.8)—(10.9) с заменой F(t)i на /(X,r), F(t) на Э/(Х,/)/эХ, H(t) на Э5^Х,^/ЭХ. Приведем без вывода уравнения гауссовского приближения для за- дачи фильтрации многомерного МП х(/), описываемого уравнением /Ут — = f(x,/)+g(x,/)£(/), х(го) = хо, (11.12) at 295
и векторных наблюдений y(z) = S(A.,z) + n(z), Х = сх, (П-13) где n(z), ^(z) — векторные БГШ с матрицами двусторонних спек- тральных плотностей N„/2 и S^/2 соответственно. Уравнения фильтрации в гауссовском приближении — = f(x,z)+E dt V ’ df(x,z) —- = —i—-D_+D. dt Эх 9F(x,z)Y Эх df (x,z) dx 1 +— 2 где F(x,z) = 2S(cx,z)N~1 (y(z)-O,5S(cx,z)), Эх Эх (11-14) (11.15) (11.16) D а дифференцирование по векторному аргументу определяется следую- щими правилами: 1) если ф(х) —скаляр, а х —вектор, то Э<р(х)_ Эф(х) Эф(х) Эф(х) Эх Эх] Эх2 ЙХт — строка; 2) если ф(х) —вектор, и х —вектор, то Эф) (х)/Эх] Эф! (х)/Эх2 •• ^1 (х)/Эхт дф(*) Эх Эф2 (х)/Эх] Эф2 (х)/Эх2 . ^>2(х)/^т — матрица. ЭФП (х)/а*1 ЭФ„ (х)/Эх21 . •• дфЛх)/Эхт Как и в скалярном случае, уравнение (11.15) можно упростить, если не учитывать вторые производные от сигнальной функции. Дисперси- онное уравнение при этом принимает вид гД)т 3f(x,z) fdf(x,z)Y 1 .. . т/. . -ЗГ = —Mr2 +Tg i,/ S^gT x,z - dt dx dx 2 \ / 296
ras(i,z)Y .asfij) -2Dx -4—2 n; -Чт-2»,- (н.п) ax I ax Отметим одну особенность дисперсионных уравнений (11.17). Если в линейном алгоритме фильтрации (10.16) уравнение для дисперсии ошибки фильтрации (10.16) является детерминированным и может быть проинтегрировано до начала обработки принимаемой реаличагши^ то в нелинейном алгоритме фильтрации (11.14)—(11.15) уравнение для дисперсий ошибок фильтрации (11.15) содержит члены, включающие текущую оценку х(г) и, следовательно, оно должно интегрироваться в процессе обработки реализации y(t), т.е. совместно с уравнением для оценки. Это существенно усложняет алгоритм фильтрации. Поэтому часто ограничиваются отысканием приближенного решения уравнения для дисперсии ошибки фильтрации, например, усреднив уравнение (11.17) на интервале времени Д/, значительно превышающим время корреляции флуктуационных помех, но меньшим времени корреляции фильтруемого процесса. Гауссовское приближение в задачах нелинейной фильтрации дает хорошие результаты при больших отношениях сигнал/шум. В ряде за- дач алгоритмы гауссовского приближения имеют удовлетворительные характеристики при умеренных отношениях сигнал/шум. В то же время встречаются задачи, например, фильтрация хаотических процессов, адаптивная фильтрация, в которых гауссовское приближение дает не- удовлетворительные результаты, и необходимо искать другие аппрок- симации. Рис. 11.1. Схема нелинейной системы фильтрации в гауссовском приближении Оптимальный в гауссовском приближении нелинейный фильтр, описываемый соотношениями (11.14), (11.15), может быть представлен в виде нелинейной следящей системы (рис. 11.1). 297
11.2. Дискриминатор и фильтр в оптимальной системе фильтрации В схеме оптимальной системы фильтрации (рис. 11.1), как и в лю- бой следящей системе можно выделить дискриминатор и фильтр. В п. 7.7.2 дано определение дискриминатора как устройства, выделяюще- го информацию о рассогласовании между оценкой параметра сигнала и его опорным (истинным) значением. Математически дискриминатор был определен (7.63) как производная от логарифма отношения прав- доподобия по оцениваемому параметру. Если обратиться к уравнению Стратоновича для АПВ (9.5) и вытекающему из него уравнению (11.14) для оценки фильтруемого процесса в оптимальном нелинейной фильт- ре, то следует заметить, что входящая в них функция F(x.,t) (11.16) есть ни что иное, как логарифм одношагового отношения правдоподо- бия. С другой стороны, в уравнение оптимальной фильтрации (11.14) входит производная 3F(x,z)/3x. Эти факторы дают возможность вы- делить в схеме оптимальной нелинейной фильтрации дискриминатор. Введем интервал времени Аг такой, что фильтруемый процесс x(z) = const на этом интервале. Другими словами Az« , где — время корреляции фильтруемого процесса. Определим на интервале времени Az логарифм отношения правдоподобия lnp(X) = fF(z,t)dt = j2S(X,z)N;1(y(z)-0.5S(X,z)pZ. Az AZ Определим многомерный дискриминатор соотношением plnp(X)Y ЭХ \ / N^fy^-sfX.z))^ N„‘y(z)z/z (11.18) Последнее (приближенное) равенство в (11.18) выполняется для многих радиотехнических задач, так как сигнал и его производная по параметру слабокоррелированны. Вернемся к уравнению (11.14) и вычислим входящую в него произ- водную от логарифма одношагового отношения правдоподобия 298
pF(x,r)Y l Эх , pF(i,/)3xY Эк Эх -C ЭХ \ \ _ J3s(x,/)Y /4 z, x. UN / С учетом данного выражения запишем уравнение (11.14) в виде — = f(x,/) + Dx(/)cT "asfxjjY эх к > 2N”1 (y(z)-S(cx,z)). Проинтегрируем обе части уравнения (11.19) на интервале времени А/. Учитывая, что на этом интервале х ~ const и Dx = const, получаем di г/~ \ л / ч т г -Y3S(X,z)>r — = f (x,z)+Dx (z)cT J 2 — " д, ЭХ I 2N”1 (y(z)-S(x,z))rft = = f(i,z)+Dx (z)cTua, (11.20) где ид определяется (11.18). Применительно к следящим системам операцию интегрирования на интервале времени А/ в дискриминаторе можно не выполнять, так как сама узкополосная следящая система выполняет роль интегрирования. Поэтому дискриминатор следящей системы можно определить соотношением (11.21) что следует также из сопоставления (11.19) и (11.20). Определению (11.21) соответствует также следующее представле- ние для дискриминатора оптимальной следящей системы: “д (0 = ( д \т х=х (эх v 'J х=х (11.22) (11.19) С учетом (11.21) схему оптимальной системы фильтрации можно представить как на рис. 11.2, где пунктиром выделены дискриминатор и сглаживающий фильтр. 299
Из (11.21) следует, что структура дискриминатора определяется структурой наблюдений у(/) (11.13), в том числе видом сигнала S(l,f) и законом модуляции сигнала сообщением X. Структура же фильт- рующих цепей (сглаживающего фильтра), в соответствии с (11.19) опре- деляется векторной функцией f (х,г), т. е. структурой фильтруемого процесса (11.12), и не зависит от формы и вида модуляции сигнала. Следовательно, при использовании гауссовского приближения синтез оптимальной системы фильтрации может быть выполнен раздельно для оптимального дискриминатора и оптимального сглаживающего фильт- ра. Использование этого факта существенно упрощает синтез оптималь- ной системы фильтрации. Так, например, если фильтруемый процесс является гауссовским МП, т.е. описывается линейным уравнением (на- пример, (9.2)), то синтез сглаживающего фильтра можно провести по методике, описанной в п. 10.1.3, с использованием теории оптимальной линейной фильтрации. Как отмечалось в п. 10.1.3, процесс на выходе дискриминатора можно представить в виде статистического эквивалента ид(г) = и(х-х)+;(г), (11.23) где u(l-l) = Af [ид], С(г) — среднее значение и флуктуационная составляющая выходного процесса. Полагая ошибку слежения 51 = X -1 малой, линеаризуем функцию и(х-х) и запишем (11.23) в виде ид(0 = 8д(1-Х)+£(0, (1124) где Бд — крутизна дискриминационной характеристики. 300
При малых ошибках 8Х = Х-Х (11.21) можно записать в виде (s(v)+n(/)-s(i,z)]= = 2 ЭХ ЭХ = 2 ЭХ N/I ЭХ (11.25) Усреднив (11.25) при фиксированной расстройке 8Х, получаем ре- гулярную составляющую процесса ид (/) Следовательно, крутизна дискриминационной характеристики S.-2-4-2 <1126’ оЛ ил < > Рассчитаем спектральную плотность процесса ид(/) на выходе дискриминатора. Из (11.25) имеем N„‘n(r). Корреляционная функция этого процесса 3S(X,/ + x) 301
v 'asfx,/) ax N„1A/^n(/)nT (z + t)Jn„1 as(x,z) ax as(x,z) ax 8(t). Следовательно, при малых ошибках слежения процесс на выходе дискриминатора некоррелированный (белый шум), а его спектральная плотность определяется выражением S?/2 = 2 'as(x,z) ах ЧТ n;1 as(v) ах =s«- (11.27) Заметим, что равенство спектральной плотности процесса на выходе дискриминатора оптимальной системы фильтрации крутизне дискрими- национной характеристики является характерным признаком таких оп- тимальных систем. Поставляя (11.24) в (11.20), получаем уравнение линеаризованной системы фильтрации — f (i,z)+Dx (z)cT [8Д(X-X) + ^(z)] = (11.28) = f (x,z)+Dx (z)cTSfl (y (')"«) = f (*.')+Dx (')Лд (У (')-*>) ’ где y(z) = X + n(z) = cx + n(z) (11.29) — эквивалентное наблюдение, приведенное к фильтруемому процессу x(z); при записи (11.28) учтено, что матрица 8Д невырожденная. Рассчитаем корреляционную функцию шума й (z) М [n (z)nT (t + т)] = S’ ХМ (r)C (z + г)] S’1 = = S"15(T) = Nfi/25(T). (11.30) С учетом (11.30) уравнения линеаризованной системы фильтрации (11.28) можно записать в виде 302
(11.31) Рассмотрим дисперсионное уравнение (11.17) для линеаризованного режима работы системы фильтрации. С учетом (11.27), запишем ЭФ>0п ,D pf(xj)Y Л " Эх х Ч Эх (11.32) +|g(x,')s!jgT (^0-2DxCTNn‘cDx. Уравнения (11.31)—(11.32) по своей структуре напоминают фильтр Калмана (10.14)—(10.16) и полностью с ними совпадают, если фильт- руемый процесс x(z), описывается линейными уравнениями (9.2), т.е. f(x,/) = F(/)x. Таким образом, при малых ошибках слежения синтез системы фильтрации и анализ ее характеристик можно проводить для эквивалентных линеаризованных наблюдений (11.29). Это существенно упрощает анализ характеристик системы фильтрации, особенно, если фильтруемый процесс описывается линейными уравнениями. Пример 11.1. Рассмотрим задачу фильтрации фазы гармониче- ского радиосигнала. Так как модель изменения фазы сигнала определяет лишь структуру фильтрующих цепей, то для простоты изложения будем полагать, что фаза сигнала описывается линейным уравнением 1-го по- рядка = M[?(,)5(I+T)] = 55/2«(t). (11.33) Данное уравнение моделирует блуждание фазы автогенератора при учете тепловых и дробовых шумов усилительного прибора и элементов схемы. Наблюдаемая реализация имеет вид у(г) = Лсоз((0Г + (р(/))+л(/), Л/[л(/)л(/ + т)] = У0/25(т). В рассматриваемой задаче S(<p,z) = Лсо5(со/ + ф(/)), /(<р) = 0, £(ф) = 1- Подставляя данные соотношения в (11.14), (11.17), получаем sin (со/ + ф)(у (t) - A cos (со/ + ф)), (И -34) 303
(11.35) (11.36) (П-37) dD^ 2A2D2 . 2 — = V------TT-^-sm (ow + ф). dt 2 /vq В правой части уравнения (11.34) высокочастотную компоненту 2 sin (ом + (p)cos (ом + ф) = sin 2 (он + ф) можно отбросить, так как часто- та сигнала со много больше полосы пропускания следящей системы, и вторая гармоника сигала существенно ослабляется. В результате урав- нение оптимальной фильтрации принимает вид </ф 2АОф .... .. “77 = sm(co/ + <p). Л No В уравнении (11.36) дискриминатор (фазовый) описывается соот- ношением 2А N0 и представляет собой перемножитель, на один вход которого подается реализация y(z), а на второй вход — опорное колебание sin (сот+ ф). Данное колебание может быть сформировано на выходе фазового моду- лятора (ФМ), на один из входов которого подается оценка фазы ф, а на другой — опорное колебание sin(ciw). В качестве фильтра следящей системы используется интегратор, что определяется моделью фильт- руемого процесса (11.33). Уравнение (11.36) описывает работу системы фазовой автоподстройки (Ф АП) (рис. 11.3). Дискриминационная характеристика фазового дискриминатора получает- ся в результате усреднения (11.37) на интервале вре- мени А/, для которого 5<р = (р-ф = const, т.е. Л/« тк , где тк - время корреляции следящей системы Ц,(3ф)= J ua(t)dt = Д/ 2А2 „А2 =------J cos(aw + (p)sin(aw+9)rfr = —8ш(ф-ф). (11.38) М) ь Рис. 113. Оптимальная схема слежения за фазой сигнала 304
Уравнение (11.35) для дисперсии ошибки фильтрации также усред- ним на интервале времени А/, в результате чего получаем А2Р2 dt 2 No ' В установившемся режиме решение данного уравнения имеет вид Мруст = (И 39) Таким образом, дисперсия ошибки слежения растет с увеличением интенсивности фазовых флуктуаций генератора и интенсивности адди- тивной помехи и уменьшается при увеличении амплитуды сигнала. Рассмотрим методику раздельного синтеза дис- криминатора и с гл а ж и в а ю щ его фильтра системы Ф А П. Синтез дискриминатора проводится на основе (11.21), что сразу приводит к выражению (11.37). Для синтеза сглаживающего фильтра в контуре следящей системы линеаризуем дискриминационную характе- ристику (11.38) дискриминатора (11.37) для малых ошибок фильтрации А2 ^д(8ф)в7т-(ф-ф)- /vo Следовательно, крутизна дискриминационной характеристики Sa=A2/N0. Шум на выходе дискриминатора £(r) = -2.4sin(cor + cp)zi(r)/No имеет спектральную плотность Л^/2 = A2/Nq . После пересчета шума £(г) на вход эквивалентной следящей сис- темы (см. рис. 10.6) получаем эквивалентное входное воздействие Я') = ф(')+«(')« (п-4°) где спектральная плотность шума й(г) равна N^/2 = N[J S2 = Nq/A2 . Рассмотрим синтез линейного фильтра Калмана для модели (11.33), (11.40). Используя (10.11), (10.12) запишем 2 ^ = ^(Я0-ф)=^ЧЯ')-ф). <1141) dt Mq (1142) dt 2 N„ 2 No ' 305
Из сопоставления (11.39) и (10.42) следует, что уравнения для дис- персии ошибки фильтрации совпадают. Из уравнения (11.41) видно, что в контуре следящей системы используется фильтр с операторным коэф- фициентом передачи К$(р) = Кц/р, причем в установившемся режиме ^Оуст = ^42S-^/2N0 = 7^ > где 9 = Iе '] — отношение мощ- ности сигнала к спектральной плотности шума на входе системы фильт- рации. Установившееся значение коэффициента усиления ХОуст фильтра Калмана совпадает с аналогичным значением в нелинейной системе фильтрации (11.36). 11.3. Уравнения дискретной нелинейной фильтрации в гауссовском приближении Как и в аналогичной задаче нелинейной фильтрации непрерывных процессов, задача оптимальной нелинейной дискретной фильтрации не имеет в общем виде строгого замкнутого решения. Поэтому здесь так же используются те или иные приближенные алгоритмы, наибольшее распространение из которых получил алгоритм гауссовского приближе- ния. Вывод алгоритма гауссовского приближения такой же, что и для непрерывных процессов и основан на разложении нелинейных функций в соответствующие ряды. Поэтому приведем его без вывода. Фильтруемый процесс описывается уравнением Ч =fA-l (4-i)+gi-i . x(z0) = x0, Л/[^] = О^, (11.43) наблюдаемый процесс — У* =S*(XA)+nt, Xk =cxk, Л/[п^п;] = Вя8^ . (11.44) Уравнения оптимальной в гауссовском приближении дискретной фильтрации будут такими: А f3/^(it)Y fdS*(cifc)Y _i , t - w dJ y^_St(cxA) , k 7 ) (11.45) x* (11.46) 306
6 _ЭГА_|(х*_1) D'k~ Эх Dx’*-1 Эх +g*-> (x*-i)D^g*-i (»*-i), / (11.47) D-i _6-i apMcxjY ux,k~Dx,k--^ --------- (11.48) j В уравнении (11.48), как и в непрерывном времени, можно пренеб- речь вторыми производными от сигнальной функции и представить его в виде D-1 -D-* +f3SH“*)Yn dS*(ci*) /1148^ их,£ ~ Dx,* + ------ D«-----------• (11.48 а) Эх Эх \ / Здесь хк — оценка фильтруемого процесса; хк — экстраполированная оценка процесса; Dx к — матрица дисперсий ошибок фильтрации; Dx<. — матрица дисперсий ошибок экстраполяции. Дискретная система фильтрации, описываемая уравнениями (11.45)—(11.48), как и аналогичная непрерывная система, может быть представлена в виде нелинейной следящей системы, включающей дис- криминатор и фильтр. Для получения такого представления определим дискриминатор выражением (без накопления на интервале времени А/« тк) “д* = ГЭГДх,)>г ЭХ 7 (11.49) и запишем (11.45) в виде |X(x*)Y эх *к ~ *к + ИхЛс (ук $к (Xjj. )) — 1к + Dj^c и. Рис. 11.4. Схема дискретной оптимальной системы фильтрации 307
На рис. 11.4 приведена схема дискретной нелинейной системы фильтрации, в которой выделены дискриминатор и сглаживающий фильтр. Заметим, что в оптимальном дискретном дискриминаторе функция S* (X*) и ее производная 8S* (Х*)/ЭХ берутся в точке экст- раполированной оценки X*. Введем статистический эквивалент для процесса (11.49) на выходе дискриминатора ид£ =^(Х* — Х*) + £* , (11.50) где и(Х*= Гид*] — дискриминационная характеристика; pMx*)Y ах D„'n* — флуктуационный процесс на выходе дискриминатора. При малой ошибке экстраполяции 5Х = Х* -X*, лежащей в преде- лах линейного участка дискриминационной характеристики, (11.50) можно представить в виде идА — где as*, (х*) эх — крутизна дискриминационной характеристики. Корреляционная функция флуктуационной составляющей равна Следовательно, процесс на выходе дискриминатора является белым шумом с матрицей дисперсий D<- = 8Д. Как и в непрерывных системах фильтрации, при малых ошибках экстраполяции и линейной модели фильтруемого процесса уравнения (11.45)—(11.48) переходят в уравнения дискретного фильтра Калмана (10.66)—(10.70), полученные для эквивалентных наблюдений: у* = Х + п* =сх*+п*, (11.51) 308
где A/[nAnTm] = Sfl15fa„. В гауссовском приближении в дискретной системе структура дис- криминатора определяется структурой наблюдений ук, в том числе видом сигнальной функции Sk(Xk), а структура сглаживающего фильтра зависит только от типа фильтруемого процесса (его структу- ры). При этом синтез дискриминатора и сглаживающего фильтра можно проводить раздельно. Синтез дискриминатора проводится по формуле (11.49). Синтез сглаживающего фильтра проводится для эквивалентных линеаризованных наблюдений (11.51) по методике, описанной в п. 10.2. Если в дискретных алгоритмах фильтрации (11.45)—(11.48) шаг дискретизации Td устремить к нулю, то данные алгоритмы переходят в соответствующие непрерывные алгоритмы (см. п. 11.1). Обратное ут- верждение неверно, т. е. дискретизацией непрерывных уравнений фильтрации нельзя получить дискретные уравнения фильтрации (11.45)—(11.48). Это обусловлено тем, что структура дискретных алго- ритмов фильтрации предполагает формирование двух оценок: экстрапо- лированной хк и фильтрационной хк , а также соответствующих мат- риц дисперсий ошибок экстраполяции и фильтрации. В непрерывных же алгоритмах используется лишь одна фильтрационная оценка £(/) с соответствующей матрицей дисперсий ошибок фильтрации. Уравнения оптимальной дискретной фильтрации наиболее полно используют ап- риорную информацию о структуре фильтруемого дискретного процесса. Поэтому при разработке дискретных алгоритмов фильтрации более предпочтительно сначала провести дискретизацию исходных уравне- ний, описывающих сообщение и наблюдаемый процесс, а затем исполь- зовать уравнения оптимальной дискретной фильтрации (11.45)—(11.48), а не осуществлять дискретизацию непрерывных уравнений оптималь- ной фильтрации тем или иным методом. 11.4. Оптимальная непрерывно-дискретная фильтрация и дискретная фильтрация с оптимальным накоплением 11.4.1. Оптимальная непрерывно-дискретная фильтрация Алгоритмы комбинированной калмановско-винеровской фильтра- ции гауссовских МП, рассмотренные в п. 10.3, могут быть распростра- нены на один частный, но очень важный для радиотехнических прило- 309
жений случай нелинейной фильтрации, когда фильтруемый процесс является многомерным гауссовским МП и описывается уравнением ^ = F(/)x+G(f)£(0, х(/0) = х0. (11.52) Как отмечалось в пп. 11.1, 11.2, при использовании гауссовского приближения для синтеза оптимальной системы фильтрации структура фильтруемого процесса x(t) определяет структуру сглаживающего фильтра в контуре синтезируемой следящей системы (системы фильт- рации). Поэтому задание линейной модели фильтруемого процесса даст линейный сглаживающий фильтр, что позволит проинтегрировать урав- нения оптимальной фильтрации с использованием аппарата переходных матриц (см. п. 10.3). * Наблюдению доступна аддитивная смесь сигнала и шума (11.13). Поставим задачу синтеза оптимальной (в гауссовском приближении) непрерывно-дискретной системы фильтрации, в которой обрабатывают- ся аналоговые (непрерывные) наблюдения (11.13), а оценки формиру- ются лишь в заданные (тактовые) моменты времени tk , которые будем полагать расположенными на одинаковом интервале Т друг от друга. Рассмотрим уравнение оптимальной фильтрации (11.14), которое запишем в виде at где (по определению (11.21)) (11.54) Как отмечалось в п. 11.2, процесс на выходе дискриминатора (11.54) можно представить в виде статистического эквивалента (11.23), а при малой ошибке фильтрации = — в виде линеаризованного статистического эквивалента (11.24). Подставляя (11.24) в (11.53), получаем S = F(<)i + D,(>)eT(s, (Х-Х) + ?(<)) = = F(t)i + D, (i)cT(y(>)-S,X), где у(/) = 8дА, + £(г). 310 (Н.55)
Уравнение (11.64) линейно относительно х и аналогично фильтру Калмана (10.14). Поэтому для него можно сразу записать оптимальный алгоритм непрерывно-дискретной фильтрации, аналогичный (10.99): *к=*к + J Ф('*Л)Вх(т)ст(у(т)-8дХт)Л, (11.56) 6-i где Ф(‘к ,т) — переходная матрица, удовлетворяющая однородному уравнению (см. (10.93)) ^21 = (F(/)-DI(/)cTSa)o(/,T), с начальным условием Ф(т,т) = 1; х* = Фар )**-! '> = = ®ap(x’/*-i)**-i —экстраполированные с момента времени tk_\ на моменты времени tk и те fy) оценки фильтруемого процесса; Фар ) — переходная матрица априорного уравнения (11.52), удовлетворяющая однородному уравнению (10.97). В (11.56) Хт означает, что оценку X следует брать в момент време- ни те [**—]»**], а так как фильтрованные оценки в промежуточные ин- тервалы времени не формируются, то следует брать экстраполирован- ные оценки Хт = схт = сФар (V*-i )i*-i • Учитывая (11.24) и (11.29), запишем ид(т) = у(т)-8дХт. Следова- тельно, уравнение непрерывно-дискретной фильтрации (11.56) можно записать в виде **=** + J Ф0*.х)Ох(х)сТ“д(хИх- (11-57) Наконец, подставляя (11.54) в (11.57), получаем еще два выражения для алгоритма оптимальной непрерывно-дискретной фильтрации dx = 4=i*+ J Ф(^>х)°х(х)с ах (11.58) V = **+ J Ф(4.х)Ох(х)сТ2 6-i ах 311
Схема оптимальной непрерывно-дискретной системы фильтрации, описываемой уравнением (11.58), приведена на рис. 11.5. Рис. 11.5. Схема оптимальной непрерывно-дискретной системы фильтрации Оптимальная непрерывно-дискретная система фильтрации включа- ет аналоговый дискриминатор, оптимальный накопитель в виде фильтра со сбросом в тактовые моменты времени tk и с импульсной характери- стикой gH (;*,/) = <!>(fy,/)Dx (г)ст, экстраполятора с переходной мат- рицей Фар(т,^_1), формирующего экстраполированную оценку хт = Фар (т,^_1)на каждый текущий момент времени те ; ключа, замыкающегося в моменты времени ; дискретного сглажи- вающего фильтра. Оптимальный накопитель в схеме рис. 11.5 занимает в структуре следящей системы такое же место, что и фильтр Винера в схеме комби- нированной калмановско-винеровской фильтрации (см. рис. 10.13). Од- нако это не есть фильтр Винера в чистом виде. В него не вошла нормиро- ванная производная 2^3S(A.(t),t)/3X) N“* (аналог матрицы 2HTN^' в фильтре Винера), которая отнесена к дискриминатору, так как является основной дискриминирующей функцией («различителем») по парамет- ру При выводе алгоритма оптимальной непрерывно-дискретной фильт- рации (11.58) полагалось, что ошибка фильтрации 31 = Х-1 мала и лежит в пределах линейного участка дискриминационной характери- стики. При этом лишь в начале интервала интегрирования (в момент времени /*_]) ошибка 31 — это ошибка фильтрации. Для всех осталь- 312
ных моментов времени те ] ошибка 5Х — это ошибка экстра- поляции. Рассчитаем дисперсию ошибки экстраполяции для произволь- ного момента времени те [4-1 >4 ]. Экстраполированная оценка фильтруемого процесса определяется выражением ~ Фар (44-1 )*4-1 • Выражение для текущего значения хт фильтруемого процесса по- лучается в результате интегрирования априорного уравнения (11.52) на интервале [4чЛ] хт = (44-1 )**-! + J Фар (V)G . 4-i Тогда для дисперсии ошибки экстраполяции можно записать DXT = М [(хх — хт )(хт — хт) = Фар (V*-l)^[(x*-l ->*-1 )(Ч-1 -Х*-1 )Т]фар (44-1) + + J J Фар(т,?)С(г)Л/[^(/)^т(0)]ст(О)Ф^(т,О)^О = 4-14-1 = Фар (44-1 )®хЛ-1Фар (44-1 ) + +| / Фар(4/)С(/)8^Ст(/)Ф^(т,/)Л. 4-1 Очевидно, что дисперсия ошибки экстраполяции Dxx возрастает при увеличении времени экстраполяции т, и наибольшее ее значение достигается в конце интервала интегрирования (в момент времени ). При большой длительности интервала T = fy — fy-i может оказаться, что, хотя дисперсия ошибки фильтрации мала, дисперсия ошибки экстраполяции будет велика и, следовательно, ошибка экстраполяции может выходить не только за пределы линейного участка дискримина- ционной характеристики, но и даже за пределы апертуры дискримина- ционной характеристики, т.е. будет иметь место срыв слежения. Поэто- му в нелинейной непрерывно-дискретной системе фильтрации сущест- 313
вует принципиальное ограничение на длительность интервала дискрет- ной обработки Т. В комбинированном калмановско-винеровском фильт- ре такого ограничения не было — при любом значении Т в тактовые моменты времени формировались оптимальные оценки фильтруемо- го процесса с минимальной дисперсией ошибки фильтрации. Пример 11.2. Для задачи фильтрации фазы гармонического сиг- нала, рассмотренной в примере 11.1, синтезируем оптимальную непре- рывно-дискретную схему ФАП. В данной задаче имеем F(z)eO, Фа (г,т) = 1, а крутизна дискриминатора ФАП находится из (11.38) и равна 5Д = A2/Nq . Поэтому уравнение для переходной функции (мат- рицы) Ф(/,т) имеет вид = _ £ Ду(0= -^(<)Ф(/,т), Ф(т,т) = 1, (11.59) где Оф (г) — дисперсия ошибки фильтрации фазы сигнала в непрерыв- ной ФАП, которая описывается уравнением (11.35). Рассматривая установившийся режим работы ФАП, с учетом (1.39) можно записать = yjs^A2 /Nq , а решение уравнения (11.59) в этом случае имеет вид Ф(/,т) = е Кусг^’ Подставляя (11.37) и полученное выражение для Ф(/,т) в (11.57), находим уравнение для оптимальной непрерывно-дискретной ФАП <Р*=Фл-1~77- J е'^^-^Оф^у^втСоп + ф^])^. Рассмотрим для простоты ФАП с установившимся значением Офуст . При этом уравнение для оптимальной оценки фазы упрощается Ф* J е (11.60) No tt_t На практике обычно используется простое усреднение процесса на выходе дискриминатора ФАП, что соответствует формированию оценки фазы по алгоритму 314
Рис. 11.6. Зависимости СКО оценки фазы в ФАП с оптимальным и неоптимальным накоплением Ф*,н=Ф*-1,н----~~~ j Д-с)8ш(ап + фА_1н)</т, (11.61) 0 tk-t где индекс “н” использован для отображения факта неоптимальности формируемой оценки. Сравним точность формирования оптимальной (11.60) и неопти- мальной (11.61) оценок фазы сигнала в зависимости от длительности интервала накопления Т -/*_]. На рис. 11.6 приведены соответст- вующие зависимости сред- неквадратических ошибок 80 А 70 при 9 = Рс/^=104 Гц, w 5s/2 = 0,32 рад2с ‘. При ю Ъ 40 таких параметрах задачи 30 полоса пропускания ФАП м Д/фдп -20 Гц, что харак- ю терно, например, для схем о ФАП в приемниках спутни- ковых радионавигационных систем. Из приведенных за- висимостей следует, что в не- оптимальной ФАП (11.61) допустимо накопление на интервале Т = 20 мс без потери точности фильтрации, в то время как в оптимальной непре- рывно-дискретной ФАП длительность допустимого (без потери точно- сти фильтрации) интервала накопления на порядок больше. 11.4.2. Дискретная фильтрация с оптимальным накоплением Из предыдущего материала следует, что, если принимается анало- говый сигнал (например, радиосигнал), а оценки фильтруемого процес- са необходимо формировать лишь в дискретные моменты времени, то оптимальная систем фильтрации должна включать аналоговый дискр- иминатор, накопитель, ключ и дискретный фильтр. Однако на практике часто удобнее сначала провести дискретизацию сигнала по времени, а потом уже выполнять его обработку. Так, например, в приемниках сиг- налов спутниковой навигации ГЛОНАСС/GPS временная дискретиза- ция принимаемых сигналов осуществляется на последней промежуточ- ной частоте ~ 4 МГц. В то же время, оценки фильтруемых процессов (задержки и фазы сигналов) достаточно формировать с темпом Т = 20 мс (частота выдачи данных 50 Гц). Разность между частотами формиро- 315
вания отсчетов наблюдаемых сигналов и формирования оценок процес- сов составляет 8 • 105 раз. Таким образом, возникает задача построения оптимальной системы обработки данных, поступающих с высокой час- тотой, и формирования оценок информационных процессов с сущест- венно меньшей частотой. Данная задача, по сути, аналогична той, что рассмотрена ранее, а также задаче линейной дискретной комбинирован- ной калмановско-винеровской фильтрации (см. п. 10.3.2). Поэтому при- ведем основные соотношения без подробных выводов. Фильтруемый процесс полагаем гауссовским марковским, т.е. х*-1,< = fy-lj-I**-!,)-! > x(zt-l ) = х*-1,0 > где , — векторный ДБГШ с матрицей дисперсий . Здесь и далее принята двойная нумерация временных отсчетов, подробно описанная в п. 10.3.2 (см. рис. 10.14). Наблюдается реализация У*-],, + где п^ , — векторный дискретный БГШ с матрицей дисперсий Dn. Оптимальная дискретная система фильтрации, формирующая оцен- ки ik в тактовые моменты времени , описывается уравнением ДМ х* - х* ++ X х 1=0 х ---------(Ул-i,дм оА где 1-1 ____ фк;к-\,1 =ф(4Л-1,|)>ф*;*-1Л-1 = П ^k-\,N-j;k-\,N-j-l > i = 7=0 фк;к =1! ФЛ-1,г;*-1,М = F*-l,/-l “ Вх*-М®Т8д J 8Д — крутизна дискриминационной характеристики дискриминатора, который определяется выражением uak-l,N-iJc-l = (11.63) d$k-l,N-i flk-\,N-i;k-l) эХ 7 Dn' (у Л-1, ДМ ~ fck-\,N-r,k-\ )) • 316
С учетом (11.63) уравнение (11.62) принимает вид N-\ **=**+ X ф*;*-1Л-г°х*-1Л-»сТ,1д*-1Л-|Л-1 • (11.64) i=0 В уравнении (11.64) второе слагаемое определяет оптимальный на- копитель отсчетов на входе дискриминатора следящей системы, им- пульсная характеристика которого определяется выражением Если время накопления Т существенно меньше времени корреля- ции фильтруемого процесса (или времени корреляции следящей систе- мы), то gH~ const на этом интервале времени и весовое сум- мирование в накопителе трансформируется в обычное суммирование (с равными весами) отсчетов с выхода дискриминатора. 11.5. Оптимальная нелинейная фильтрация при случайных неинформативных параметрах сигнала 11.5.1. Общие алгоритмы оптимальной фильтрации в гауссовском приближении Рассмотрим задачу оптимальной фильтрации процесса x(t), пере- даваемого в сигнале S(t,X,ji), где X(r) = cx(t), ц —вектор неинфор- мативных параметров сигнала, например, начальная фаза или амплиту- да, которые полагаем случайными величинами, постоянными за время наблюдения, т.е. d\L/dt = 0. Общее уравнение для АПВ р(х|1о) в рассматриваемой задаче по- лучено в п. 9.4 (уравнение (9.35)). Отличие (9.35) от аналогичного уравнения (9.5), полученного для задачи фильтрации процесса х(?) при приеме сигнала, не содержащего неинформативные параметры, отличается тем, что в него входит функция F(x,z), определяемая из (9.33)—(9.34), вместо функции /’(х,/), которая входит в (9.5). Если вернуться к алгоритму оптимальной в гауссовском приближе- нии фильтрации (11.14)—(11.15), (11.2) полученному для условий, ко- гда неинформативные параметры сигнала отсутствовали, то увидим, что в них входит функция F(x,/), которая определяет дискриминатор сле- 317
дящей системы. С учетом этого уравнения оптимальной в гауссовском приближении фильтрации, в случае, когда сигнал содержит случайные неинформативные параметры, постоянные за время наблюдения, могут быть получены из уравнений (11.14), (11.17), если в них заменить F(x,z) на F(x,z). Поэтому запишем di ~dt ЭГ(х,г)У (11.65) оТ>. df(x,z) -7^ = —b^Dx+Dx dt Эх 3f(x,z) Эх £ 2 +D,— Эх Эх D.. (11.66) Дискриминатор следящей системы определяется выражением (см. (11.22) “д (0 = ЭХ Э/ х=х (11.67) Х = Х, с учетом которого (11.65) записывается в виде — = f(i,z)+Dx (/)стид (z), dt полностью совпадающем (по структуре) с (11.20). Таким образом, нали- чие случайных параметров сигнала привело к изменению только струк- туры дискриминатора, и не затронуло структуру сглаживающего фильтра. Аналогичные выражения можно записать и для задачи дискретной дильтрации (11.43), (1.44), а именно *к *к +®х4 Эх *к - f*-l (**-1) > (11.68) (11.69) 318
э f^(cxjr Эх (11.70) где Л(«*) = 1п[р(1о |»*)/р(1о Чч)]» а р(>о|х*)> р(*0ЧК) определяются в соответствии с (9.20), (9.22). Дальнейшая конкретизация уравнений оптимальной фильтрации (11.68)—(11.70) получается при конкретизации соответствующих пара- метров ц. 11.5.2. Оптимальная фильтрации информационных процессов, переносимых сигналом со случайной начальной фазой Пусть информационный процесс X(z) = cx(z) передается сигналом, начальная фаза которого случайна, и постоянна за время наблюдения, т.е. ц = (ро и 5(/,X,<p0) = aH(/,A,)cos(coor + (p(r,l)+<p0), где Л(г,Х), ф(/Д) — законы амплитудной и фазовой модуляции, которые могут зависеть от информационного процесса А.; а — известная амплитуда сигнала. Случайная фаза ф0 распределена равномерно на интервале [-л, л]. Рассмотрим задачу непрерывной фильтрации. Так как дискримина- тор определяется только структурой наблюдений и для интервала вре- мени Az« тх, много меньшего времени корреляции информативного процесса, то при получении структуры дискриминатора будем полагать для простоты х = const. Усредненное по фазе отношение правдоподо- бия р(У0' |х) вычислялось в п. 4.3.2 и имеет вид (4.39) где /0 (*) — функция Бесселя нулевого порядка от мнимого аргумента, JT2 (г,Х) = Х2С (z,X)+xj (z,X), (11.72) 319
t ^c(z,X) = Jj'(t)^(tA)cos(co0t+(p(t,X))Jt, о t Xs (‘Л) = /УC0A(-C,X)sin((DqT+<p(t A))dx, о t a =/Л2 о Определим функцию F(x,r) в соответствии с (9.34) F(x,r) = af £(')+]n/ — + Ш /л No 0 IM) 1 3£(/) Nq dt i ar (a) э' 1Л (11-73) (11-74) (11.75) Положим, что оцениваемый параметр 1 — неэнергетический. То- гда при формировании дискриминатора следящей системы в соответст- вии с (11.67) первое слагаемое в (11.75) даст ноль, поэтому его можно не учитывать. Следовательно, формулу для дискриминатора можно за- писать в виде , ч Э "*(,)=а Л 2а Л) No dt / (11.76) Рассмотрим случай большого отношения сигнал/шум, для которого гауссовское приближение дает хорошие результаты. В этом случае, как показано в п. 7.10.1 (рис. 7.10), отношение двух функций Бесселя, вхо- дящее в (11.76), можно положить равным единице и записать прибли- женное выражение ,2а э а^(/Л) мд(0“ V Nq дК dt Дифференцирование по времени с учетом (11.72)—(11.73) дает следующий результат: 320
+XS (г Д) у (i) А (/, i)sin (city + ф(«л))] (11.77) В п. 7.7.1 при решении задачи оценки начальной фазы сигнала было получено выражение (7.54) q>0(T) = -arctg- Т J у (т) Л (тД) sin (сот + ф (тД)) t/т 0 (11.78) т J у (т) А (тД )cos (ок+ф (t Д)) dr .0 Заменяя в этом выражении Т на текущее время t и учитывая (11.72), (11.73), нетрудно увидеть, что ^с(^Д) .. . . (1Д) . .. С учетом этих формул (11.77) принимает вид = у(/)Л(гД)со8(<й0/ + ф(1Д)+ф0 (/)). (11.79) dt Подставляя (11.79) в (11.75), (11.76), получаем = (^4cos(°v+<p(',x)+$o ('))= T~y(l)s ('Лфо) ’ М) Wo 2 йЯгД.фо (х)) /Vq ОК Выражение (11.80) отличается от аналогичного выражения, полу- чающегося при приеме полностью известного сигнала тем, что в сиг- нальную функцию 5(/Д,ф0) вместо истинного значения начальной фазы сигнала входит ее оценка, которая определяется в соответствии с (11.78) при текущем времени t. С увеличением времени наблюдения энергия сигнала £(г) возрастает, и точность оценки начальной фазы сигнала также возрастает. Схема оптимальной системы фильтрации при наличии случайной начальной фазы сигнала приведена на рис. 11.7. 112041 321
Рис. 11.7. Схема оптимальной системы фильтрации при наличии случайной начальной фазы сигнала Оптимальная система фильтрации содержит основной блок оценки информационного процесса и блок оценки неизвестной начальной фазы, которая вводится в основной блок фильтрации. Метод приема сигнала с оценкой начальной фазы называют квазикогерентным приемом сигнала. Так как с течением времени ф0 —> ф0, квазикогерентный прием сигнала переходит в когерентный прием. При этом точность фильтрации ин- формационного процесса будет такой же, что и в случае приема сигнала с известной начальной фазой. 11.5.3. Оптимальная фильтрации информационных процессов, переносимых сигналом со случайными начальной фазой и амплитудой Если сигнал кроме случайной начальной фазы имеет и случайную амплитуду, то отношение правдоподобия р(У0'|х) (11.71) необходимо усреднить дополнительно по случайному распределению амплитуд. В результате усреднения по рэлеевской ПВ распределения амплитуд, в соответствии с (4.49), получаем 322
2^ (11.81) at ____Nq N0+a(t)<£ N0^N0+a Положим, как и выше, что оцениваемый параметр X — неэнергети- ческий, и пренебрежем первым слагаемым в (11.81). Обозначим для простоты 2<^ f(‘) = ( /\21 ЛЦМ)+«(О<^) и представим (11.81) в виде *(м)=Л')*2 . Ot Подставляя в (11.83) выражение (11.81), запишем FM = f'(t)X2(k,t)+ (11.82) (11.83) + Л‘)у(1)а(1^)Х (X,z)cos(co0/ + (p(/,X)+9o (')) = = f'(t)X2 (X,r)+/(z)y (/)%(Х,/)$(Х,ф0 . (11 -84) где S(X,<p0 (/),/) = Л(г,Х)со8(<оо/+ф(г,Х)+ф0(г)) — нормированная на амплитуду сигнальная функция; оценка начальной фазы сигнала Фо (z) определяется в соответствии с (11.78) при текущем времени /, а огибающая сигнала и ее квадратурные компоненты — формулами (11.72)—(11.74). Структура дискриминатора, получаемая в результате дифференци- рования (11.84) по X, оказывается достаточно сложной. Существенное упрощение можно получить, если полагать, что огибающая X(k,t) не зависит от X. В этом случае будем иметь ,« , Э<Ур,Х,фо (х)) -.В’/йФИ'Н-а12’ (И.85) ал* Дальнейшее упрощение получается, если заменить произведение f (t)x[i.,t} его установившимся значением (а точнее, при большом времени наблюдения) и принять допущение о высокой точности слеже- 323
ния, т.е. полагая Х = Х. При этих допущениях определим х(Х,/) = = ^(г),где Х(/) = 7^2(0+^2(0- (П-86) Из (11.73) получаем приближенные выражения Хс (f) = 0,5aa(f)cos(<p0), Xs (r) = O,5aa(/)sin(<po), (11.87) где a(f) определяется формулой (11.74). Подставляя (11.87) в (11.86), получаем X(/) = 0,5aa(z). Учитывая определение функции /(/) (11.82) и тот факт, что при увеличении времени наблюдения a(r)—>°°, нетрудно увидеть, что lim f (t)X (j) = a/N0 . Из данного выражения следует, что произведе- ние /(г)х(м)у0 является, по сути, блоком оценки амплитуды сиг- нала, т.е. Таким образом, при большом времени наблюдения и высокой точ- ности фильтрации имеем эквивалентное формуле (11.85) представление 1 Эз7/,Х,фо (^)) = V -п • (11.88) Nq оЛ где S (X,ф0 (/),/) = aS (Х,ф0 (/),/) — сигнальная функция при оценоч- ном значении фазы сигнала. Сопоставляя (11.88) с (11.80), видим, что структура эквивалент- ного дискриминатора не изменилась, но в два раза уменьшился коэффи- циент передачи дискриминатора. Это приводит к увеличению крутизны дискриминационной характеристики в 2 раза, а спектральной плотности шума на выходе дискриминатора в 4 раза. Однако величина спектраль- ной плотности эквивалентного шума, приведенного к оцениваемому параметру (см. (11.29)) не изменится. Следовательно, точность фильт- рации процесса X(z) также не изменится. Заметим, что данный вывод является справедливым лишь при большом отношении сигнал/шум или при t —> °° . 324
Рис. 11.8. Схема упрощенного алгоритма оптимальной фильтрации На рис. 11.8 приведена схема упрощенного алгоритма оптимальной фильтрации в условиях, когда сигнал имеет случайные амплитуду и начальную фазу. 11.5.4. Оптимальная фильтрация при переменных случайных неинформативных параметрах сигнала Если неинформативные параметры сигнала меняются во времени случайным образом, т.е. имеем ц(/), то выполнить усреднение уравне- ния Стратоновича для АПВ, как это было сделано в пп. 9.3, 9.4 для по- стоянных ц, в общем случае не удается. Поэтому можно использовать следующий приближенный подход. Прежде всего заметим, что в рас- смотренных в пп. 11.4.1, 11.4.2 задачах из усредненных уравнений Стратоновича вытекали алгоритмы фильтрации, в которых формирова- лись текущие оценки начальной фазы фо(/) и амплитуды а (г), кото- рые использовались в блоке фильтрации информативного параметра. Обобщая это положение на случай переменных неинформативных па- раметров, будем искать совместную оценку как информативных Х(/), так и неинформативных р(г) процессов. Такие оценки можно форми- ровать на основе рассмотрения совместной АПВ р (1, Р-|^о )» Для кото- рой можно записать уравнение Стратоновича, аналогичное (9.5). Отсю- 325
да следует, что оптимальными в гауссовском приближении алгоритма- ми фильтрации расширенного вектора v(/) = МО н(0 будут уравнения (11.14)—(11.15), записанные для данного вектора v (?). Пример 11.3. Рассмотрим задачу фильтрации процесса 1(/) при приеме реализации у (t) = a (t) А (X, t) cos (cooz+<р0 (t))+п (t), в которой неинформативные фаза <р0 (О и амплитуда a(z) являются случайными функциями. Определим модели данных процессов сле- дующим образом: «[5ф(')«ф(' + ’)] = ^/28(’); 01.89) 2 ^ = _CUj + ^+7^2’^(z)>A/[^(z)^(z+t)] = 1/28(t). (11.90) at а Модель (11.89) описывает случайные блуждания фазы в автогене- раторе, а модель (11.90) описывает флуктуации амплитуды сигнала с рэлеевским законом распределения мгновенных значений и шириной спектра ~ а (см. п. 2.5). Как и раньше, полагаем, что X(z) отображается в пространстве со- стояний вектором x(z), для которого, например, справедливо описание (11.52). При этом Х = сх. Введем расширенный вектор v(z) = x(z) <ф) Фо(') для которого запишем обобщенное уравнение формирования — = f(v)+Bn(z), где Т](/) = .f(v) = Fx aae -аа+—- , в= © О -О (11.91) 0 0* 0 1 326
0] — столбец, состоящий из нулей; 0* — строка, состоящая из нулей. Подставляя (11.91) в уравнения оптимальной фильтрации (11.14) и переходя от вектора v (z) к его компонентам, получаем — = Fi + Кх (t)ста-------(y{t)-dS^Q,t]Y (11.92) at ok ' v ^ = -aa+^-+^a(z)5(X,<po,z)(y(z)-a5(X,9o,z)J, (11.93) = -Kv (z)y(f)a4(V)sin(a\)/ + <p0), (11.94) где 5(X,<p0,z) = v4(X.,z)cos((DoZ + 90 (z)) —нормированная к амплитуде функция сигнала; Kx(z), Ka(t), — коэффициенты усиления соответствующих блоков, для которых можно записать необходимые соотношения на основе уравнений (11.15). При записи уравнений (11.92)—(11.94) учтен тот факт, что ввиду некоррелированности процессов x(z), a(z), фо (z) элементы матрицы взаимных дисперсий ошибок фильтрации равны нулю. В уравнениях (11.92)—(11.94) можно выделить дискриминаторы по каждой из оцениваемых компонент. В соответствии с определением (11.22) запишем “д<р(О = ^->'(')“л(^/)5“1(^+Фо)> мдх(<) —дискриминатор информативного процесса X; ида (t) —дис- криминатор амплитуды а ; нДф(0 —дискриминатор фазы <р0. На рис. 11.9 приведена схема оптимальной системы фильтрации. Из схемы и уравнений (11.92)—(11.94) видно, что в системе отсутствуют перекрестные связи между разнотипными дискриминаторами и оценка- ми параметров. Так, например, сигнал ил\ (z) с выхода дискриминатора для информативного параметра не участвует в формировании оценок 327
фазы и амплитуды и т.д. Это является следствием отмеченной выше некорелированности оцениваемых процессов. Рис. 11.9. Схема оптимальной системы фильтрации Характерной особенностью синтезированной системы является то, что оценки всех процессов х(/), ф0(/) формируются на основе следящих систем, в то время как в схеме рис. 11.8 оценки фазы и ампли- туды формируются по разомкнутой схеме. Использование методики оценки расширенного вектора состояния в гауссовском приближении в задачах фильтрации всегда приводит к следящим системам по всем оцениваемым процессам. 11.6. Оптимальная фильтрация информационных процессов в присутствии дополнительных узкополосных помех Многие РТС работают в условиях воздействия не только внутрен- него шума приемника, но и дополнительных внешних помех, например, индустриальных или помех других РТС, работающих в том же частот- ном диапазоне. В этом случае на вход приемника поступает аддитивная смесь y(t) = S(t,k)+S„(t)+n(t). (11.95) 328
Возможны различные описания помехового $„(/) сигнала. Если структура такого сигнала известна (например, это сигнал от связной радиостанции, использующей частотно-модулированные сигналы), то можно положить Sn (z,Xy), где Xу соответствует процессу частотной модуляции. Располагая характеристиками спектра частотной модуля- ции, можно для процесса Ху (z) выбрать гауссовскую марковскую мо- дель вида (11.52). Если информация о структуре сигнала отсутствует, то можно определить модель сигнала 5n(z) как узкополосный гауссов- ский случайный процесс с заданной функцией корреляции. Рассмотрим именно такую задачу. Пусть Sn (z) = cxn (z), а хп (z) описывается урав- нением dxn (z) - . , —Hb' = Anxn+Bn^n(z), at где £п (z) — БГШ с двусторонней спектральной плотностью N„/2 . Информационный процесс X(z) также будем описывать компонен- той многомерного марковского процесса x(z). Ставится задача: по принятой реализации (11.95) наилучшим обра- зом оценить процесс x(z). Запишем (11.95) с учетом представления ^п (0 ~ сп *п (0 • y(z) = S(z,cx)+cnxn (z) + zi(z). и обобщенный сигнал Введем расширенный вектор z(z) = хп 5(z,z) = 5(z,cx) + cxn(z). Тогда можно записать уравнения оптималь- ной фильтрации процесса г , которые имеют вид rfx ,,. , - = f(x,z) + 35(z,cx) dx Vo I + Dnn(z)cT (y(z)-5(z,cx)-Sn (z)), (11.96) t/xn , . “~7 Anxn "* at 329
2 М) D«„ 0) к dS(t, ci) Эх + Dxn ('К (Д0-5('>сх)-$п(г)], (11.97) где 5П (/) = схп (/); Dx, Dxx^, Dx^— матрицы дисперсий ошибок фильтрации информативного процесса х(г), взаимных дисперсий оши- бок фильтрации двух процессов и дисперсий ошибок фильтрации неин- формативного процесса хп (/) соответственно, для которых можно запи- сать матричные уравнения Риккати. В алгоритме (11.96)—(11.97) осуществляется оценка помехи 5П (г) и ее вычитание из наблюдаемой реализации. Поэтому такие алгоритмы получили название компенсационных. Если рассмотреть аналогичным образом случай помехи с частично известной структурой Sn ), то компенсационная сущность алгоритма остается, т.е. из сигнала необхо- димо вычитать оценку 5п(/) = 51Д/,Ху-j. При этом изменится второе слагаемое в квадратных скобках формул (11.96)-(11.97), где вместо ст pSn(z,cnxn)Y будет стоять ----------- 11.7. Оптимальная фильтрация при негауссовских помехах Рассмотрим задачу дискретной фильтрации процесса X* по наблю- дениям дискретной выборки yk = Sk(kk)+nk, где пк —некоррелиро- ванная шумовая последовательность. Плотность вероятности распреде- ления мгновенных значений задана р (пк) и может быть произвольной, в том числе и негауссовской. Из п. 11.3 следует, что в алгоритм оптимальной фильтрации (11.45)—(11.46) наблюдения входят через функцию Fk(kk), которая определяется через логарифм отношения правдоподобия р(У0* |х* |) как Fk (Х*) = 1п(р(у* |х*|))-In(р(У*4 |х*|)). 330
С другой стороны в п. 4.5.1 получены общие выражения (4.76)-(4.77) для Л* = 1п(р(у/ |**|)) при произвольной ПВ шума р(л^) в форме “ к / \ / \ (-1Y d' ) Aj-Ix/W. z,W=£Z 5 . zh - V—-V"--’- м ;.i 1 dyj Записывая аналогичные выражения для Л*_] и поставляя и А к-i, получаем Рк &к ) = Лк- Л*ч = z Zi (У к )S1. (И .98) »=1 Если сигнал достаточно слабый по сравнению с помехой, то в (11.98) можно ограничиться лишь первым членом, т.е. (1 1П Р ( У . PkM = fdyk)Sk, fdyk) =-----------— (11.99) dyj Подставим (11.99) в алгоритм оптимальной фильтрации (11.45), (11.46) и рассмотрим дискриминатор следящей системы (11.49) dPkft-k) и*к = = fi ^Ук (1 L 100) оЛ оЛ Из (11.98) следует, что дискриминатор, в отличие от (11.49), вклю- чает на входе дополнительный нелинейный блок, который преобразует входную реализацию Ук . Тип такого нелинейного преобразования опре- деляется видом ПВ р (пк ). Для гауссовской ПВ р(л*) имеем /](у*) = = Ук , т.е. нелинейное преобразование вырождается в линейное, а дискриминатор (11.97) переходит в дискриминатор (11.49) (без учета второго слагаемого, которым во многих радиотехнических задачах можно пренебречь). Контрольные вопросы к главе 11 1. Что такое гауссовское приближение в теории оптимальной нелинейной фильтрации? 2. Как определяется дискриминатор в структуре оптимальной в гауссов- ском приближении нелинейной системе фильтрации? 3. Чем определяется структура оптимального дискриминатора? 331
4. Чем определяется структура сглаживающего фильтра в структуре не- линейной системы фильтрации? 5. Каким образом и когда может быть использована теория оптимальной линейной фильтрации для синтеза сглаживающего фильтра нелиней- ной системы? 6. Что изменяется и как в структуре оптимальной системы фильтрации при решении задач приема сигнала на фоне гауссовской и негауссов- ской помех? 7. Что изменяется и как в структуре оптимальной системы фильтрации при решении задач приема сигнала на фоне коррелированной гауссов- ской помех по сравнению с задачей приема сигнала на фоне некорре- лированной гауссовской помехи? 8. Как изменяется структура оптимальной системы фильтрации при приеме сигнала неинформативной случайной фазой? 332
Глава 12 ОПТИМАЛЬНАЯ КОМПЛЕКСНАЯ ФИЛЬТРАЦИЯ В задачах фильтрации информационных процессов основным тре- бованием, как правило, является высокая точность фильтрации. Если выбрано описание фильтруемых процессов и определены наблюдения, т.е. выбраны соответствующие измерительные датчики, то применение теории оптимальной фильтрации приводит к наилучшим алгоритмам обработки сигналов измерительных датчиков, которые обеспечивают минимальное значение дисперсии ошибки фильтрации. В то же время проектировщику системы хотелось бы знать, каким образом можно до- биться дальнейшего повышения точности фильтрации. Понятно, что для этого надо повышать информативность наших наблюдений. Сделать это можно двумя способами. Первый способ заключается в использова- нии дополнительных датчиков одного и того же оцениваемого процесса. Причем эти датчики должны быть независимыми, так как в противном случае они не добавляют новой информации. Второй способ основан на использовании датчиков процессов, отличных от оцениваемого, но связанных с ним. Например, это могут быть измерители производных оцениваемого процесса. Теория комплексной фильтрации занимается именно такими задачами совместной фильтрации взаимосвязанных про- цессов, в том числе и тождественных, при наличии измерений от раз- личных датчиков. Синтез комплексной системы может быть выполнен с общих пози- ций теории оптимальной фильтрации. Для этого достаточно ввести обобщенный вектор измерений у (т), включив в него все наблюдения (измерения), полученные от различных датчиков. Далее синтез осу- ществляется на основе стандартных алгоритмов оптимальной фильтра- ции, рассмотренных в гл. 10—11. Рассмотрим примеры синтеза комплексных систем фильтрации. 12.1. Радиолокационный двухдиапазонный комплексный измеритель дальности Рассмотрим радиолокационную станцию, которая излучает в одном направлении сигналы в двух диапазонах частот, например, сантиметро- вом и миллиметровом. На вход приемника в этом случае также посту- пают два сигнала, потому имеем два наблюдения 333
yi(f) = 51(T3,/)+n1(z), Л/[и1(г)и1(/ + т)] = ^,/25(т); (12.1) y2(t) = S2(r3,t)+n2(t), М[и2(г)л2(7+т)] = ЛГ02/25(-г). (12.2) Примем следующую модель изменения дальности во времени т3 =2Я/с0 , = ^ = ^(0. Л/^(/)^ + т)] = 5^28(г), (12.3) dt at где со — скорость света. Введем вектор х = |Я К|т, для которого справедливо векторное уравнение — = Fx+G£(/), (12.4) dt (12.5) Определим вектор сигналов S(T3,r) = |S] (t3,z) S2(x3,/)|T, вектор шумов п = |л] п2|Т> векторное наблюдение у = |yt у2|т, Д®1 которого запишем выражение y(z) = S(T3,z)+n(z). (12.6) Подставляя (12.4)—(12.6) в (11.14), (11.17), получаем dt Ми dR + 2ыг (2R/c„ ,<)); (12.7) Nq2 dR v ' '' 334
— = Щ2~ dt 12 dR M)1 dR N02 — -/>22- dt 22 dD22 _ S\ dt 2 Э5| (27?/c0,/) ^(ЗД/срЛ) 2Рц,Е),2 dR Мл Э/? Nq2 _ 2D]\ (dS2(2R/c0,tyf 2D22 dR Мл dR x, <12-8> M)2 Схема оптимальной комплексной системы фильтрации приведена на рис. 12.1. Поскольку имеется два датчика сигналов (12.1), (12.2), то схема комплексной фильтрации содержит два дискриминатора задержки сиг- нала 2 д$1(т3д), , . AfOi <п3 (12’> N02 Следовательно, уравнения комплексной фильтрации (12.7) можно записать в виде 335
dR - 2D\ । , . 2D] ] , . ~17 = У +—«д| 0 +—«д2 (?) - dt с0 СО dV 2D\j z \ 2Di2 , — =------Ид1(?)+-±32-Ид2(?)- (121°) at c0 c0 Теперь введем для дискриминаторов (12.9) статистические эквива- ленты (11.23) и рассмотрим работу комплексной системы фильтрации при малых ошибках, лежащих в пределах линейных участков дискри- минационных характеристик, т.е. Мд1 = 5д1 ’ (”4 ~ "Ч ) + (=1 (?) > мд2 = ^д2 (Тз ~ ^з) + (г2 (?) > (12.11) где (/), д2 (?) — флуктуационные процессы на выходах дискрими- наторов, которые являются БГШ с двусторонними спектральными плотностями S^|/2 и 5^/2 соответственно. Подставляя (12.11) в (12.10), получаем ^ = к+^1[5д1.(л-л)+^1(о1+^1рД2(л-л)+^д2(г) at $ L 2 J [ 2 ^=^к1(л-л)+^1(/)]+^.рд2 (Л-Л)+^^(?) • dt Со L 2 J L 2 J (12.12) Уравнения (12.12) линейны относительно оцениваемых параметров и могут быть достаточно легко проанализированы. Рассмотрим уравнения для дисперсий (12.8). Как следует из (11.26), крутизны дискриминационных характеристик равны Подставляя (12.13) в (12.8), получаем ^-=2O|2-(s„+s,2)^l, at со at со <12-143 “? c0 Преобразуя уравнения (12.12), получим 336
f = Г + ^1[(5д,+5я2)Л + а;1(,)+а42(,)_(5д1+5я2)я = Ul Cq L z z c0 = (5д1 +5д2)Л+у<51 (/) + У’<52(/)“(5’д1 +5дг)^ = Ui Со L z z = 1ф.(5д1+5д2)[у(/)-я], (12-15) где 7(0=^+y;i(')+y;2 (О=л+й(О. й(/) = ^(/)+^2(/). (12.16) /ч , с^5с1/2 + 5,2/2 Спектральная плотность шума л(/) равна N^/2 = ———- —. 4 (Яд1+$д2) Из (11.27) следует, что /2 = 5д1, S&/Ъ = 5д2 . Поэтому можно записать 2 N-„/2 = ----5-----г. (12.17) 4(*д1+5д2) С учетом (12.17) уравнения комплексной фильтрации (12.14)—(12.15) при малых ошибках принимают вид ^ = Г + ^и-(у(/)-Л), ^- = ^2(у(/)-Л); (12.18) dt Na ' dt Nh k ' dD\\ op 2D|2] dD\2 _ ry 2Z>|1Z)12 = (12.19) dt 2 Na Уравнения (12.18)—(12.19) — это уравнения фильтра Калмана для фильтруемого процесса (12.3) и эквивалентных наблюдений (12.16). 12—2041 337
Таким образом, при малых ошибках фильтрации синтез и анализ комплексной системы фильтрации эквивалентен синтезу и анализу ли- нейного фильтра Калмана для эквивалентного линейного наблюдения (12.16). Такую задачу синтеза решить существенно проще, чем исход- ную нелинейную задачу. В частности, в установившемся режиме дис- персионные уравнения (12.19) имеют аналитическое решение А1уСТ=^Х^/4 , П|2уст= А^/4’ ^густ-^Т^Т4- (12’20) Из (12.17) следует, что при любых 5д1 >0 и Sa2 имеем ^/2 <-^- = ^/2 и ^/2<-^- = Уй2/2, 45Д1 45д2 где в правых частях неравенств стоят спектральные плотности шумов эквивалентных линейных наблюдений для задач синтеза автономных (однодиапазонных) радиолокационных измерителей дальности. Так как дисперсия ошибки фильтрации растет при увеличении спектральной плотности шума эквивалентных наблюдений (12.20), то дисперсия ошибки фильтрации в комплексном измерителе всегда меньше, чем в любом из автономных измерителей. Максимальный выигрыш в точно- сти фильтрации получается при 51д = 52д и равен 23у/4 = 1,68 раз по дисперсии ошибки филырации дальности. 12.2. Комплексный измеритель дальности и радиальной скорости В задачах радиолокации, радионавигации и радиоуправления при определении параметров движения подвижных объектов, как правило, определяют задержку сигнала и доплеровское смещение частоты, кото- рые пропорциональны соответственно дальности R и радиальной ско- рости сближения V . Так как скорость V является производной от дальности, то, располагая двумя датчиками (задержки сигнала т3 и до- плеровского смещения частоты (од ), можно ставить задачу синтеза ком- плексной системы филырации дальности и радиальной скорости. В отличие от рассмотренной ранее задачи, здесь различные датчики изме- ряют различные компоненты многомерного процесса — координату и ее производную. 338
матрицу с = такую, что X = сх, и восполь- Положим, что фильтрации по-прежнему подлежит вектор х = |7? И|т , который описывается векторным уравнением (12.4). В рассматриваемой задаче на входе приемника имеем реализацию у(г) = 5(т3,сод,/)+л(/), Л/[л(г)л(г + т)] = ^/25(т), где т3 = 2Я/с0 ; сод = 4яИ/Х0 ; Хо —длина волны несущего колебания. Если проводить полный синтез комплексной системы фильтрации (как это было сделано в п. 12.1), то необходимо ввести вектор 2/с0 О О 4л/Х0 зоваться аппаратом теории оптимальной нелинейной фильтрации. Од- нако, если нас интересует точность фильтрации при малых ошибках, лежащих в пределах линейных участков дискриминационных характе- ристик, то для синтеза и анализа линеаризованной системы можно вос- пользоваться более простой теорией линейной фильтрации. Для этого определим линеаризованные наблюдения (f) - R (t) + nR (/), М (/) nR (Z + ?)] = NR /2 5 (т); У2 (') = У (‘)+"v (0 > M[fiy (/ + т)] = Nvl^{z}; введем векторы у = |j\ у2 Г > п = |”1 ”2 Г и запишем наблюдения в век- 1 О О 1 ' Уравнения фильтра Калмана для рассматриваемой задачи линейной фильтрации имеют вид (->-) ^°11 - 2D, = D, 2Д*1£>*2 ^2^22 dt Nr Nv ’ dt Nr dP21_Si> 2P& 2D%2 dt 2 Nr Nv ' (12.21) (12.22) тором виде у(/) = Нх + п(/), где Н = (12.23) Nv (12.24) 339
В установившемся режиме (t -> °°) система дисперсионных урав- нений (12.24) преобразуется в систему алгебраических уравнений, кото- рая имеет следующее решение: n ]nrNv\\ + 2^} Ny М1УСТ= 2(1 + 7р) ’ ^УСТ = 2(1 + ^)’ Дук(1 + 2^) ^22уст ~ < Г\ ’ (12-25) 2(1 + ^) где р = Ny /s^Nft — безразмерный параметр. Как следует из (12.25), точность фильтрации зависит от соотноше- ния спектральных плотностей шумов в каналах измерения дальности и скорости (от величины р). При р »1, что соответствует, например, очень большому уровню шума в канале измерения скорости, из (12.25) получаем Alycr = , £>12yer = №r/4 , ^22 усг = . (12.26) Формулы (12.26) соответствуют дисперсиям ошибок фильтрации в автономном измерителе дальности (12.20). Таким образом, эффектив- ность комплексной системы фильтрации по сравнению с автономной возрастает с уменьшением интенсивности аддитивного шума в канале измерения скорости. При р «1, например, при малом уровне шума в канале измерения скорости, из (12.25) получаем О11уст“М^/4, D^-Ny/2, D22yCT = ^Ny/4 . (12.27) Точность измерения дальности в этом случае определяется только уровнем шумов в каналах измерения дальности и скорости и не зависит от спектральной плотности 5^ динамического возмущения (ускорения объекта). Подставляя (12.27) в уравнение для оценки дальности (12.23), полу- чаем = (12.28) at Nr ' ' 340
Из (12.28) видно, что при условии р«1 оценка скорости V не входит в уравнение для оценки дальности, т. е. фильтрация скорости в отдельном канале не является необходимой для фильтрации дальности, а в кольце слежения по дальности используется нефильтрованнное на- блюдение скорости у2 (t). Отсутствию наблюдения по дальности соответствует NR —> °° . При этом из соотношений (12.26) следует ^Нуст*4”- А 2 уст -Ny/l, £>22уст ~ y]S^NV/4 Таким образом, наблюдение только в канале скорости приводит к бесконечной дисперсии ошибки по дальности, в отличие от случая на- блюдения только в ка- нале дальности, когда дисперсии ошибок по обеим координатам ко- нечны. Схема оптимального линеаризованного ком- плексного фильтра при- ведена на рис. 12.2. Из схемы рис. 12.2 нетрудно получить схе- му реального комплекс- ного измерителя даль- Рис. 12.2. Схема оптимального линеаризованного ности и скорости (рис. комплексного фильтра 12.3), дополнив ее дискриминаторами дальности и доплеровской частоты: 2 Э5(т3,йд,/) “Д1‘ ’ (Я'М(ьА.'))’ Мд^'Д (Э(0дД В схеме рис. 12.3 пунктиром выделены фильтры измерения скоро- сти и дальности. Видно, что в оптимальной комплексной системе фильтрации есть перекрестные связи между каналами измерения даль- ности и скорости, как по выходам дискриминаторов, так и по форми- руемым оценкам координат R и V (оценка R вводится в канал изме- рения дальности). 341
Рис. 12.3. Схема нелинейного комплексной системы фильтрации дальности и скорости В ряде задач комплексирование по выходам дискриминаторов про- водить нецелесообразно, но целесообразно оставить перекрестные связи по формируемым оценкам координат. Такая ситуация характерна, на- пример, при комплексировании измерителей дальности и угловых координат. Оценим, к чему приводит отказ от комплексирования по выходам дискриминаторов в рассматриваемой задаче. В этом случае в уравнениях (12.23) необходимо положить = 0 . Запишем получающиеся уравне- ния фильтрации в виде ^ = И + ^(Л(/)-Л), ^ = ^2(у2(/)-й). at ' at ' ' Рассчитаем дисперсию ошибки фильтрации по дальности и скоро- сти в установившемся режиме j(0+ К2 2|jffl|2 2|j<o+*2|2 d(0 = St+NyK^ 4K2 2 j *1(>+*2) + *2> 2л i (j<0+^2)(j«>+^i) 2|jco+^i|2 2|(jco+K1)(jto+*2)|2 342
NrKi NvK2 Sk = +-------+-------------2- (12 29) 4 4^(*1+Я2) 4K}K2(Ki+K2Y ’ Найдем оптимальное значение K2, при котором дисперсия ошибки Dy измерения скорости минимальна. Из условия ЭЛ^/ЭК = 0 находим ^2опт = 7^/^ ’ Д110116?0®1 ошибки фильтрации скорости при опти- мальном значении Л?2опт равна £Vmin = А^/4 • (12.30) Оптимальное значение Л^1опт, минимизирующее дисперсию ошиб- ки измерения дальности, получается в общем случае достаточно гро- моздким. Поэтому рассмотрим частные случаи. При малом шуме в канале измерения скорости Nv —> 0 из соотно- _ NdKi Ny шения (12.29) получаем DR - 1 + . Оптимальное значение Х)опт равно АГ1опт =-jNy/NR . При этом дисперсия ошибки измерения дальности определяется как DRoaT=yjNRNy/4. (12.31) Соотношения (12.30), (12.31) совпадают с аналогичными соотно- шениями (12.27). Следовательно, при малых шумах в канале измерения скорости комплексирование по выходам дискриминаторов является не- существенным, так как не приводит к заметному увеличению точности фильтрации. Рассмотрим случай больших шумов в канале измерения скорости. Оптимальное значение К2опт ПРИ этом стремится к нулю, и из соотно- шения (12.29) получаем _nrk,^ UR ~--л-+--- 4 2К{ Оптимальное значение Я)опт в этом случае равно Х]ОПТ = = y^S^Ny /Nr Дисперсия ошибки измерения дальности при опти- мальных значениях К)опт и К2 опт определяется выражением ^опт=|(1232) 343
Из соотношений (12.30), (12.32) следует, что при большом шуме в канале измерения скорости дисперсии ошибок измерения дальности и скорости растут с увеличением Ny, в то время как в системе с ком- плексированием по выходам дискриминаторов дисперсии ошибок в обоих каналах не зависят от уровня шума в канале измерения скорости (12.26). Следовательно, при большом шуме в канале измерения скоро- сти целесообразно использовать систему с комплексированием по вы- ходам дискриминаторов. Оценим выигрыш в точности измерений дальности и скорости, ко- торый может быть получен в комплексной системе фильтрации. В каче- стве комплексного измерителя рассмотрим систему с комплексировани- ем, как по выходам дискриминаторов, так и по оценкам координат. Сравнение проведем с обычным измерителем дальности, который опи- сывается уравнениями (12.18)—(12.19), с установившимися значениями дисперсий ошибок фильтрации (12.20). Сопоставляя соотношения (12.20) с (12.26), (12.27), приходим к вы- воду, что при большом шуме в канале измерения скорости точность фильтрации дальности и скорости в комплексном и автономном изме- рителях совпадают. При малом шуме в канале измерения скорости точ- ность фильтрации координат в комплексном измерителе выше, чем в автономном. Величина выигрыша определяется соотношением о_ ^11 авт _ ^11 авт _ ZJ _ _ — ——— 5 ^11 компл ^Нкомпл V и выигрыш тем больше, чем меньше уровень шума в канале измерения скорости и чем больше интенсивность ускорения объекта и уровень шума в канале дальности. При типичных значениях NR = 6,5 м2с, Ny =0,01 mV1, 5^=7103 м2с3 получаем В = 200 раз. Сопоставляя данный выигрыш с выигрышем, который получается при комплексиро- вании двух датчиков одной и той же координаты (двухдиапазонный измеритель дальности, п. 12.1), видим, что комплексная обработка сиг- налов, полученных с двух датчиков различных компонент фильтруемого вектора состояния, в ряде ситуаций позволяет получить существенно больший выигрыш в точности фильтрации. 12.3. Модифицированный вариант комплексирования При комплексировании радиотехнических датчиков с нерадиотех- ническими (например, датчиками инерциальных навигационных сис- 344
тем) возможна ситуация, когда наблюдаемый процесс для радиотехни- ческого датчика имеет вид, аналогичный (12.1), т.е. У](/) = 5(Х,г)+я(г), Л/[л(/)и(г + т)] = ^/25(т), (12.33) где X (t) = сх (/) — фильтруемый процесс, отображаемый в пространстве со- стояний векторным МП x(z) (например, (12.4)), а наблюдения нерадиотехниче- ского датчика линейны относительно X (/), т.е. у2(0 = Х(т)+е(г), (12.34) где £ (г) — в общем случае коррелированный процесс, который в пространстве состояний также отображается e(z) = bz(z) некоторым марковским процес- сом z(f), описываемым уравнением f = F,z+G,5z (»), (<)« (< + Ч] = Q./2S(z). Выразим формально X(z) из (12.34) = (12.35) и подставим полученное выражение в (12.33) У1 (г) = S(y2 (t)-£,r)+«1 (/). (12.36) В (1236) входят наблюдения ух (/), у2 (t) и случайный процесс e(z) . Поэтому можно рассматривать задачу фильтрации процесса e(z) по заданным наблюдениям. Для решения данной задачи необходимо рассмотрел» АПВ P^z|1]q,У2о)> где J|Q,y2Q — реализации наблюдений (12.33), (12.34). Данная АПВ описывается уравнением Стратоновича (9.5), которое в данной задаче принимает следующий вид: ]dz р(м|1й,Г2{> + F(z,z)-jF(z,r)p(z,/|r1',K2' Z (12.37) 345
где F(z,f) — производная по времени от логарифма функции правдо- подобия (9.27), т.е. F(z,z) = ain^y^'lz)) dt Представим функцию правдоподобия р ( У]^ , Y2q |z ) в виде 7’(ilO’y2olz’) = p(}iolz’I2o)7’(^ol4 (12.38) Прежде всего отметим, что функция правдоподобия lz нелинейно зависит от параметра z. Из методики вывода алгоритма оп- тимальной фильтрации в гауссовском приближении (см. гл.9) следует, что функция F(z,r) разлагается в ряд в точке оценки z с удержанием конечного числа членов разложения. Поэтому для алгоритма оптималь- ной фильтрации наиболее существенным является тот из сомножителей в (12.38), который более быстро меняется при изменении z . Если дис- 2 ” Персия Е>дх = М (X (4) - X (4ч)) приращения процесса Х(г) за ма- лый интервал времени Д/ = много больше дисперсии = (е(4)-е(4-1))2 приращения процесса е(г), то при изменении z второй сомножитель в (12.38) меняется существенно медленнее пер- вого. Поэтому при синтезе алгоритма оптимальной фильтрации второй сомножитель можно считать константой, т.е. полагать |z>) ~ = с /л У|о|г,У2о),а функцию F(z,/) в (12.38) определять как Э1п F(z,/) =---- dt Тогда алгоритм оптимальной в гауссовском приближении фильтрации вектора z(r) записывается в виде di 2 fdS(y2(0-bz>z) Л #о 3z (yi(0-5(y2(0-bz,r)), (1239) = М 346
= FZDZ + DZFZT +|gzQzGz - __2_D fas(^2(Q-bz,f)Y ds(j>2(/)-bz,f)D No dz 3z z ' \ Сформировав оценку e(z) = bz(r), искомая оценка процесса X(r) опре- деляется из (1235) как Х(О = 3'2(О-е(0. (12.41) Модифицированный алгоритм комплексной фильтрации (12.39)- (12.419) является приближенным, тем не менее, при сделанных допущени- ях точность фильтрации процесса Х(г) ухудшается несущественно. Покажем это на примере. Пример 12.1. Рассмотрим задачу комплексирования радиодальномера и датчика линейной скорости (1222) инерциальной системы навигации. При этом для простоты рассмотрим линеаризованные наблюдения радиотехнического датчика вида (1221). Так как нерадиотехнический датчик измеряет не саму дальность, а первую производную дальности, то для использования методики модифицированного комплексирования проинтегрируем (1222) у2(/) = Я(г)+е(/), где dz/dt = = пу (г). Уравнение (1236) в рассматриваемой задаче принимает вид Л(0=>'2 0)-е(0+йл(/)’ а уравнения фильтрации (1239)—(12.40) конкретизируются как Т = -^-(Л (')-'))- (0-Л (<)-«) • 02.42) « «К NR dDz _ Ny 2DZ (12 43) dt 2 Nr ‘ В установившемся режиме уравнение (12.43) имеет решение ^еуст = \Jnv^r/4 Оценка дальности определяется в соответствии с (12.41) как R = у2 —£. Дисперсия ошибки такой оценки равна 347
dr=m (r-r)2 = М (у2 -£-(>-2-ё))2 = М [(е - е)2 j = • (12.44) Выражение (12.44) совпадает с (12.27), которое получено для опти- мальной комплексной системы фильтрации при малом значении Ny . А это как раз и означает, что дисперсия приращения e(z) за малый интер- вал времени Az, равная = Nyki/2, меньше дисперсии приращения дальности за тот же интервал времени. Заметим, что уравнение (12.42) можно представить в виде fi(E 2Dp I / \ Л\ где Узив (') = У2 (')-Л (0 = Е(0-«Л (') • (12-45) Следовательно, фильтр (12.42)—(12.43) является оптимальным фильтром для эквивалентного наблюдения (12.45), которое представля- ет собой линейную комбинацию исходных наблюдений. Конечно, для рассмотренной линейной задачи фильтрации эквивалентное наблюде- ние (12.45) можно было ввести сразу. Однако при этом оставался бы вопрос об оптимальности такого подхода. Из модифицированного ме- тода комплексирования эквивалентные наблюдения возникают из самой процедуры синтеза и не требуют дополнительного обоснования. При использовании же нелинеаризованного радиотехнического датчика вве- дение эквивалентного наблюдения эвристически весьма затруднитель- но, в то время как модифицированный метод комплексирования дает общий подход в форме уравнения (12.39). Отметим еще одно достоинство модифицированного метода ком- плексирования. В рассмотренной задаче оптимальная система фильтра- ции включает одно дифференциальное уравнение (12.42), т.е. следящую систему 1-го порядка, и одно алгебраическое уравнение (12.41), в то время как в оптимальной системе получаем два дифференциальных уравнения (12.23), т.е. следящую систему 2-го порядка. Следовательно, модифицированный метод комплексирования позволяет получить бо- лее простую систему фильтрации, что важно для практических прило- жений. 348
В заключение отметим, что модифицированный метод компле- ксирования в дискретном времени описан, например, в [13]. Контрольные вопросы к главе 12 1. Что понимается под комплексной фильтрацией? 2. Что будет происходить в двухдиапазонном комплексном измерителе дальности при отключении одного из дискриминаторов? 3. При каких условиях в комплексном измерителе дальности и скорости объекта можно отказаться от использования перекрестных связей между выходами дискриминаторов? 4. При каких условиях можно использовать модифицированный метод комплексирования ? 349
Глава 13 АДАПТИВНАЯ ФИЛЬТРАЦИЯ СООБЩЕНИЙ 13.1. Постановка задачи адаптивной фильтрации В предыдущих главах рассматривались задачи синтеза оптималь- ных систем фильтрации в условиях, когда известны статистические ха- рактеристики информационных процессов (сообщений). Такая стати- стическая определенность задавалась в форме дифференциальных урав- нений (например (9.2)) с известными параметрами. Данная априорная информация определяет оптимальные значения параметров синтезиро- ванных систем, что позволяет достигнуть высокой точности фильтра- ции. Однако во многих приложениях РТС работают в условиях сущест- венной априорной неопределенности, связанной с неопределенностью статистического описания фильтруемых процессов. Так, например, в системах связи громкость передаваемой речи и ее спектральные харак- теристики могут меняться в широких пределах; в задачах радиолокации характеристики маневра цели (интенсивность и время корреляции) так- же могут быть различными. В этих случаях определить заранее (ап- риорно) характеристики фильтруемых процессов невозможно, а, следо- вательно, невозможно и выбрать оптимальные значения параметров системы фильтрации. Таким образом, возникает проблема априорной неопределенности условий работы РТС. Существуют различные подходы к построению следящих измери- телей при априорной неопределенности условий их работы [4, 5, 10]. Один из них состоит в том, чтобы оптимизировать структуру и пара- метры приемника для наиболее сложных условий (интенсивное и широ- кополосное сообщение, малое отношение сигнал/шум и др.). При таком (минимаксном) подходе достигается минимум ошибок фильтрации, ко- гда эти ошибки максимальны. Построенные на его основе системы при более благоприятных условиях работы (меньшая интенсивность сооб- щения, меньший уровень шумов) оказываются неоптимальными. В ряде случаев это может быть вполне приемлемо, так как сами ошибки при более легких условиях работы относительно малы. Минимаксный под- ход прост, он позволяет использовать системы с неперестраиваемыми параметрами и ограничивать величину максимальных ошибок фильтра- ции. Поэтому он получил определенное распространение на практике. Для построения приемников в том случае может использоваться теория оптимальной фильтрации и результаты, приведенные в предыдущих 350
главах. Однако с учетом растущих требований к точности фильтрации он может оказаться недостаточным, так как не обеспечивает минимиза- цию ошибок для всех условий работы системы. Еще один способ преодоления априорной неопределенности стати- стических характеристик сообщения состоит в построении измерителей, инвариантных к этим характеристикам, т. е. не зависящих от них. При- емник, инвариантный к статистическим характеристикам сообщения, можно построить на базе комплексной системы фильтрации (см., на- пример, п. 12.2), имеющей два или большее число входов, на которые в смеси с помехами поступает сообщение. Инвариантность системы к характеристикам оцениваемого процесса в этом случае достигается пу- тем соответствующей обработки входных сигналов и исключения дина- мических ошибок воспроизведения сообщения. Отмечая достоинства инвариантных систем, необходимо учитывать, что при известных статистических характеристиках сообщения резуль- тирующая точность фильтрации в инвариантном фильтре хуже, чем в оптимальном, построенном с учетом знания этих характеристик. Следо- вательно, платой за инвариантность фильтра является увеличение оши- бок фильтрации в нем при известных статистических характеристиках сообщения. Наиболее перспективным к построению следящих измерителей в условиях априорной неопределенности является адаптивный подход. В адаптивных (приспосабливающих) системах априорная неопределен- ность статистических характеристик сообщений преодолевается оцени- ванием их в процессе работы системы и использованием полученной информации для оптимизации ее параметров. Часто неопределенность характеристик сообщения может быть сведена к неопределенности не- которых параметров принятой модели сообщения, например дисперсии и(или) ширины спектра отдельных компонент, спектральной плотности формирующих шумов на нулевой частоте и др. В этом случае говорят о параметрической априорной неопределенности. В дальнейшем будем рассматривать именно такой тип априорной неопределенности. Поэтому сформулируем постановку задачи более подробно. Пусть на вход приемника поступает реализация y(r) = 5(t,X(z,a))+w(/), (13.1) где X(z,a) —фильтруемый процесс, зависящий от вектора а неизвест- ных параметров, которые будем полагать случайными величинами с заданной плотностью вероятности рар (а); задание а в виде случай- 351
ных величин предполагает их постоянство за время наблюдения, что математически может быть записано как ^ = 0, а(О) = ао, at где а0 — случайная величина. Процесс Х(г,ос) в пространстве состояний зададим вектором х(/,а),такчто X(z,a) = cx(z,a) и ^ = F(z,a)x+G(z,a)^(z), x(z0) = x0, (13.2) at где ^(/) — т -мерный вектор БГШ с корреляционной матрицей R^(T) = S^(a)/28(t). Если наблюдения линейно зависят от вектора x(z,a), то имеем y(z) = H(z)x(z,a)+w(z). (13.3) Заметим, что в (13.1), (13.3) характеристики шума л(/) полагаются известными. Задача синтеза оптимальной системы фильтрации, по-прежнему, заключается в нахождении оценки x(z) с минимальной ошибкой фильт- рации. 13.2. Показатели качества адаптивных систем фильтрации Точность фильтрации. Адаптивные системы фильтрации предна- значены для оценки меняющихся во времени сообщений в условиях априорной неопределенности их статистических характеристик. Основ- ным показателем качества их работы является точность фильтрации. При описании сообщений случайными процессами точность фильтра- ции характеризуется дисперсией ошибки фильтрации или среднеквад- ратической ошибкой, которая для скалярного сообщения определяется выражением Среднеквадратическое значение ошибки фильтрации зависит от ис- тинных значений неизвестных параметров а сообщений, их оценок a, 352
формируемых в синтезированной системе и ряда других факторов. Оценка й параметров сообщения, вырабатываемая адаптивной систе- мой, изменяется в процессе ее работы. Соответственно изменяется и точность фильтрации сообщения. Для определения точности фильтра- ции сообщения в адаптивном фильтре в переходном режиме, как прави- ло, прибегают к моделированию на ЭВМ. Наряду с оценкой текущей точности фильтрации, полезным для по- лучения представления о возможностях адаптивных систем является определение предельной точности фильтрации в таких системах. Пре- дельная точность фильтрации достигается, когда оценки d параметров фильтруемого процесса совпадают с истинными значениями а. Задача определения предельной точности фильтрации в адаптивной системе является сравнительно несложной и решается путем его ана- лиза в установившемся режиме известными методами радиоавтоматики [3]. Для линейной модели сообщения (13.3) с известными статистиче- скими характеристиками и наблюдений (13.4) при оптимальной струк- туре системы фильтрации в форме фильтра Калмана предельная точ- ность фильтрации определяется дисперсионными уравнениями Риккати (см.гл. 10). Найденная таким образом предельная точность фильтрации сообщения определяет не только потенциальные возможности адаптив- ного измерителя, но и его реальные возможности при высокой точности адаптации. Выигрыш в точности фильтрации. Важным показателем каче- ства работы адаптивных измерителей является выигрыш в точности фильтрации, который может быть получен при их использовании. Ко- личественно оценить его можно величиной В , равной отношению сред- неквадратических значений ошибок фильтрации в неадаптивной и адап- тивной системах *=/% <1з-4) где DH, Da —дисперсии ошибок фильтрации сообщения в адаптивной и неадаптивной системе соответственно. Знание среднеквадратических значений ошибок фильтрации в адап- тивных системах и выигрыша в точности фильтрации, который обеспе- чивается их применением, дает достаточно полное представление об эффективности использования таких систем. Предельный выигрыш в точности фильтрации получается, если в (13.4) под Da понимать предельную точность фильтрации в адаптивной 353
системе, т.е. такую точность, которая получается при точной адаптации в установившемся режиме. Поясним это на примере. Пример 13.1. Рассмотрим задачу фильтрации дальности до цели, изменение которой во времени задается уравнениями f-у. w[«»R0+’)]=fs«. (13.5) Пусть неизвестным параметром является спектральная плотность 5^ формирующего шума. Наблюдается аддитивная смесь у(г) = Л(/)+л(г), Л/[л(/)л(/ + т)] = -у-5(т). (13.6) Если параметр известен, то оптимальная система фильтрации описывается уравнениями ^ = Р+^1(у-Л), = dt Nq v ' dt No v 7 2д121 ^2 2Al^l2 dt Nq ’ dt 22 No dD22 2Д& dt ~ 2 No ’ где Dy, i,j = 1,2 —элементы матрицы дисперсий ошибок фильтрации. Система уравнений (13.8) в установившемся режиме имеет решение ^11,уст ~ > 2^12, уст = > (13.7) (13.8) По определению предельной точности фильтрации в адаптивной системе полагается, что оценка неизвестного параметра (в данном слу- чае ) в установившемся режиме совпадает с истинным значением, т.е. = 5^. Следовательно, при идеальной адаптации в адаптивной сис- теме в установившемся режиме точность фильтрации будет опреде- ляться выражениями (13.9), в частности для дисперсии ошибки оценки дальности имеем 354
^11,уст • (13.10) В неадаптивной системе фильтрации будем применять алгоритм (13.7), в котором используется некоторое априорно заданное значение 5^, отличное от истинного значения 5^. Следовательно, в фильтре (13.7) используются коэффициенты усиления ^=^и'=Д¥=^’ (1з-н) М) V No у No На вход неадаптивного фильтра (13.7) с параметрами (13.11) посту- пает реализация (13.6), в которой оцениваемый процесс R(t) соответст- вует истинному значению 5^. Рассчитаем дисперсию ошибки фильтра- ции в установившемся режиме в неадаптивном фильтре 7 2 О) (jco)2+l<i jco+^2 2(jco)2|2 2 К\ jtO+1^2 Nq (jo)}2 + jCO+^2 2 d<o = +Дц*!2 + K2 ) =-- 4К2К\ 1 2) (13.12) Подставляя в (13.5) выражения (13.10) и (13.12), получаем В = 1(х3/4+Зх~|/4)1/2, х = |Д (13.13) Как следует из (13.13) предельный выигрыш в точности фильтрации зависит только от отношения спектральных плотностей в адаптивном и неадаптивном фильтрах и не зависит от спектральной плотности адди- тивного шума. Для получения количественных оценок выигрыша в точности фильт- рации положи диапазон неопределенности по 5^ =0,5...20000 м2с’3, что примерно соответствует интенсивности ускорения цели а = 0,5... 100 м/с2. 355
Рис. 13.1. Зависимость выигрыша в точности фильтрации от х при 5^ = 0,5 м2с'3 цию, когда неадаптивный фильтр Рассмотрим две ситуации. Сна- чала положим, что неадаптивный фильтр настроен на минималь- ное ускорение, т.е. 5^ =0,5 м2с‘3. График зависимости выигрыша в точности фильтрации от х при- веден на рис. 13.1. Из графика следует, что при такой настройке неадаптивного фильтра выигрыш в точности фильтрации в адаптивном фильт- ре может достигать 6 раз при ин- тенсивном ускорении цели. Рассмотрим теперь ситуа- настроен на максимальную ин- тенсивность маневра цели, т.е. =20000 м2с’3. График зависимости Рис. 13.2. Зависимость выигрыша в точности фильтрации от х при 5^ = 20000 м2с3 выигрыша от расстройки х в этом случае приведен на рис. 13.2. Для такой настройки неадап- тивного фильтра величина пре- дельного выигрыша у адаптив- ного фильтра не превышает 2 раз. Следовательно, неадаптив- ный фильтр целесообразно на- страивать на максимальное зна- чение маневра цели, т.е. по принципу минимакса. Если к системе предъявля- ются требования не только ус- пешного выделения сообщения, но и определения характеристик сообщения для их последующей идентификации, то показателем каче- ства работы системы является также точность оценок априорно неиз- вестных характеристик сообщения. Точность фильтрации сообщения и выигрыш в точности фильтра- ции, обеспечиваемый применением адаптивных систем, являются ре- зультирующими (итоговыми) показателями качества работы таких уст- ройств. Определение этих показателей в переходном режиме, а также в 356
условиях, когда не гарантирована высокая точность адаптации, как пра- вило, требует проведения моделирования на ЭВМ всей системы фильт- рации и поступающих на нее воздействий. Сходимость процесса адаптации. Это необходимое условие ус- пешной работы адаптивной системы. Если алгоритм адаптации обла- дает этим свойством, то оценки характеристик сообщения, вырабаты- ваемые фильтром в процессе адаптации, сходятся к истинным значе- ниям этих характеристик. Если в адаптивной системе адаптация прово- дится не к параметрам сообщения, а в результате подстройки некото- рого «интегрированного» параметра системы, например, полосы про- пускания, то процесс адаптации является сходящимся, когда значение этого интегрированного параметра сходится к оптимальному, которое соответствует выбранному для подстройки критерию качества. Иссле- дования показывают [3], что не все алгоритмы адаптации удовлетво- ряют требованию сходимости. Поэтому определение сходимости про- цесса адаптации — один из важных этапов анализа таких адаптивных измерителей. Время адаптации. Пока процесс адаптации не завершен, исполь- зуемые в системе оценки неизвестных параметров сообщения даже при сходящемся алгоритме адаптации значительно отличаются от истинных значений. Это приводит к увеличению ошибок фильтрации. Поэтому важно, чтобы время адаптации было достаточно малым. Если характе- ристики сообщения постоянны во времени, то необходимо, чтобы время адаптации было значительно меньше общей продолжительности работы системы, так как только при этом условии адаптация может дать суще- ственный эффект. Особенно важно сокращение времени адаптации, ес- ли характеристики сообщения изменяются во времени. При малом вре- мени адаптации адаптивная система успевает следить за изменением характеристик сообщения и обеспечивается высокая точность фильтра- ции. В противном случае, когда время адаптации велико, эффективная адаптация не происходит. Точность адаптации. Если неизвестные параметры сообщения по- стоянны во времени, то в адаптивных системах со сходящимся процес- сом адаптации ошибки оценивания этих параметров можно сделать в установившемся режиме равными нулю. При изменяющихся во времени параметров сообщения ошибки их оценивания даже в установившемся режиме не равны нулю, что определяется наличием шумов и динамикой изменения данных параметров. При этом возникает необходимость оце- 357
нить эти ошибки, так как высокая точность фильтрации сообщения дос- тигается, если точность адаптации также достаточно высока. Чувствительность адаптивных измерителей. Еще одним важ- ным показателем качества работы адаптивных систем является их чув- ствительность к изменению условий работы по сравнению с принятыми при их синтезе. Значительный интерес представляет, в частности, чув- ствительность адаптивной системы к изменению характера (модели) сообщения. Описание сообщения марковским процессом невысокого порядка в ряде задач является приближенным. Так, например, прибли- женным является описание ускорения подвижного объекта одномерным марковским процессом. Важно поэтому проанализировать работу адап- тивных систем и такие их показатели, как точность и выигрыш в точно- сти фильтрации, сходимость и время адаптации при отличии модели формирования сообщения от расчетной. При оценке возможностей адаптивных систем, адаптирующихся к неопределенности характеристик сообщения, важную роль играет также их чувствительность к изменению уровня шума (если в фильтре не пре- дусмотрена соответствующая адаптация), изменению крутизны дискри- минатора и других параметров заданной части измерителя. 13.3. Общее решение задачи адаптивной фильтрации В гл. 3 описаны основы теории статистических решений, которая определяет идеологию построения оптимальных систем. В соответствии с данной теорией оптимальное решение ищется в результате минимиза- ции среднего риска (3.6). В сформулированной выше задаче адаптивной фильтрации риск (3.6) будет зависеть от вектора случайных параметров а, а, следовательно, также будет случайной величиной. Следуя мето- дологии теории статистических решений, в этом случае необходимо провести дополнительное усреднение риска по ПВ параметров а, т.е. рассмотреть средний риск вида г(ц) = JJJc(x(a),u(y))p(x,a,y)4faZyJa. (13.14) Под оптимальной оценкой х(г) в задачах адаптивной фильтрации будем понимать такую оценку, которая минимизирует средний риск (13.14). Принимая в качестве функции потерь c(x(a),u(y)) квадратичную (3.1), получаем (см. гл.З), что оптимальной оценкой, минимизирующей средний риск (13.14), является оценка условного среднего 358
®max 00 / I \ i(/)= J J x(a)p(x,a|y0')A^a, (13.15) “mm ~~ где p^x,a|yj j —совместная АПВ распределения значений фильтруе- мого процесса х и случайных параметров a. Уравнение Стратоновича для АПВ р(х,а|у0') приведено в гл. 9 (см. (9.49)). Используя формулу Байеса для совместной АПВ р(х,а|Уо), фор- мулу (13.16) можно представить в виде ®пих 00 / I \ x(r)= J J x(a)plx,a yj \dida- ®min = J J х(а)/>(х|у0\а)р(а|у0'рх</а= J х(а)р(а|у0')</а, (13.16) ®пмп ~00 ®min где х(а)= / х(а)/?(х|у0',арх (13.17) — условная оптимальная оценка вектора х при фиксированном значе- нии а. Условная оценка х(а) определяется для условной ПВ р(х|Уо,а), интегро-дифференциальное уравнение для которой приведено в гл. 9, формула (9.59). Данная ПВ соответствует процессу (13.2) с известным значением а, т.е. процессу с известными статистическими характери- стиками. Поэтому для оценки х(а) можно записать уравнения опти- мальной фильтрации (11.14), (11.17) в случае нелинейных наблюдений (13.1) или уравнением фильтра Калмана (10.14)-(10.16) для линейных наблюдений (13.3). Рассмотрим для простоты случай линейных наблю- дений и запишем ^^ = F(/,a)x(a)+K(r,a)(y(z)-H(r)x(a)), х(О) = хо, (13.18) dt K(z,a) = Dx(/,a)HT(r)2A^1, (13.19) 359
~= F(?,a)Dx (a)+Dx (a)F(z,a)+iG(z,a)S^ (a)GT (t,a)- Dx(O) = DXo. (13.20) В гл. 9 получены выражения (9.58)—(9.59) для АПВ p(a|lo j неиз- вестных параметров, которые перепишем для рассматриваемой задачи в виде t ехрПг(а,т)</т^(¥,(а) О оо t J ехрКг(а,т)«/т pap(a)da [о где F(a,r) = jF(x(a),r)p(x|y0,,a)jx; X (13.21) (13.22) F(x(a),l) = (H(/)x(a))T2A^1(y(/)-0,5H(/)x(a)). (13.23) Условная ПВ p(x|lo,a) для рассматриваемой линейной задачи га- уссовская, что позволяет выполнить усреднение в (13.22) в явном виде F(a,r) =/Н(г)х(а)2Уо' (у(г)-О.5Н(/)х(а))р(х|Уо,арх = X = Н(г)х(а)(у(/)-0,5Н(/)х(а))-0,5Тг[вх (а)Нт (/)Н(г)] ,(13.24) где Тг [*] — обозначает след матрицы. Для нелинейных наблюдений (13.1) можно воспользоваться стан- дартной методикой (см. гл. 11) разложения нелинейной функции s(cTx(a),rj в ряд по степеням разности (х-х(а)) с удержанием ли- нейных членов разложения. В этом случае для F (a, t) получается при- ближенное выражение F(a,z) = 5(cTx(a),r)2A^1 (y(/)-0,5S(cTx(a),t))- 360
-0,57г Вх (а) Э5^стх(а),г Эх 2У0~’ (13.25) Соотношения (13.16), (13.18)—(13.21) дают общее решение задачи адаптивной фильтрации. Дальнейшая их конкретизация сводится, прак- тически, к тому, как трактовать формулу (13.16). При этом различают два принципиально разных подхода, которые подробно рассматрива- ются ниже. 13.4. Многоканальные адаптивные системы фильтрации Практическая реализация адаптивного алгоритма фильтрации (13.16), (13.18)—(13.21) возможна в следующей форме. Дискретизи- руем область возможных значений параметров а, т.е. полагаем, что а может принимать дискретные значения a,, i = l,M из заданной области. Интеграл в (13.16) при этом заменяется суммой, и выражение для оптимальной оценки принимает вид х = £х(а,)р(а,|Уо)> (13.26) где p[a.j |Уо j — апостериорная вероятность значения а = а,. При дискретизации возможных значений вектора а выражение (13.21) переходит в соотношение |г0')= t ехр. jF(a,,T)<Mpe/,(a,) о м Хехр 1=1 ^ар (®Ч) .о в котором Рар (а,) — априорные вероятности значений <х = а(. Алгоритм (13.26) определяет структуру многоканальной адаптив- ной системы (рис. 13.3). Она содержит набор фильтров, каждый из ко- торых рассчитан на оптимальное выделение информационного процесса с параметром a = а(, вычислитель апостериорных вероятностей, пере- множители и сумматор. В процессе работы системы условные оценки 361
х (a,), формируемые на выходах канальных фильтров, умножаются на вероятности Р^а, |Уо j и суммируются, образуя выходную оптималь- ную оценку х. С течением времени апостериорная вероятность того значения а,, которое наиболее близко к истинному значению а, стре- мится к единице, а вероятности остальных ctj убывают до нуля. По- этому после завершения процесса адаптации из всех канальных фильт- ров оказывается “включенным” лишь тот фильтр, параметры которого соответствуют характеристикам принимаемого информационного про- цесса. Рис. 13.3. Схема многоканальной адаптивной системы В многоканальной системе формируется вся АПВ /да, |yoz j неиз- вестных параметров, а условные оценки х (а,) фильтруемого процесса усредняются по этой АПВ. Поэтому данный метод относится к инте- гральным методам адаптации. Процесс адаптации здесь заключается в перестройке апостериорных вероятностей Р^а, |Iq j. Многоканальный адаптивный фильтр в задаче дискретной фильтрации. В задаче дискретной фильтрации полагается, что фильт- руемый процесс задается уравнением (для простоты изложения взята линейная модель сообщения) Ч («) = ®*-1 («)**-!(a)+Qi-i(«)§*-!, х(г0) = х0, (13.27) 362
где — векторный ДБГШ с матрицей дисперсий (а). Наблюдения также будем считать линейными и т -мерными Ук =Н*_1Х*_1(а)+пА_], Л/[п^Пу] = D„8jy . (13.28) Так как соотношения (13.14)—(13.17) являются общими и не зави- сят от того, в непрерывном или дискретном времени сформулирована задача фильтрации, то можно записать выражение для оптимальной оценки сообщения в виде, аналогичном (13.16): хА = J ik (а)р(а|г0* ра, (13.29) ^min где ik (а) — условная оценка сообщения, определяемая уравнениями фильтра Калмана при фиксированном значении а, *к (а) = Ч (“)+К* («)(у* (а)), (13.30) Ч(а)=гл-1(а)ч-](а), <13-31) Kja) = Dx A.(a)HlD;1 =Ds.A(a)H^(H^D(a)xAH,+Dny1, (13.32) ОхЛ (а) = F*-i (a)Dx,*-i (<*№-1 (a)+Gjt-i («)D^ («)G*-i (а), (13.33) DSa («) = ЙхЛ (а)+ H*-lD"Hbl или ОхЛ («) = (I - Кк (а)Щ_1 )DM (а). (13.34) Уравнение для АПВ р (а|У0* ), полученное в п. 9.5 (формула (9.44), запишем в виде / I м р(Ук |yo’1,«)p(«|yo"1) / I 0\ HalY° )= - ' . , '(+» )="» <13.35) J Р^к |*о ,a)p(a|Y0* 1 )<*a Как и в случае непрерывного времени, для получения практически реализуемой системы область возможных значений параметров а ди- секретизируем, что приводит к замене в (13.29) интегрирования на сум- мирование, а ПВ заменяется на соответствующие вероятности i* = hk(^p(at|r0*). <13-36> 363
Для апостериорных вероятностей значений неизвестных параметров можно записать выражение, аналогичное (13.35), / । м /’(yJYo"1.a,)p(a/|Yot“1) |Yo-l.a, Р(а,-1Yo° ) = Pap (a,-), i = 1,M . (13.37) Рассмотрим ПВ р(у* |Yq_1,(X( ). Как следует из (13.27)—(13.28), при фиксированном значении данная ПВ а, является гауссовской с МО и матрицей дисперсий м (у*-Н*х*(а,))(у*-НАх*(а,))т|%^ ',а, Таким образом, можно записать р(Ук |Yo '-«,) = (13.38) — Hj-Dj (a, )Н* + D„. (13.39) expj-|(y*-Н*х4(а,))т(н*Ох>*(а,)Н^ +D„) ‘(у*-Н*х*(а,) / - \1 т/2 2ndet^H(tDx (а,- )Нд. +Dn j I Уравнения (13.30)—(13.34), (13.36)—(13.39) полностью определяют алгоритм адаптивной многоканальной фильтрации. Приведем пример работы многоканальной адаптивной системы. Пример 13.2. Рассмотрим задачу адаптивной фильтрации даль- ности до цели в дискретном времени. Положим, что изменение дальности описывается уравнениями (13.27), в которых х = |Д И|т, а матрицы 1 Td 1 0 , где Tj — шаг временной дискретизации; = 1. Наблюдаемый процесс (13.28) в данной задаче скалярный, а мат- рица наблюдений равна Н = |1 0|. В качестве неизвестного параметра 364
определим интенсивность ускорения цели оа. Для синтеза многока- нальной системы полагаем, что <за принимает дискретные значения аа>(, i = 1,М . Оптимальная оценка процесса х^ определяется соотношением i(*)=Li(fc,oaJp(oa>Jy0* )• где ) — условная оценка фильтруемого процесса при фиксиро- ванном значении параметра оа ,•, которая описывается уравнениями &к ~ ^к (&a,i)К\к (®a,i)(Ук ~^к ’ ^к (Pa,i) — (®a,i ) + (®a,i )(Zt ~ ^к (®a,i ) > ^к {^a,i ) = ^к-\ (®a,i)"*" ^d^k-l (®a,i )» K\k (®a,i ) = A1 (®a,i )/' &n > &2k (^a,i) = М2 (°a,; )/-Mi • Уравнения для дисперсий ошибок фильтрации Dy, i,j = 1,2 приве- дены в (10.75)—(10.76). Апостериорные вероятности значения интен- сивности ускорения определяются рекуррентными соотношениями ш/, u ?/ i~A £P К; #-’)р ',<V7) 7=1 p(aa,/|r0()) = ^K,,)=^. 1 = где условная одношаговая функция правдоподобия в соответствии с (13.39) дается формулой (л ~&к (ста,<)) 2 (М> + М l,k (°а,1 )) Схема многоканального адаптивного измерителя дальности приве- дена на рис. 13.4. В данной схеме апостериорные вероятности р[ва i значений интенсивности ускорения формируются отдель- ными блоками, а перекрестные связи между блоками реализуют их 365 Р( У к |io '. ^ad ) = , 1 --exp ' 1 А/2л(Рл+Л11Л(аа.,))
нормировку, так что £ 1Yo ) = 1 • Если в результате адаптации некоторая j |z* j —> 1, то остальные апостериорные вероятности стремятся к нулю. Рис. 13.4. Схема многоканального адаптивного измерителя дальности Рассмотрим характеристики многоканального адаптивного фильтра. Положим 7?(0)-50 км, К(0) = - 500 мс1, Td = 0,02 с, Dn = 10/7^ м2, М =3, аа j =0,707 мс 2, аа2 = 10 мс 2, оа3 =50 мс 2. Положим также, что априорные вероятности возможных значений интенсивности ус- корения равны, т.е. Рар ) = 1/3, i = 1,3. На рис. 13.5 приведены усредненные по 1000 реализациям зависи- мости апостериорных вероятностей для различных истинных значений интенсивности ускорения цели, из которых видно, что многоканальный измеритель успешно адаптируется к априорно неизвестной интенсивно- сти маневра цели. При этом время адаптации к слабому маневру (оо <10мс'2) составляет 4...6 с, а к интенсивному маневру цели — 2...4 с. 366
в) Рис. 13.5. Зависимости апостериорных вероятностей значений неизвестных параметров для истинных значений интенсивности ускорения цели: а — <за= 0,707 мс'2, б — аа = 10 мс'2, в — аа = 50 мс'2 На рис. 13.6 сплошными линиями приведены зависимости средне- квадратических ошибок (СКО) измерения дальности (в метрах) для тех же значений интенсивности ускорения цели, что и выше, а штриховыми линиями — зависимости СКО в неадаптивной системе, настроенной на максимальную интенсивность маневра цели оа = 50 мс'2. Из сопоставления зависимостей, приведенных на рис. 13.6, а сле- дует, что выигрыш по СКО измерения дальности при слабой интенсив- ности маневра (оа =0,707 мс’2) составляет 2,2 раза, что соответствует теоретической оценке, приведенной в п. 13.2. При увеличении интен- сивности маневра цели величина выигрыша уменьшается (рис. 13.6, б)), а при равенстве истинной интенсивности маневра той, на которую на- строена неадаптивная система (рис. 13.6, в)), выигрыш отсутствует. 367
Рис. 13.6. Зависимости CKO оценки дальности для истинных значений интенсивности ускорения цели: а — оа = 0,707 мс’, б — <5а = 10 мс'2, в— оа = 50 мс'2 13.5. Алгоритмы скользящей адаптации 13.5.1. Общее решение задачи по методу скользящей адаптации Рассмотренные многоканальные адаптивные системы фильтрации достаточно сложны для практической реализации. Для построения более простых адаптивных систем можно использовать следующее обстоятель- ство. При большом отношении сигнал/шум, а также при большом време- ни наблюдения АПВ p(a|yj j вектора а, описывающего неизвестные статистические характеристики, является достаточно узкой по сравне- нию с априорной плотностью распределения этих параметров и сосре- доточенной вблизи некоторого значения а = а*. Тогда в выражении для оптимальной оценки (13.16) можно положить plot Уог I = 5ta-(X* I, 368
что приводит к соотношению ®min ®min В соответствии с полученным выражением задача адаптивной фильтрации сводится к фильтрации информационного процесса при оценочном значении а’ неизвестных параметров. Описанный подход, естественно, является приближенным, так как на начальном этапе наблюдения апостериорная плотность вероятности мо- жет быть достаточно широкой. Связанная с этим неоптимальность полу- ченного адаптивного фильтра окупается его сравнительной простотой. На рис. 13.7 показана общая схема адаптивной системы (по методу скользящей адаптации), которая состоит из двух блоков. Первый из них является оптимальной системой фильтрации, рассчитанной на выделе- ние информационного процесса в предположении, что а = а*. Вто- рой блок является блоком адапта- ции. Он формирует апостериор- ную оценку а* априорно неиз- вестных параметров, которая вво- дится в основной блок фильтрации для подстройки его параметров. Такая структура адаптивных фильтров получила в литературе название скользящей адаптации. Характерной особенностью скользящих алгоритмов адаптации яв- ляется формирование точечной оценки неизвестных параметров, в от- личие от многоканальных адаптивных систем, в которых формируется вся АПВ. За счет этого фактора и происходит упрощение алгоритма адаптивной фильтрации. Основной блок фильтрации описывается уравнениями оптимальной фильтрации при оценочном значении а*. Для линейной модели сооб- щения (13.2) и нелинейных наблюдений (13.1) эти уравнения имеют вид Основной блок фильтрации (оптимальный фильтр для а = а ) Блок адаптации Рис. 13.7. Схема адаптивной системы по методу скользящей адаптации + Dx (а* )ст у(г)-5(х(а‘р)), 13 2041 369
х(а*1 = сх(а* (13.40) = F (a* )d, + DXF (a* f + |g (a* )s^ (a* )g (a*) - -2DX (a*)cTcDx (13.41) Для оценки неизвестных параметров а можно использовать раз- личные критерии и подходы. 13.5.2. Алгоритм скользящего адаптивного приема в непрерывном времени В качестве оценочного значения а* вполне естественно выбрать среднее значение АПВ p(a|lo) а* = d = j схр(а|у0'^а. Алгоритм адаптивной фильтрации с использованием в качестве оценки а апостериорного среднего получил название алгоритма сколь- зящего адаптивного приема. Уравнение, описывающее эволюцию оценки а, может быть полу- чено из общего уравнения (9.56) для АПВ p(a|lo j. Напомним, что в гл. 11 был получен алгоритм (11.14), (11.17) оптимальной фильтрации, вытекающий из уравнения Стратоновича (9.5) для АПВ марковского вектора х при ее аппроксимации гауссовской функцией. Поэтому, если принять для АПВ />(<x|Kq j гауссовскую аппроксимацию, то можно вос- пользоваться уравнениями (11.16)—(11.17), заменив в них х на а, F(x,/) (см. формулу (11.16)) на F(a,f) (см. формулу (13.24)), и поло- жив f (x,z) = 0, g(x,r) = 0. В результате получаем следующий алгоритм работы блока адаптации: л da 370
=_D dt “ Эос Ф(а) = Тг Dx(a) 2 dS(cx(a)j) No Эа Э5(сх(а),г) Эх 2 ! dS(cx(a),/) Эх (13.43) При записи уравнений (13.40)—(13.43) полагалось, что наблюдае- мый процесс описывается выражением (13.1). Раскроем производную сигнальной функции по параметрам а, входящую в (13.42): Э5(сх(а),г) 3s(X(a),zj Э(сх(а)) Эа ЭХ Эа Подставляя (13.44) в (13.42), запишем Лх гл / \ 2 М) 3S’(A.(ct),r) ----ЧГ----(/('М(«(“)»'))- ОЛ 1 ГЭ^(а) JV0 I За (13.44) (13.45) В (13.45) можно выделить дискриминатор (11.21) основного блока фильтрации т Э5(Х(а),г1 мд(') = ^----—-(>(')-5(«(«)>'))- <13-46> JVq ОЛ Поэтому обобщенную схему адаптивной фильтрации, приведенную на рис. 13.7, можно уточнить и представить как на рис. 13.8. Тот факт, что блок адаптации работает по сигналу с выхода дис- криминатора основного блока фильтрации, является примечательным признаком. В гл. 10, 11 при обсуждении свойств оптимальных систем фильтрации при известных статистических характеристиках сообщения отмечалось, что процесс на выходе дискриминатора является некорре- лированным, т.е. белым шумом. При отклонении параметров системы фильтрации от оптимальных данный процесс становится коррелирован- 371
у(') Основной блок фильтрации (оптимальный фильтр для а =)а” Блок адаптации Рис. 13.8. Обобщенная схема адаптивной системы по методу скользящего адаптивного приема ным, а в параметрах этой корреля- ции заключена информация о соот- ветствующих рассогласованиях пара- метров системы. В адаптивной сис- теме фильтрации (рис. 13.8), когда в ней еще идет процесс адаптации, ряд параметров основного блока фильт- рации отличен от оптимальных зна- чений, что приводит к коррелиро- ванное™ процесса ид ((), и именно этот процесс подается в блок адап- тации с целью извлечения информации о том, как надо регулировать оценки а и, соответственно, подстраивать параметры основного блока фильтрации, чтобы они стремились к истинным значениям а. В ре- зультате такой адаптации (т.е. при а—>а) процесс мд(/) на выходе дискриминатора основного блока фильтрации станет некоррелирован- ным и процесс адаптации завершится. Развернутая схема адаптивной системы фильтрации по методу скользящего адаптивного приема приведена на рис. 13.9. Рис. 13.9. Развернутая схема адаптивной системы фильтрации по методу скользящего адаптивного приема В (13.45) входит производная Эх(а)/Эа, уравнение для которой может быть получено дифференцированием по а уравнений основного 372
блока фильтрации (13.40). Пренебрегая второй производной d25(X(d),/)/dX2 , получаем d Эх(а) dF(d) -./-чЭх(а) = “ТТ2 1 а+F (а)^М+ dt да Эа да Эа ЭХ (13.47) Учитывая выражение (13.46) для процесса на выходе дискримина- тора основного блока фильтрации, а также тот факт, что при малых ошибках рассогласования 8Х = Х-Х справедливо соотношение (см. Эх (а) Эа (13.48) Рве. 13.10. Схема линейного фильтра в блоке адаптации (11.26)) 5Д = 2У01 ^dS^X(a),/ydXj , где 5Д —крутизна дискримина- ционной характеристики дискриминатора основного блока фильтрации, уравнение (13.47) можно записать в виде d Эх(а) dF(d)_... / ——х (а)+(F (а dt да да v ' v dDx (а) т +~тНс ид(0- dot Данное уравнение является линейным дифференциальным уравнени- ем относительно процесса Р = Эх (а)/Эа, т.е. описы- вает линейный фильтр (рис. 13.10), на вход кото- рого поступает процесс Ид (/) с основного блока фильтрации. Уравнения для произ- водных dDj (а)/Эа могут быть получены в результате дифференцирования (13.41) по а. Если уравнения (13.41) имеют аналитическое решение в устано- вившемся режиме, то лучше сначала найти это решение, а затем взять 373
производную по а от установившегося значения. При этом получаем более простое стационарное значение для матричного коэффициента 3DX (а)/Эа. Отметим, что, согласно рис. 13.9 и 13.10, синтезированный блок адаптации не затрагивает структуры дискриминатора и сглаживающего фильтра основного блока фильтрации. Следовательно, дискриминатор и сглаживающий фильтр можно синтезировать независимо от блока адап- тации. При этом можно использовать методику раздельного синтеза дискриминатора нелинейной следящей системы и сглаживающего фильтра (см. п. 11.2), причем сглаживающий фильтр синтезируется для линейных наблюдений. Пример 13.3. Рассмотрим задачу измерения дальности, описан- ную в примере 13.1. Изменение дальности до цели описывается уравнением (13.5), а неизвестным параметром полагается спектральная плотность формирующего шума. Наблюдения — линейные (13.6). Основной блок фильтрации описывается уравнениями (13.7), (13.8), а установившиеся значения элементов матрицы дисперсий ошибок фильтрации — соотношениями (13.9) А 1,уст = > ^12, уст = ’ £>22 ,уСТ yjs^N0/4 . (13.49) Уравнение (13.49) для оценки неизвестного параметра в рассматри- ваемой задаче конкретизируется как d& / Л (13.50) Ar0V ' ’’ Nq dS? а уравнение для дисперсии ошибки оценки неизвестного параметра по- лучается из (13.43) dDs\ __ 2 2 dt Nq % Уравнение для производной dR/dS^ получаем из (13.48) dt Nq Nq 374
2Дг(^)аф{), aObfc) 2 dt dS* Nq dS^ dS^ Nq (?-*&)) Дифференцируя (13.49) no , получаем Э£>||(^)_ i Глг0 a% 4J2 % v/4 dS^ ( \'/2 = 1 Ло 4 На рис. 13.11 приведены зависимости нормированной к истинному значению оценки от времени для двух значений =20 м2с’3, 5^ =2000 м2с'3, полученные моделированием адаптивной системы фильтрации на ЦВМ при (0) = 400 м2с’3, No = 20 м2с '. Как видно из рисунка, адаптация в целом проходит успешно, т.е. 5^ —> 5^. Время адаптации составляет 4.. .6 с. а) 6) Рис. 13.11. Характеристики процесса адаптации: а — 5^ = 2000 м2?3; 5^ = 20 м2с } Отметим, что алгоритм адаптации (13.50) чувствителен к выбору начального значения коэффициента Ds^ (0), и при его неправильном выборе сходимость оценки к истинному значению может нарушаться. 13.5.3. Понятие контура адаптации Во многих алгоритмах с точечной оценкой неизвестных параметров процесс адаптации и такие его характеристики, как сходимость, про- должительность и точность можно проанализировать, представив адап- 375
тивную систему в виде системы автоматического регулирования, осу- ществляющей слежение за неизвестными параметрами. Другими слова- ми, в составе таких адаптивных систем можно выделить контур Дис иД<х(й) ФНЧ адаптации. Для этого представим урав- нение (13.45) в виде схемы, приведенной на рис. 13.12, где обозначено: Дис — дискриминатор контура адаптации, ФНЧ Рис. 13.12. Контур адаптации — фильтр нижних частот. Из (13.45) следует, что ФНЧ— это интегратор с переменным коэффициентом усиления Da(l), а дискри- минатор описывается соотношением ;Эх(а)У “да й----э^К0-5(«(а),/) - 1 fdT(d)>f лЦ За (13.51) Дискриминатор контура адаптации является устройством безынер- ционным по отношению к изменениям параметра а и его оценки а, a его выходной процесс (13.51) зависит от рассогласования а-а. Слу- чайный процесс (13.51) можно представить в виде суммы МО и центри- рованной случайной составляющей “да (') = Ч “да (0]+п(0- При таком представлении М [чда (z)] = U (а, а) — дискриминаци- онная характеристика дискриминатора контура адаптации, а спектраль- ная плотность процесса т](/) характеризует флуктуационную характе- ристику дискриминатора. В результате анализа дискриминационной характеристики U(a,a) можно ответить на вопрос о сходимости процесса адаптации, а анализ флуктуационной характеристики позволяет судить о точности адапта- ции [3]. 13.5.4. Алгоритм скользящего адаптивного приема в дискретном времени Рассмотрим задачу адаптивной фильтрации дискретного процесса (13.27) при линейных наблюдениях (13.28). 376
Общая структура адаптивной системы фильтрации, построенной по методу скользящей адаптации, остается такой же, как и в случае непре- рывного времени (см. рис. 13.8). Основной блок фильтрации описывается уравнениями фильтра Калмана (13.30)—(13-34) при оценочном значении а неизвестных па- раметров. Для получения оценки d рассмотрим уравнение (13.35) для АПВ неизвестных параметров. Введем гауссовскую аппроксимацию АПВ на к - и (к -1) -м шагах р(а|г0‘)= 1 ехр|-|(а-а()’ DJ1 (а-а,)|, (13.52) 1 2 1 р (altf-1) = , ' ”Р! -|(а-“»-|)’ »м-| . 7(2я)” deifDo,.,) I 2 1 где т — размерность вектора неизвестных параметров a; — матрица дисперсий ошибок оценивания данного вектора на к -м шаге. Условная ПВ |1о*_,>а) > входящая в (13.35) является гауссов- ской с МО Л/[у*|1о = НЛ («) (13.53) и матрицей дисперсий Подставляя (13.52)—(13.54) в (13.35) и логарифмируя полученное уравнение, получаем |(а - ак )т (а - ак) = |(а - dt_] )т D^_i (а - ик_х )+ +v(a)+q, (13.55) где q — константа, не зависящая от a, v(«) = |ln(*(a))+ +|(я - (а))т В~х (а)(ук -Щх* (а)). (13.56) Разложим функцию v(a) в ряд в окрестности точки &к-Х и огра- ничимся тремя членами разложения 377
V(a) = V(a*_,) + - V .!'(a_)+ da («-«*-.)• (13.57) 2 da da Используя очевидное представление a-a* =(а-а^_1)+ +(«*-l “«*)> подставляя его и (13.57) в (13.55) и приравнивая в полу- ченном выражении коэффициенты при одинаковых степенях разности а-а*_[, получаем dv(dt_i)Y a^a^i-Da* - , (13.58) da | Dal = ®а1-1 +±Г^-~-1Л . (13.59) dal da I dv (a^_|) Найдем выражение для производной —--, дифференцируя da (13.56), Н А ))г- I, .. ,ч2 дВ~1 (di.) 1 3B(di_i) , +-(л~Н*х*(а*-1)) +2В(аА_[) да ' (1 ’ Среднее значение суммы двух последних слагаемых в (13.68) равно нулю, поэтому можно принять М«*-1) ( и - /а йо-1/А хЭ(н*М«*-1)) ——--(Я-Щх* (aA_]))B (a*-i)-----------------• (13.61) Приближенное выражение для второй производной можно записать в виде д Гду(6^-1)¥ да да ^(Щх* (d^i))Y да о-i /А ч^(Н*х* (a*-i)) 8 ’°*-'’—№— (13.62) Подстановка (13.61)—(13.62) в (13.58), (13.59) дает итоговый алго- ритм работы блока адаптации 378
у a* = «ы+М 1 (<x*-i) Эа (yk-Hkik (at_])). (13.63) V da n-1 / * ?(H*M “*-')) B M— (13.64) Из (13.63) следует, что входным сигналом для блока адаптации яв- ляется разностный процесс (ук - ЩхЛ (а*_])), который формируется в основном блоке фильтрации. Структура адаптивной дискретной системы фильтрации аналогична той, что приведена на рис. 13.9, с заменой блоков обработки в непре- рывном времени (например, интеграторов) соответствующими блоками обработки в дискретном времени. Как и в непрерывном времени, уравнения для производной dik (a^_j)/da, входящей в (13.63)—(13.64), получаются дифференци- рованием по а уравнений основного блока фильтрации (13.30)—(13.34). Контрольные вопросы к главе 13 1. Как определяется выигрыш в точности фильтрации в адаптивной и не- адаптивной системах фильтрации? 2. Что такое сходимость процесса адаптации и время адаптации? 3. Чем принципиально отличаются многоканальные адаптивные фильтры от адаптивных фильтров, построенных по методу скользящего адап- тивного приема? 4. Что такое контур адаптации и как он описывается с позиций радиоав- томатики? 5. Можно ли определить дискриминационную характеристику контура адаптации и как? 6. Какими параметрами системы фильтрации определяется время адапта- ции? 379
Глава 14 ОПТИМАЛЬНАЯ ФИЛЬТРАЦИЯ ПРИ ПРИЕМЕ ПРОСТРАНСТВЕННО-ВРЕМЕННЫХ СИГНАЛОВ 14.1. Оптимальная фильтрация при приеме пространственно-временного сигнала на фоне внутренних шумов 14.1.1. Оптимальная фильтрация при известном направлении на источник сигнала Рассмотрим задачу фильтрации информационного процесса Х(/), переносимого пространственно-временным сигналом. Пусть приемник имеет линейную антенную решетку (АР) (рис. 14.1), состоящую из т всенаправленных антенных элементов, расположенных на одинаковом друг от дру- га расстоянии d . На АР падает плоская электромагнитная волна, причем направление на источник излучения харак- теризуется углом ас, ко- торый полагаем извест- ным. Принимаемое i -м антенным элементом коле- бание имеет вид У, ('>xi) = (' А.х,) + (',xi) = Kxj) + л, (/,X/), i = 1,т , (14.1) где Рс — мощность сигнала; 5н, (/,Х,х( ) — нормированный сигнал с единичной мощностью; х, — координата i -го антенного элемента; Х(/) — фильтруемый процесс, который отображается в пространстве состояний вектором х(г),так что Х = сх,а x(z) описывается урав- нением (9.2); л, (z, Xj) — помеха с корреляционной функцией 380
M [«j (/,х, )ny (/ + т,ху)] = Лл08,75(-г) = -у-8у5(т). (14.2) Так же как и в п. 4.6 полагаем, что сигнал S(/,X,x) — узкополос- ный и, следовательно, может описываться комплексной амплитудой 5(/,Х,х) (запаздыванием огибающей сигнала по апертуре АР можно пренебречь). Пусть S(t,k) = SAi =0) соответствует комплексной ампли- туде сигнала в момент времени t на первом антенном элементе. Тогда комплексная амплитуда сигнала на i -м антенном элементе равна , „ , • . „. ,л (п 1 , 2juftcos(ar) 5л/(/Д,х,) = 5(/Д)еа0’1 с), где ф,(ас) =---—*—к0 — длина Ло волны принимаемого сигнала. Вводя комплексную амплитуду SH (f,l) нормированного сигнала с соотношением S (г,л) = y[^S„ (/Д), комплексные векторы У (' ) = h ('> Х1) У2 ('. х2 ) - Ут ('. хт f > Н(ас) = 7^Ф,(ас) ej02(“c) п = |л, (г) л2(0 ...йот(0 |т с корреляционной матрицей М|^n(z)n т (r + r)j = AZqIS(t) , запишем наблюдения (14.1) в векторном виде у(0 = Н(ас)$н(/Л)+п(/). (14.3) Чтобы использовать комплексную запись наблюдений (14.3), в ал- горитмах оптимальной фильтрации необходимо преобразовать уравне- ние Стратоновича (9.5). Заметим, что входящая в него функция F{x,t) — это производная по времени от логарифма отношения правдоподо- бия. В то же время, для логарифма отношения правдоподобия в п. 4.6.2 (формула (4.105)) с использованием комплексных наблюдений вида (14.3) получено следующее представление: In (р (*£)) = 381
“Re Рн (тА)н‘т (ac)(y(t)-0,5H(<xc)S„ (т,X)) dt No Lo (14.4) Дифференцируя (14.4) по времени, получаем выражение F(x,/) = -PRep:(zA)H*T(ac)(y(/)-0,5H(ac)5H(z,X)) ]. (14.5) /*o L J Подставляя (14.5) в алгоритм оптимальной в гауссовском прибли- жении фильтрации (11.14), получаем — = F(/)x + dt V 7 Dx (/) + -i^Re M) z . ф \T H T(ac)(y(0 H(ac)5H (z,cx)) .(14.6) ax \ / Как и в (4.105), преобразуем выражение Н*Т («С )(у (')- Н (ас )5Н (г, ci)) = = Н*т (ас )у (')“ Н*т (ас )Н(ас )SH (/,«) = = H*T(ac)H(ac) (Й*т (ас )Н (ас )) 1 Н*т (ас )у (/)- 5Н (f,cx) = H*T (ac)H(ac )[У T (ac )y (z)-SH (z,cx)] = = Pcm[0’T(ac)y(/)-5H(/,cx)j, (14.7) H*T(ac)H(ac) = Р(ас) = Н(ас)[й рст; *т(ас)Н(ас)]“‘ =Н(ас)/(Рст). (14.8) Введем эквивалентное наблюдение Лкв(О = ^‘Т(<хс)УО) <14-9> и запишем уравнение оптимальной фильтрации (14.6) в виде rfx Dx(/)Pcra — = F(/)x+ v 7 c dt V ’ No Re ^h(',cx)Y dx (14.10) 382
Переходя от комплексных амплитуд к действительным функциям, с учетом (2.4), получаем di 2DX (г)Рст(д$н (z,cx) Y / г ; -i \ _=F(()12 (l)e« . (14.11) Из уравнений (14.9), (14.11) следует, что оптимальная пространст- венно-временная система фильтрации распадается на пространственную (14.9) и временную (14.11). На выходе блока пространственной обра- ботки формируется временной процесс Лив (') = ₽‘Т («с )У (') = &*Т (“с )(Й(ас )5Н (z,X)+n(/)) = = 5н(/,Х)+лэкв(/), (14.12) в котором лэкв (/) — комплексный БГШ с двусторонней спектральной плотностью N0/Pcm . Поэтому для эквивалентных наблюдений (14.12) можно записать Ке[Лкв (')] = Уэкв (') = 5(/Д)+лэкв (/), (14.13) где лэкв (/) — БГШ с двусторонней спектральной плотностью N^/2 = N0/2Pcm. Таким образом, временная система фильтрации (14.11) есть ни что иное, как оптимальный временной фильтр для эквивалентных наблюде- ний (14.13), формирующихся на выходе блока пространственной обра- ботки. Можно также показать, что уравнение для матрицы дисперсий ошибок фильтрации Dx (/) совпадает с (11.17), в котором надо исполь- зовать спектральную плотность шума для эквивалентных наблюдений (14.13). Рассмотрим пространственную обработку принимаемых коле- баний (14.9), а более точно, сигнальную компоненту Uc = = р*т (ас )Н(ас )5Н (г,1) , где Р т (ас) — вектор весовых коэффициен- тов системы пространственной обработки; Н(ас)5н(/Д) — вектор приходящих сигналов. В теории пространственно-временной обработки сигналов используют понятие характеристики направленности, под ко- торой понимают зависимость комплексной амплитуды йс (асо |«с.«п) на выходе системы пространственной обработки от направления прихо- 383
да ас0 пробного сигнала (гармонической плоской волны) при заданных направлениях прихода полезного ас и мешающих ап (если они есть) сигналов. Функция Un (ас0 |ас,ап) = |С7с (ас0 |ас,ап )|2 называется диа- граммой направленности. В рассматриваемом случае мешающих сигна- лов нет (внутренние шумы приемника не рассматриваются как мешаю- щие сигналы), поэтому можно записать £>с (аС0 |«с) = ₽*т («с )Н(ас0) . (14.14) Рис. 14.2. Диаграмма направленности пятнадцатиэлементной АР Диаграмма направленности для пятнадцатиэлементной АР приведена на рис. 14.2 при ас = = 30 град и d = Хо /2. Из графика видно, что диаг- рамма направленности в направ- лении на источник сигнала имеет ярковыраженный максимум, что обеспечивает наилучшие условия приема полезного сигнала (фоку- сировку на сигнал). При этом в направлении на сигнал всегда вы- полняется условие р‘т(ас)Н(ас) = 1. 14.1.2. Оптимальная фильтрация при неизвестном направлении на источник сигнала Рассмотрим более сложную задачу, когда направление ас на ис- точник сигнала неизвестно. Будем описывать ас случайным процессом, например: = Fcac + Gc£ (г), ас (/ = 0) = ас0 е 0,180° , (14.15) at где £(1) —БГШ с двусторонней спектральной плотностью S^/2 . Область возможных начальных значений ас0 ограничена интер- валом [0,180°] с целью устранения неоднозначности измерений, обу- 384
словленной симметричностью задачи относительно оси X, что видно на рис. 14.2 (симметричный максимум диаграммы направленности) Учитывая то, что нас интересует оценка процесса X(z), направле- ние прихода сигнала ас можно считать неинформативным параметром. Наличие такого дополнительного, меняющегося во времени случайного параметра, в соответствии с результатами п. 11.5.4, приводит к необхо- димости рассмотрения задачи фильтрации расширенного вектора х(') Формально такая задача не отличается от рассмотренной выше, поэтому запишем ее решение в форме (14.6) — = F(r)v + dt V ’ (14.16) dv (y(z)-H(ac)5H (/,сх где F(/) = F(r) О а для производной, стоящей в квадратных скоб- О Fc ’ ках, справедливо выражение d(H*(ac)S*(z,cx)) Э(Й* (ac)5*(z,cx)) d(H*(ac)S*(z,cx)j dv Эх 3ac (14.17) Так как процессы x(z) и ac(z) не коррелированны, то матрица дисперсий ошибок фильтрации Dv(/) является диагональной, т.е. Dx О О Ах, (14.16) можно записать в виде двух уравнений — = F(z)x + dt v ’ . С учетом этого факта, а также (14.17), уравнение Dv Dx(')r₽ —— к© *0 a^Gci) dx Н‘т (ас )(у(/)-Н(ас)5н (',«)) >(14-18) 385
dac . —- = Fcac dt c c Da (О "V^Re < (/.ex) No дн*(ас) Эас . (14.19) Уравнение (4.19) совпадает с (14.6) с тем лишь отличием, что вме- сто истинного значения ас в нем используется оценочное значение dc, которое формируется в соответствии с (14.19). Учитывая это и проделав такие же преобразования, что и в п. 14.1.1 (формулы (14.8)-(14.12), не- трудно показать, что формирование оценки х распадается на два этапа: пространственную обработку в соответствии с алгоритмом Лкв(0 = ₽*Т(«с)у(')’ 0(«c) = H(dc)/Pcm (14.20) и временную обработку сформированных эквивалентных наблюдений ('“)) <1<21> Эх ' ' dx Dx(/)Pczh — = F(/)x + -X.3.Z..C.. Re dt V 7 No Таким образом, пространственная и временная обработки по ин- формационному процессу А.(/) = сх(/), по-прежнему, разделяются. При этом настройка блока пространственной обработки определяется оцен- кой ас углового положения источника излучения. Поэтому рассмотрим уравнение (14.19). Заменим производную ЭН*(ас)/Эас конечной раз- ностью ЭН*(ас) Н* (ас+Дас/2)-Н* (ас-Дас/2) Эас Дас Подставляя (14.22) в (14.19), получаем —= Fcae + dt с с (14.22) (14.23) Ддс (О М) Re 5*(z,cx) H*(dc+Дас/2)-Н* (ас-Дас/2) Дас где Дас — фиксированная расстройка. При записи (14.23) отброшено слагаемое вида 386
H*(dc +Aac/2)-H*(dc -Дас/2)>Г Дас H(ac)SH 0>c*), которое близко к нулю ввиду симметричности характеристики направ- ленности (см. рис. 14.2) относительно направления на максимум. По аналогии с (14.20) введем параметры Р (dc + Дас /2) = И (ас + Дас /2)/Рст, р(ас - Дас/2) = Н(ас - Дас/2)//> и новое эквивалентное наблюдение «дас(0 = ^-(^Т(«с+Лас/2)-0‘Т(«с"Дас/2))уО)- (14-24) Тогда (14.23) можно записать в виде da. Da (t)Prm гi = -----Rep (/,«)йДИс(0] = ul iVq 2Z>™ (t)Pcm г ,4.-i = Pcac +--°V C 5(г,сх)Керд(Хс (/)е^Л . (14.25) /Vq l j Следовательно, формирование оценки ac углового положения ис- точника сигнала также распадается на пространственную обработку (14.24) и временную (14.25). Структура блока пространственной обра- ботки (14.24) аналогична (14.9) с той лишь разницей, что в нем имеется «два канала обработки», в которых весовые коэффициенты Р сдвинуты на ±Дас/2 относительно оценки ас. Как и в п. 14.1.1, для алгоритма пространственной обработки (14.24) можно ввести понятие характери- стики направленности ^дс («со |«с. А«с ) = Т («с + Д«с/2)-0*Т («с - Д«с/2)] Н («СО ) • (14.26) Для пятнадцатиэлементной АР с d - А0/2, Дас = 10 град и ас = =30 град (0,523 рад) зависимость {/д(ас0) = Ке[(7дс(ас0|ас)] при единичной мощности сигнала приведена на рис. 14.3. Из графика видно, что в окрестности истинного значения угла прихода сигнала ас вид функции С/д(асо) аналогичен поведению типичной дискриминацион- 387
"д .1_________I________.________I_________I__________________I— о ол 1 г г» > ной характеристики с нулем при ас = ас0 . Следовательно, блок про- странственной обработки (14.24) выполняет функцию пространствен- ного (углового) дискримина- тора, на выходе которого формируется временной процесс (14.24), поступаю- щий далее в блок временной фильтрации (14.25), пред- ставляющий собой обычную следящую систему. Уравнения (14.20), (14.21), (14.24), (14.25) опи- сывают пространственно- временную систему обра- Рис. 14.3. Характеристика направленности ботки, схема которой приве- пространственного дискриминатора дена на рис 14 4 Рис. 14.4. Схема пространственно-временной обработки В схеме можно выделить блоки пространственной и временной об- работки. Блок пространственной обработки включает три канала, кото- рыми формируются характеристики направленности в направлениях ас, ас+Дас/2 и ас-Дас/2. Блок временной обработки содержит две подсистемы слежения: за информационным процессом A.(z) и за направлением ас (z) на источник сигнала. Сформированная в блоке временной обработки оценка 6tc (z) направления прихода сигнала вво- дится в блок пространственной обработки с целью его фокусировки на 388
сигнал и подстройки нуля дискриминационной характеристики в на- правление на сигнал. 14.2. Оптимальная фильтрация при наличии пространственно-распределенных помех Пусть кроме внутренних шумов приемника присутствуют помехо- вые сигналы, приходящие с различных направлений аП7 , j = \,р . По- прежнему полагаем, что АР — линейная (рис. 14.1), а все приходящие сигналы имеют плоский фронт волны. Принимаемое i -м антенным элементом колебание в этом случае описывается выражением yi ) = s,(t Л*,)+ is. (t,x,x,), i = (14.27) 7=1 где л, (/,%/) —внутренние шумы приемника с характеристиками (14.2); 5, (t,X,x() — полезный сигнал с комплексной амплитудой S^. (гД,х,) = = 5(/,Л.)е^'(а<:) и известным направлением прихода ас; 5П — помеховые сигналы, которые также будем считать узкополосными и, следовательно, допускающими описание комплексными амплитудами 6/^6 а ( \ 27иЛсо5(°ч) . г- Хо (Здесь, как и выше, полагается, что запаздыванием огибающих сигнала и помех по раскрыву АР можно пренебречь.) Комплексные амплитуды помеховых сигналов Sn. (/) будем опи- сывать комплексными гауссовскими случайными процессами, спек- тральная плотность которых равномерна в полосе пропускания прием- ника и равна Nn ,0. Такие процессы удовлетворяют требованию узко- полосности, так как полоса пропускания приемника много меньше не- сущей частоты. В то же время в интересах синтеза оптимальной систе- мы приема их можно заменить БГШ с двусторонней спектральной ПЛОТНОСТЬЮ . В общем случае комплексные амплитуды различных помеховых сигналов могут быть коррелированны и задаваться корреляционной матрицей A/^Sn (r)S*T (/)] = Vn, где Sn (0 = |$П| (г) 42 (') - (0| 389
— вектор комплексных амплитуд помеховых сигналов. Если помехи не коррелированны, то Vn = Vn — диагональная действительная матрица, диагональные элементы которой равны спектральным плотностям соот- ветствующих помех. Введем вектор ап = |аП| аП[ ... ап^ | и матрицу ехр{-)Фп, 1 (z)} ехр{зФп210)} • ехр{.)Фпр >(<)} C(f,an) = exp{j<t>ni2 (0} exp{j<l>n22(')} • • ехр{зФПр 2(0} ехр{)ФП|т(0} ехр{зФп2т (0} • • ехр()фПр .(0} характеризующутэ пространственное положение помех. Тогда наблюде- ния (14.27) можно записать в векторном виде y(0 = H(ac)4GA)+CG,an)Sn(r)+n(/). (14.28) Введем суммарную помеху nz(f) = C(f,an)Sn(/)+n(r) с корреляционной матрицей Л/ [hx (z)nzT (t+т)] = (с (/, <хп) VnC*T (r,an)+^l)S(x) = = N£(r)8(T), (14.29) где (an) = C(r,a„)VnC*T (z,an )+Nol. (14.30) С учетом введенных обозначений, наблюдения (14.28) принимают стандартный вид у(0 = Н(ас)$н(а)+Ы')> <14-31) для которого можно записать уравнение оптимальной фильтрации про- цесса х (г), аналогичное (14.5) ^ = F(/)i+ (14.32) + DX (r)Re дЗнр.сх) 390
При Nz = NqI уравнение (14.32) переходит в (14.5). Рассмотрим выражение, стоящее по знаком Re[*] и преобразуем его, аналогично тому, как это сделано в (14.7): H*T(ac)Ns’ (ап)(у(/)-Н(ас)5н (/,«)) = = Н’т (ас)N£1 (ап )у (z)-H*T (ас )Nj1 (а,, )Н(ас)SH (г,ci) = = H*T(«c)Ni (ап)Н(ас)х х (H*T(ac)Nj1(an)H(ac))lH‘T(ac)N£’(an)y(O-SH(/,cx) = = Н*т (ас )Nj' (an )Н(ас )[р‘т (ас,ап )у(г)-SH (/,ci)], (14.33) где 0(ac,an) = N£’(ап)Н(ас)(н*т (ac)Nx’(ап)Н(ас)) *. (14.34) Введем, как и выше (14.8), эквивалентное наблюдение Лкв(') = Р*Т(ас’ап)у(')’ (1435> для которого после ряда преобразований можно записать Лкв (0 = Р‘Т (ac»an )У (0 = (Й‘Т (“с )Й1 («п )Н(«с)) ' Й‘т (ас)х xNz (an)(Й(ас )SH(г,Х) + пЕ(/)) = SH(/Л)+йэкв(г). (14.36) Рассчитаем корреляционную функция эквивалентного шума ”экв О) М Г«экв (0й’т (t + т)1 = (Й‘т (ac )Nf’ (ап )Н(ас)) ' Н*г (ас )N^ (ап )х [п£ (')nlT (О]Ni (ап )(Й‘Т (ас )Nl (“п )Н (ас)) ’ Н (ас) = = (н‘т (ас )Ni' (<хп)Н (ас)) ’ 3(т) = ЛГЭКВ3(т), где ^экв (ас>ап) = (н‘Т («С)Nx («П )Н(ас )) ' (14.37) — спектральная плотность эквивалентного БГШ. 391
С учетом (14.37) выражение (14.34) для вектора весовых коэффици- ентов можно представить в виде р(аС)ап) = ЛГЭВВ (ас,ап )Ns‘ (ап )Н(ас), (14.38) а уравнение (14.32) — ^ = F(z)i+^^Re dt v 7 ЛГЭКВ OdH(ECX) / . . . . ---5---- (ЛквО)-5н('’СХ)) (14.39) Переходя от комплексных амплитуд к действительным функциям, с учетом (2.4), получаем ^^Г(г)£|2Рх(/)ГЭ5н(Г’с2)Т Л ЛГЭКВ [ Эх j (Re[j3KB (')^]Л ('.«))• (14-40) Из уравнений (14.35), (14.40) следует, что, как и п. 4.1.1, оптималь- ная пространственно-временная система фильтрации распадается на два раздельных блока — пространственной обработки (14.35) и временной (14.40). На выходе блока пространственной обработки формируется временной процесс Уэкв О = Р (®с,®п)У (0 = 5Н ”экв (0» в котором лэкв (г) — комплексный БГШ с двусторонней спектральной плотностью N3KB (14.37). При этом Ref^sKB 0)] = З'экв 0) = *$н +«экв (0 > (14.41) где лэкв (/) —БГШ с двусторонней спектральной плотностью N3KB/2 . Таким образом, временная система фильтрации (14.40) — это опти- мальный временной фильтр для эквивалентных наблюдений (14.41), формирующихся на выходе блока пространственной обработки. Заметим, что уравнение (14.40), описывающее блок временной фильтрации, по форме полностью совпадает с уравнением (14.10). Раз- личаются они лишь характеристиками эквивалентного шума наблюде- ния лэкв (/). Причем при отсутствии пространственно-распределенных помех выражение (14.37) переходит в соответствующее выражение для эквивалентного шума, входящего в (14.12), т.е. ^экв («с>“п) = (Й‘т (“с )Й£ (ап )Н(ас)) ' => 392
=> (н*т (ac)^lIH(ac))'’ = N0/Pcm . Следовательно, в оптимальной пространственно-временной системе влияние пространственно-распределенных помех можно оценивать по изменению спектральной плотности эквивалентного шума наблюдений (14.37) или, что более удобно, по изменению обратной величины 1 ^ЭКВ (®С ’ ®п ) = H*T(ac)Nj1 (an)H(ac). (14.42) Пример 14.1. Рассмотрим задачу приема сигнала, приходящего с направления ас, при воздействии одной помехи, приходящей с направ- ления ап . При этом С(/,ап) является вектором. Для определения (ас,ап) в соответствии с (14.42) рассчитаем обратную матрицу Ny1 (a„) = [с(/,ап )ГПС*Т (r,an)+. (14.43) Для этого воспользуемся леммой об обращении матри- ц ы, согласно которой в общем случае для произвольных комплексных матриц M,P,Q ^p-11 =p-pm*t[mpm*t+qJ ’мр. Обозначим Q = (Kn) 1 = —, Р-|=^1, МТ=С и М = СТ. Подставляя данные выражения в (14.43) получаем i (1 У ~I- -77- j IC(an)r Mt J М) J_C-(an)C(an)+± T(an)I. (14.44) . ’О 'п_ Подставляя полученное выражение в (14.42), запишем ------V = -тгй‘т (“с )н (“с) - ^экв (ас > ®п ) М) 1 1 393
IM Н*т (<xc )С(ап )п-!---п М(ап)С(ап)+1 Далее, учитывая, что Н*т (z,ac )H(z,ac) = Рст и Ст (ап )С* (ап ) = = т , получаем окончательный результат: 1 _ Рс Ип|н*т(/,ас)С(ап)|2 А^ЭКВ («С ’®П ) М) (m^n/M) +1) (14.45) Введем qnui = —------отношение спектральных плотностей помехи М) и шума (отношение помеха/шум), Н (ас) = Н (ас )/7^ и нормирован- ную спектральную плотность NH(ac,an)~ N3KB(ac,an)Pc/N0. Тогда (14.45) принимает вид !-♦ |2 1 ?п/ш Н (®С )С («п )| ---7-----X = т ,---------С М, (®с>®п )-------------------(^?п/ш 4"1) (14.46) На рис. 14.5 приведена зависимость l/Nt Рис. 14.5. График зависимости функции l/AfH(ac) как функция ас при ап = = 30 град для семиэлементной АР и ?п/ш =10 • Как видно из рисунка, при сов- падении направления прихода по- мехи с направлением на сигнал спектральная плотность N3Ka су- щественно возрастает, что приводит к заметному ухудшению условий фильтрации информационного про- цесса. Рассмотрим диаграмму направ- ленности синтезированной системы, которую по аналогии с (14.14) оп- ределим как 2 . «2 (®с0 |®с >®п) — |^с (®с0 |«с ,ап )| = |$ (®с»«п )Н(асО)| • (14.47) 394
Подставляя (14.44), (14.45) в (14.38), а полученное выражение в (14.47), запишем ^н(асо|ас,ап)= -^s- х Н*т (ас)Н(ас0)- X ^п/ш (н*т(ас)С(ап))(с(ап)Н(ас0)) (^п/ш +1) . (14.48) Заметим, что при ас0=ас всегда имеем С7Н (ас |ас ,ап) = 1, что соответствует представлению (14.36), т.е. фокусировке системы на по- лезный сигнал. На рис. 14.6 приведены трафики зависимости UH (ас0 |ас ,ап) для пятнадцатиэлементной АР. Рис. 14.6. Диаграммы направленности: а — ас = 60 град, ап = 30 град, = 10 ; б— ас = 30 град, оц, = 30 град, = 10 Из рис. 14.6, а следует, что в синтезированной системе характери- стика направленности имеет максимум в направлении на сигнал и ми- нимум в направлении на помеху. Это качественно отличает оптималь- ную систему от неоптимальных систем, например, компенсаторов по- мех, в которых формируется только минимум характеристики направ- ленности на помеху и не контролируется ее значение в направлении на сигнал. 395
Из рис. 14.6, б видно, что даже при совпадении направлений прихо- да сигнала и помехи характеристика направленности равна единице, т.е. система фокусируется на сигнал. Однако из этого графика непосредст- венно не видно влияние помехи на систему в этой ситуации. Поэтому необходимо проводить дополнительный анализ для оценки такого влияния. В то же время, из графика рис. 14.5 сразу видно изменение уровня помехи на выходе блока пространственной обработки. Следова- тельно, с точки зрения оценки качества работы системы временной фильтрации за информационным параметром более информативным оказывается характеристика (14.45). Еще одним критерием, часто используемым при оценке качества блока пространственной обработки, является отношение мощности сигнала к спектральной плотности суммарной помехи на выходе дан- ного блока <7ВЫХ , с'* 1. Так как, в соответствии с (14.36), мощность дейст- вительного сигнала на выходе блока равна единице, а спектральная плотность суммарной помехи — N3KB , то получаем «/вых = 1/^экв = Н*т (ac)N£* (ап )Н(ас). (14.49) Отметим один существенный факт. Уравнение (14.40) является уравнением оптимальной фильтрации, в котором процесс v(0 = Re[y3KB (/)eJ0V]-5H(/,c£) близок к некоррелированному процессу (белому шуму), спектральная плотность которого минимальна и равна спектральной плотности ис- ходных наблюдений, т.е. в данном случае N3KB [9, 13]. Из этого поло- жения следует, что обратная величина 1/N3KB имеет максимальное для данной задачи значение. Таким образом, в рассматриваемой оптималь- ной системе отношение сигнал/(помеха+шум) на выходе блока про- странственной обработки, определяемое формулой (14.49), является максимальным, т.е. наилучшим из тех которые могут быть достигнуты. Другими словами, алгоритм пространственной обработки (14.34), (14.35) максимизирует выходное отношение сигнал/(помеха+шум). Контрольные вопросы к главе 14 1. При каких условиях алгоритмы пространственно-временной обработки сигналов распадаются на раздельные: пространственный и временной алгоритмы? 396
2. Что такое характеристика и диаграмма направленности блока про- странственной обработки? 3. Чем отличаются структуры систем пространственно-временной обра- ботки при фильтрации параметров сигнала с известным и неизвестным направлением прихода? 4. Что такое пространственный (угловой) дискриминатор, и как он может быть сформирован? 5. Как изменится структура пространственного (углового) дискримина- тора при наличии пространственно-распределенных помех? 6. Как определяется отношение сигнал/(помеха+шум) на выходе блока пространственно-временной обработки и какие его свойства ? 7. Как зависит значение диаграммы направленности в направлении на сигнал от характеристик сигнально-помеховой обстановки?
ЛИТЕРАТУРА 1. Гришин Ю.П., Ипатов В.П., Казаринов Ю.М. и др. Радиотехнические системы/ Под ред. Ю.М. Казаринова. — М.: Высшая школа, 1990. 2. Колмогоров А.Н. Интерполирование и экстраполирование стационар- ных случайных последовательностей// Изв. АН СССР. Сер. Матема- тика, 1941, т. 5, № 1, с. 3-14. 3. Первачев С.В. Радиоавтоматика. — М.: Радио и связь, 1982. 4. Первачев С.В., Перов А.И. Адаптивная фильтрация сообщений. — М.: Радио и связь, 1991. 5. Репин В.Г., Тартаковский Г.П Статистический синтез при априорной неопределенности и адаптация информационных систем. — М.: Сов. Радио, 1977. 6. Сейдж Э.П., Меле Дж. Теория оценивания и ее применение в связи и управлении. Пер. с англ./ Под ред. Б.Р. Левина. —М.: Связь, 1976. 7. Сосулин Ю.Г. Теория обнаружения и оценивания стохастических сиг- налов.— М.: Сов. радио, 1978. 8. Сосулин Ю.Г. Теоретические основы радиолокации и радионавига- ции. — М.: Радио и связь, 1992. 9. Стратонович Р.Л. Условные Марковские процессы и их применение к теории оптимального управления. — М.: Изд. МГУ, 1966. 10. Стратонович Р.Л. Принципы адаптивного приема. — М.: Сов. ра- дио, 1973. 11. Тихонов В.И. Оптимальный прием сигналов. — М.: Радио и связь, 1983. 12. Тихонов В.И, Миронов М.А. Марковские процессы. — М.: Сов ра- дио, 1977. 13. Тихонов В.И., Харисов В.Н. Статистический анализ и синтез радио- технических устройств и систем. — М.: Радио и связь, 1991. 14. Трифонов А.П., Шинаков Ю.С. Совместное различение сигналов и оценка их параметров на фоне помех. — М.: Радио и связь, 1986. 15. Ярлыков М.С., Миронов М.А. Марковская теория оценивания слу- чайных процессов. — М.: Радио и связь, 1993. 16. Задачник по курсу «Основы теории радиотехнических систем»/ Под ред. П.А. Бакулева и В.А. Вейцеля. —М.: Радио и связь, 1996. 17. Kalman R.E. A New Approach to Liner Filteringand Prediction Prob- lems// Trans. ASME, J. Basic Eng., 1960, vol. 82D. 18. Wiener N. Extrapolation, Interpolation and Smoothing of Stationary Time Series. — N. -Y.: John Wiley, 1949. 398
Учебное издание Александр Иванович Перов Статистическая теория радиотехнических систем Зав. редакцией И. А. Кузьмина Редактор-оператор Ю.А. Ковелина Изд. № 79. Сдано в набор 01.03.2003. Подписано в печать 09.04.2003. Формат 60 х 90 1/16. Бумага офсетная. Гарнитура Таймс. Печать офсетная Печ. л. 25. Тираж 3 000 экз. Зак. № 2041 Издательство «Радиотехника». 103031. Москва, К-31, Кузнецкий мост, д. 20/6. Тел./факс: 921-48-37; 925- 78-72, 925-92-41. E-mail: iprz.hnaonline.ru ззуззу. 3vebcenter.ru Z-iprzhr / Отпечатано в ООО ПФ “Полиграфист" 160001, г. Вологда, ул. Челюскинцев, д. 3.