Текст
                    В.И.ТИХОНОВ
СТАТИСТИЧЕСКАЯ
РАДИОТЕХНИКА
Издание 2-е, переработанное и дополненное
Ε
МОСКВА «РАДИО И СВЯЗЬ» 1982


/ДК 621.37 2 621.391 Тихонов В. И. Статистическая радиотехника. — 2-е изд., перераб. и доп. — М.: Радио и связь, 1982.— 624 с. Приведены необходимые сведения из теории вероятностей и математической статистики, подробно изложена прикладная теория разных видов случайных процессов и рассмотрено их влияние на работу нелинейных и линейных систем. На базе теоретических сведений подробно рассмотрены разнообразные содержательные радиотехнические задачи. В книгу включены вопросы программ-минимумов кандидатских экзаменов по нескольким радиотехническим специальностям. Для научных работников, инженеров, аспирантов и студентов, специализирующихся в области радиотехники и автоматического управления. 186 рис., 15 табл., библ. 221 назв. Рецензент д-р техн. наук проф. И. Н. АМИАНТОВ Редакция литературы по кибернетике и вычислительной технике Василий Иванович Тихонов СТАТИСТИЧЕСКАЯ РАДИОТЕХНИКА Редактор Т. М. Любимова Художник В. А, Аминов Художественный редактор Л. Я. Сильянов Технический редактор Л. К. Грачева, Г, И, Колосова Корректор Т, С. Власкина ИБ № 66 г Сдано в набор 28.04.82 г. Подписано в печать 6.10.82 г. Т-13676 Формат 60Χ907ιβ Бумага тип. № 2. Гарнитура литературная Печать высокая Усл. печ. л. 39,0 Усл. кр.-отт. 39,0 Уч.-изд. л. 42,9 Тираж 20 000 экз. Изд. № 19693 Зак. 956 Цена 2 р/ 90 к. Издательство «Радио и связь», 101Ό00 Москва, Главпочтамт, а/я 693 Московская типография № 4 Союзполиграфпрома при Государственном комитете СССР по делам издательств, полиграфии и книжной торговли, 129041, Москва, Б. Переяславская ул., д. 46 „ 2402020000-195 Τ 5-82 046(01)-82
ПРЕДИСЛОВИЕ Первое издание книги «Статистическая радиотехника» (1966 р.) быстро разошлось и получило положительную опенку среди радиоспециалистов. Данное издание книги предпринято в основном по инициативе издательства «Радио и связь». Несмотря на прежнее название, книга по существу написана заново. При этом сохранена явно выраженная радиотехническая направленность и расширен круг рассмотренных проблем с учетом новых результатов. Из-за ограниченного объема в книгу включена лишь основная часть вопросов статистической радиотехники, а именно, приведены необходимые сведения из теории вероятностей и математической статистики, изложена прикладная теория разных видов случайных процессов и полей и рассмотрено их влияние на работу нелинейных устройств и линейных систем. Настоящую книгу следует рассматривать как первую часть. Автор считает работу над «Статистической радиотехникой» незавершенной и планирует издание второй части. Основой для написания данной книги послужили обработанные и расширенные материалы лекций по статистической радиотехнике, которые читались автором в течение продолжительного времени для студентов и аспирантов радиотехнической специальности. Нумерация рисунков и таблиц в книге ведется по главам, а формул — по главам и параграфам: первая цифра указывает номер главы, вторая — номер параграфа, третья — номер формулы в параграфе. Исключение составляют формулы приложений: первая римская цифра указывает номер приложения, вторая — номер формулы в приложении. Ссылки на формулы в пределах одного параграфа даются без указания номера главы и параграфа. В список литературы включены лишь оригинальные источники и работы, использованные при написании книги. Сведения по случайным полям изложены по материалам, представленным по просьбе автора К. Б. Челышевым, а по марковским процессам (§ 2.6) — М. А. Мироновым. Профессор И. Н. Амиантов ознакомился с рукописью и сделал ряд полезных предложений. Существенную помощью при написании книги оказали Л. А. Ершов, А. И. Пап- ков и особенно В. Н. Харисов. Всем им выражаю глубокую благодарность.
ВВЕДЕНИЕ Основное и общее требование, обычно предъявляемое к любой радиотехнической системе, состоит в достоверном и своевременном получении большого объема информации из излучений с ограниченной энерге такой. Ясно, что ошибочные, запоздалые или неполные сведения обес- ценивают полученную информацию, так как не позволяют оперативно принимать правильные решения. Однако достоверному приему информации по реальным радиоканалам препятствуют: 1) случайные искажения самого радиосигнала при распространении через турбулентную среду, 2) наличие разнообразных (внешних и внутренних) помех и 3) техническое несовершенство радиоустройств. Ухудшение качества приема из-за технического несовершенства аппаратуры в принципе может быть снижено путем ее совершенствования. Что же касается помех и искажений радиосигнала при распространении, то они имеют принципиальный характер, так как обусловлены неподвластными йам причинами. Действительно, вследствие распространения электромагнитных волн через турбулентную атмосферу и ионосферу, обладающих случайными коэффициентами поглощения и преломления, происходит случайная модуляция радиосигнала по амплитуде, частоте и фазе. Внешние помехи принимаются приемной антенной вместе с полезным сигналом. Они создаются различными естественными электромагнитными процессами, происходящими в атмосфере, ионосфере и космическом пространстве (атмосферные помехи, космические шумы и т. д.), электроустановками и соседними радиотехническими устройствами и системами, а также специальными средствами, применяемыми противником для создания помех (пассивные отражатели, радиостанции помех). Кроме перечисленных внешних источников помех, имеются другие— внутренние, локализованные в различных элементах самих радиоустройств. Сюда можно отнести флюктуационные шумы электронных ламп, полупроводниковых приборов и сопротивлений потерь, нестабильности питающих напряжений и др. Из-за наличия такого вида внутренних помех сами передаваемые радиосигналы оказываются в той или иной мере случайными. Таким образом, задача радиоприема вводится к наилучшему восстановлению полезной информации по искаженному радиосигналу случайного характера, принимаемому совместна с помехами. Во многих практических ситуациях прием сигналов должен осуществляться при небольших значениях отношения сигнал-помеха, так как при ограниченной мощности передатчика сигнал на большой дальности оказывается слабым. 4
Очевидно, что искажения радиосигнала и помехи уменьшают вероятность правильного приема переданного информационного сообщения, причем принимаемые сообщения всегда являются в той или иной мере случайными. Многие задачи радиотехники становятся бессодержательными без учета наличия помех и случайного характера принимаемого радиосигнала. Математический аппарат, позволяющий описывать и оперировать со случайными величинами и случайными процессами, дает теория вероятностей и математическая статистика. Ярко выраженная научная тенденция развития радиотехники за последние 40 лет состоит в прогрессивно возрастающем внедрении вероятностных и статистических методов. При этом рассмотрение разнообразных задач радиотехники (с учетом случайного характера радиосигналов и наличия помех) на базе теории вероятностей и математической статистики составляет основное содержание «Статистической радиотехники». В иностранной научно прикладной литературе этот круг задач обычно включают в «Статистическую теорию связи». В статистической радиотехнике можно выделить две главные задачи: 1) задачу анализа и 2) задачу синтеза радиотехнических устройств и систем. Типичная формулировка задачи анализа следующая. Предполагая известными необходимые характеристики сигнала и помех, нужно получить требуемые количественные характеристики работы рассматриваемого радиоустройства или системы. Поскольку радиоустройства представляют собой различные комбинации линейных и нелинейных звеньев, то задача по существу сводится к анализу прохождения сигнала и шума через линейные и нелинейные устройства. Количественные характеристики, подлежащие расчету, и вообще необходимая степень детальности анализа в значительной мере определяются тем количественным критерием, по которому оценивается качество работы устройства или системы. В последнее время большую актуальность приобрела задача синтеза радиотехнических систем. Общую задачу синтеза радиотехнических систем условно можно подразделить на две чаотные задачи: выбор подходящих сигналов для достижения поставленной цели с учетом реальной обстановки и оптимальный прием (обработка) принимаемых сигналов. Применительно к оптимальным методам радиоприема задачу синтеза можно сформулировать так. Предполагая априорно известными некоторые характеристики передаваемого полезного сигнала, канала и помех, а также их функциональное взаимодействие, нужно получить оптимальное радиоприемное устройство, которое бы воспроизводило переданное сообщение или принимало решение в наименьшими ошибками Чем больше объем априорных сведений и чем они достовернее, тем легче и точнее решается сформулированная задача. При очень малом объеме априорных данных необходимо пользоваться методами адаптивного приема. Отметим, что синтез радиотехнических устройвтв не исключает необходимости их анализа. Дело в том, что во многих случаях практики β
Затруднительно точно реализовать оптимальные устройства как по соображениям их сложности, так и ввиду отсутствия элементов, которые бы адекватно осуществляли нужные математические операции. Кроме того, в большинстве реальных ситуаций некоторые из априорных сведений являются не точными, а ориентировочными, и в процессе эксплуатации могут изменяться внешние условия работы устройств. Работоспособность «оптимальных» устройств при возможных отклонениях от принятых априорных данных может быть оценена путем анализа их работы в изменившихся условиях. Изучение случайных процессов в радиотехнике началось вскоре после изобретения радио нашим соотечественником А. С. Поповым (1895 г.). Практическая необходимость изучения случайных помех радиоприему была обусловлена совершенствованием техники генерации и приема радиоволн (в частности, на электронных лампах). Развитие теории вероятности и математической статистики к тому времени служило необходимой теоретической базой. Условно можно указать несколько основных направлений, по которым развивалось изучение случайных явлений в радиотехнике: 1. Анализ внутренних флюктуационных шумов в элементах радиоустройств (дробовой шум электронных ламп и полупроводниковых приборов, тепловой шум резисторов и др.). Дробовой шум электронных ламп был предсказан теоретически Шоттки в 1918 г. [1J и в 1922 г. им же исследован теоретически [2]. Основная формула для теплового шума в резисторах была предложена и физически обоснована Найквистом в 1928 г. [3] и в этом же году экспериментально подтверждена Джонсоном [4]. С содержанием этого направления и историей развития его можно ознакомиться по работам [5—8]. 2. Изучение статистических характеристик внешних помех (атмосферные и индустриальные помехи, космические шумы, активные и пассивные преднамеренные помехи и т. д.). Основные физические задачи, рассматриваемые в этом направлении, изложены в книге Н. Д. Папалекси [9]. Некоторое представление об истории развития этого направления можно составить по обзорным статьям [10, 11]. 3. Анализ влияния флюктуационных шумов и внешних помех на работу радиоаппараутры и, в частности, на качество радиоприема; изыскание методов уменьшения влияния шумов и помех [9, 12—20]. Из последних работ следует особо выделить три классические работы: А. Н. Колмогорова [12], Л. С. Понтрягина [14] и С. О. Раиса [17, 18], которые сыграли прогрессивную роль во внедрении вероятностных методов в практику радиотехнических расчетов. Они и в настоящее время являются математической базой для анализа работы многих радиотехнических устройств при воздействии на них случайных сигналов и помех. 4. Исследования искажений радиосигналов при их распространении в различных условиях [21—23]. Известно, что при выбранной форме передаваемого сигнала вид полезного сигнала в пункте приема существенно зависит от параметров канала, по которому он передается. Например, при одном и том же передаваемом сигнале принимаемый сигнал в радиолокации и в различных системах радиосвязи (наземной, я
ионосферной, тропосферной, метеорной, космической и др.) будет не-' сколько разным. Вследствие распространения электромагнитных колебаний через турбулентную среду и изрезанное™ диаграмм направленности антенны полезный сигнал в месте приема оказывается в той или иной мере случайным. Знание вероятностных характеристик принимаемых полезных сигналов необходимо при решении различных задач анализа и синтеза радиоустройств. 5. Синтез радиоэлектронных систем и устройств. Это направление в течение последних 30 лет стало одним из основных. Оно базируется на широком применении методов математической статистики. Хотя многие из этих методов были хорошо известны, научно-прикладные работы в этом направлении сыграли весьма прогрессивную роль, так как они вооружили конструкторов некоторыми общими руководящими принципами, позволили оценить предельные возможности решения конкретных задач при определенных условиях и существенно расширили радиотехническую проблематику. С развитием элементной базы и внедрением цифровых методов обработки, позволяющих реализовать сложные алгоритмы приема, синтез радиоэлектронных систем превратился в непосредственный инструмент разработки оптимальных приемных устройств. На возможности использования статистических методов в радиотехнике, по-видимому, впервые указали А. Н. Колмогоров (1939 г.) [24], Н. Винер (1942 г) [251 и Д. Норе (1943 г.) [261 по синтезу оптимальных линейных фильтров. Первая фундаментальная работа, посвященная систематическому применению методов математической статистики для решения задач радиосвязи, принадлежит В. А. Котель- никову (1946 г.) [27]. Последующие основополагающие работы, посвященные оптимальной фильтрации случайных сообщений, содержащихся в сигналах, принимаемых на фоне помех, принадлежат Р* Л. Стратоновичу (1959 г.) [28], Р. Е. Калману (1960 F.) и Р. С. Быоси 1961 г.) 129, 30]. СПИСОК ЛИТЕРАТУРЫ 1. Schotfky W. Uber spontane Stronrschwankungen in versfchiedenen Elektizi- tatsleitern. — Ann. Phys., 1918, B. 57, S. 541—567. 2. Schottky W. Zur Berechnung und Beurteilung des Schroteffekts. — Ann. Phys., 1922, B. 68, S. 157—176. 3. Nyquist H. Thermal agitation of electric charge in Gonduotors. — Phys. Rev., 1928, v. 32, N 1, p. 110—113. 4. Johnson J. B. Thermal agitation of electricity in Gondii stors,, —Phys, Rev., 1928, v. 32, N 1, p. 97—109. 5. Эйнштейн Α., Смолухозский М. Брауновское движение: Сб. статей/Под ред. Б. И. Давыдова. — М.: ОНТИ, 1936. — 608 с. 6. Грановский В. Л. Электрические флюктуации. — М.: ОНТИ, 1936. — 218 с. 7. Тихонов В. И. Флюктуационные шумы в элементах приемно усилительных устройств. — М.: ВВИА, 1951.—232с. 8. Ван-дер-Зил А. Флюктуации в радиотехнике и физике: Пер· с англ./Под ред. Л. С. Гуткина. — М.: Госэнергоиздат, 1958. —296 с. 9. Папалекси Н. Д. Радиопомехи и борьба с ними. — М.: ГИТТЛ, 1944. — 104 с. 10. Венскаускас К. К., Малахов Л. М. Обзор по импульсным помехам. — Зарубежная радиоэлектроника, 1978., № 1, с· 95—125. ?
11· Кузьмин Б. И. Импульсные помехи и анализ помехоустойчивости. —Изв. вузов СССР. Радиоэлектроника, 1981, т. 24, № 4, с. 4—16. 12. Kolmogoroff A. Uber die analytischen Methoden in der Wahrscheinlickeit· srechnung. — Math, Ann. 1931, B. 104, S. 415—458. Рус. пер. в УМН, 1938, выл. 5, с. 5—41. 13·* Хинчин А. Я. Теория корреляции стационарных стохастических процессов. — УМН, 1938, вып. 5, с. 42—56. 14, Понтрягин Л. С, Андронов Α. Α., Витт А. А. О статистическом рассмотрении динамических систем. — ЖЭТФ, 1933, т. 3, вып. 3, с. 165—180. 15· Лошаков Л. Н., Хайкин С. Э. Экспериментальное исследование поведения динамической системы при случайных начальных условиях. — ЖЭТФ, 1936, т. 6, вып. 8, с. 856—869. 16. Бериштейн И. Л. Флюктуации амплитуды и фазы лампового генератора. — Изв. АН СССР. Сер. физ., 1950, т. 14, № 2, с. 145—173. 17. Rise S. О. Mathematical analysis of random noise. — BSTJ, 1944, v. 23, N 3, p. 282—332; 1945, v. 24, N 1, p. 46—156. 18. Rice S. 0. Statistical properties of a sine wave plus random noise. — BSTJ, 1948, v. 27, N 1, p. 109—157. 19. Бунимович В. И. Флюктуационные процессы в радиоприемных устройствах. —М.: Сов. радио, 1951. — 360 с. 20. Сифоров В. И. Радиоприемники сверхвысоких частот. — 2-е изд., доп. — М.: Воениздат, 1957. — 634 с. 21. Чернов Л. А* Распространение волн в среде со случайными неоднородно- стями. — М.: Изд-во АН СССР, 1958. — 160 с. 22. Лекции по теории систем связи: Пер. с англ./В. Е. Морроу, Г. Шерман, Т. Кейлос и др.» Под ред. Е. Дж. Богдади. Пер. под ред. Б. Р. Левина. — М.: Мир., 1964. — 402 с. 23. Рытов С. Λ1, Кравцов Ю. Α., Татарский В. И. Введение в статистическую радиофизику. В 2-х ч.: Учебное пособие для вузов. 2-е изд., перераб. и доп. — М.: Наука, Ч. II, 1978. — 464 с. 24. Колмогоров А. Н. Интерполирование и экстраполирование стационарных случайных последовательностей. — Изв. АН СССР. Сер. матем., 1941, т. 5, № 1, с. 3—11. 25. Wiener N. Extrapolation, interpolation and smoothing of stationary time series. — New York: John Wiley, 1949. — 162 p. 26. North D. O. Analysis of the factors which determine signal/noise discrimination in radar. — Proc. IRE, 1963, v. 61, N 7, p. 1016—1028. 27. Котельников В. А. Теория потенциальной помехоустойчивости. — М.: Гооэнергоивдат, 1956. — 152 е. 28· Стратонович Р. Л. Условные марковские процессы. — М.; МГУ, 1966. — 320 е. 29· Kalman R. Ε. A new approach to linear filtering and prediction problem. — J, Basio Engr. (Trans. ASME), 1960, v. 82D, p. 35—45. 30· Kalman R. E., Busy R. S. New results in linear filtering and prediction theory. —J. Basle Engr. (Trans. ASME), 1961, v. 83, N 1, p. 95—108.
ГЛАВА 1 СВЕДЕНИЯ ИЗ ТЕОРИИ ВЕРОЯТНОСТЕЙ 1.1. ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ В теории вероятностей изучаются закономерности случайных событий и устанавливаются правила, позволяющие по вероятноатям одних случайных событий находить вероятности других случайных событий, связанных каким-либо образом g первыми [1—5]. Для описания закономерной связи между теми или иными повторяющимися определенными условиями S и событием А в естествознании обычно используют один из двух подходов: детерминированный'или вероятностный. Детерминированный подход характеризуется тем, что при каждом осуществлении условий S наступает событие А. Такой характер, например, имеют все законы классической механики, которые утверждают, что при заданных начальных условиях и силах, действующих на тело или систему тел, движение будет происходить однозначно определенным образом. Сущность вероятностного подхода заключается в том, что при осуществлении заданных условий S событие Л, в зависимости от привходящих обстоятельств, может произойти, а может и не произойти, т. е. является случайным. Характерной чертой случайных событий является то, что их закономерности проявляются лишь при многократном повторении испытаний (осуществлении условий S). Наиболее просто основные понятия теории вероятностей определяются в рамках элементарной теории вероятностей. Основным и наиболее важным является понятие вероятности..Вероятность есть числовая характеристика степени возможности появления какого-либо определенного события А в определенных условиях S, могущих повторяться неограниченное число раз. Приведем статистическое и классическое определения вероятности. Пусть некоторое испытание повторяется η раз, причем в результате каждого отдельного испытания событие А или не осуществляется совсем, или осуществляется один раз. Назовем частотой события А в данной серии из η испытаний отношение числа т тех испытаний, в которых событие А наступило, к общему числу η произведенных испытаний: ν (Л) = ml п. (1.1.-1) Наличие у события А при условиях S определенной вероятности ρ (А | S) = ρ (А) проявляется в том, что почти в каждой достаточно длинной серии испытаний частота ν события А приблизительно равна ρ (А). Это и есть статистическое определение вероятности. о
Учитывая связь между ν (Л) и ρ (Л), следует принять, что вероятность события удовлетворяет тем же ограничениям, что и относительная частота ν (Л), т. е. 0</?(Л)<1. (1.1.2) Событие, вероятность которого равна единице, в теории1 вероятностей называется достоверным, а событие с нулевой вероятностью — невозможным. Отметим, что понятия достоверного и невозможного события в теории вероятностей несколько шире общепринятых. Событие, вероятность которого равна единице, происходит практически всегда, но в принципе при каком-либо частном испытании оно может не осуществиться. Аналогично не исключается принципиальная возможность осуществления события α нулевой вероятностью. При всей своей практической ценности приведенное статистическое определение вероятности имеет тот недостаток, что не дает указаний к вычислению вероятности события иначе, как путем фактического проведения большого числа испытаний. Однако некоторые вероятностные ситуации бывают настолько простыми, что позволяют «угадать» значение вероятности события, например, из соображений симметрии. В связи с этим дадим классическое определение вероятности, опирающееся на интуитивное понятие равновозможности событий. Предварительно приведем необходимые определения. События называются несовместными, если никакие из них не могут произойти при одном и том же испытании вместе; в противном случае события называются совместными. Несколько событий образуют полную группу, если в результате испытания обязательно происходит хотя бы одно из них. События называют равновозможными, если есть основания считать, что ни одно из них не является более возможным, чем другое. Пусть в результате каждого испытания наступает одно и только одно из событий а>ь ω2, ..., ωΛ (то или иное, в зависимости от случая). События ω* называются элементарными событиями (элементарными исходами испытания). Уже отсюда следует, что элементарные события попарно несовместны. Множество всех элементарных событий, которые могут появиться в испытании, называют пространством элементарных событий Ω, а сами элементарные события—точками пространства Ω. С каждым элементарным исходом сог связывают положительное число pi — вероятность этого исхода, причем 27-1 Λ = 1. Те элементарные исходы, в которых интересующее нас событие наступает, назовем благоприятствующими этому событию. Событие Л отождествляют с подмножеством (пространства Ω), элементами которого являются элементарные исходы, благоприятствующие Л; событие В есть подмножество Ω, элементы которого — исходы, благоприятствующие В, и т. д. Само Ω есть достоверное событие, наступающее при любом исходе испытания. Рассмотрим событие Л, заключающееся в том, что «наступает или ωι, или ω7·, ..., или cofe». По определению вероятность ρ (Л) события Л полагают равной сумме вероятностей благоприятствующих ему исходов: ю
p(A) = Pi + pf+ ... + pk. (1.1.3) Допустим, что все исходы равновозможны, т. е. рг = р2 =^ ... = рп = = \1п (вероятность каждого возможного исхода одинакова и равна 1/я), и пусть событию Л благоприятствуют т исходов. Тогда ρ (А) = 1/л + \1п + ... + \ln = mln (1.1.4) Эта формула выражает так называемое классическое определение вероятности, в соответствии с которым вероятность какого-либо события А равна отношению числа т исходов, благоприятствующих событию Л, к полному числу η всех равновозможных исходов. Классическое определение вероятности сводит понятие «вероятности» к понятию «равновозможности», которое остается без ясного определения. Наиболее распространенная в настоящее время логическая схема построения основ теории вероятностей разработана в 1933 г. академиком А. Н. Колмогоровым. Основные черты этой схемы следующие. При изучении какой-либо реальной задачи методами теории вероятностей прежде всего выделяется множество Ω элементов ω, называемых элементарными событиями. Всякое событие вполне описывается множеством благоприятствующих ему элементарных событий и поэтому рассматривается как некоторое множество элементарных событий. С некоторыми из событий А связываются определенные числа ρ (Л), называемые их вероятностями и удовлетворяющие условиям: 1) 0 ^ ^ ρ (А) ^ 1; 2) ρ (Ω) =1; 3) вероятность события Л, заключающегося в том, что «наступает или Аъ или Л2, ..., или Лл», где Л1э Л2, ..., Ап — попарно несовместные события, равна ρ (А) =/?(Л1) + ρ (Л2)+ + ... + Ρ (Αη)- Это условие должно выполняться и для бесконечных последовательностей попарно несовместных событий. Приведем формальное определение вероятности для опытов о бесконечным числом исходов. В подобных случаях пространство элементарных исходов может быть некоторой областью G, а под событием Л можно понимать исходы, входящие в область g. Пусть, например, наугад бросается «точка» М. Какова вероятность того, что «точка» Μ попадает в область g, являющуюся частью области G (рис. 1.1)? Хотя каждое из множеств G и g содержит бесчисленное множество точек, естественно принять, что «вместимость» множества G больше и притом во столько раз, во сколько площадь So области G превышает площадь Sg области g. Приняв равновозможность всех возможных вариантов, естественно' считать, что искомая вероятность равна ρ (Л) = Sg/SG. В общем случае множества G и g могут иметь другую размерность, но приведенная формула сохраняет свой смйсл о той лишь разницей, что множества в общем случае оцениваются мерой (длиной, площадью, объемом). Таким образом, в общем случае ρ (Л) = mes g/mes G. - (1.1.5) Исходя из каких-либо данных событий, можно определить два новых события: их сумму (объединение) и произведение (пересечение). Суммой или объединением двух событий Аг и Л2 называют событие В, И
состоящее в появлении события Ах или события Л2 или обоих этих событий. Аналогично суммой или объединением нескольких событий Аи A%%- — >Am называют событие В, состоящее в появлении хотя бы одного из этих событий. Сумму событий обозначают В = Ах + ... + Ат или B=Ai (J Л2U ... (J Лш, где (J —знак объединения событий. Произведением или пересечением двух событий А± и Л2 называют событие С, которое состоит в совместном появлении и Лг, и Л2. Произведением нескольких событий Аи,...9 Ат называют событие С, состоящее в совместном появлении всех этих событий. Произведение событий обозначают С = АхАг ....Лm или С = Ах Π Л2 Π — ... Π Ат, где Π —знак пересечения (совмещения). С введенными операциями суммы и произведения событий связаны две основные теоремы теории вероятностей: сложения и умножения вероятностей. Перед тем как сформулировать их, приведем определение одного из важнейших понятий теории веро- Рис. 1.1. К определению ятностей - независимости событий, геометрической вероят- События могут находиться между собой в ности таких взаимоотношениях, что вероятность одного из них оказывается зависящей оттого, произошли другие события или нет. Обозначим через ρ (Лх | Л2) условную вероятность события Α ι при условии, что произошло событие Л2. Она определяется формулой р(Аг |Л2) = /7(ЛГЛ2)//>(Л2), (1.1.6) где ρ (Αι Л2) — вероятность совместного осуществления событий Лх и Л2. Событие Аг называется независимым от Л2, если Р(Лг \AJ~piAJ. (l! 1.7) Событие Ах является зависимым от Л2, если р(А1/А2)Ф р(Ах). (1.1.8) Для независимых событий формулу (6) можно записать в виде, симметричном относительно Аг и Л2: ρ (Ах Л2) = ρ (Лх) ρ (Л2). (1.1.9) Отсюда видно, что если Ах не зависит от Л2, то и Л2 не зависит от Лх. Таким образом, можно говорить просто о независимости двух событий. При определении независимости нескольких (более двух) событий различают* попарную и взаимную независимость (независимость в совокупности). События Лх, Л2, ..., Ат называются попарно независимыми, если каждые два из них независимы, и взаимно независимыми или независимыми в совокупности, если вероятность наступления любого из них не зависит от наступления какой угодно комбинации остальных. Теорема умножения вероятностей. Вероятность произведения двух событие равна произведению вероятности одного из них на услов- 12
ную вероятность другого при условии, что произошло первое! Ρ ИИ2) = Ρ Μι) ρ (Л2 | Ах) = ρ (А2)р (Аг | А2). (1.1.10) Вероятность произведения двух независимых событий равна произве* дению вероятностей этих событий: Ρ (АгА2) = ρ (AJ ρ (А2). (1.1.11) Вероятность произведения нескольких событий Аи Л2,...., Ат равна вероятности события А1у умноженной на вероятность события А2> взятую при условии, что наступило Аъ ..., умноженной на вероятность события Ат, при условии, что наступили Аъ Аъ ..., Ат-Х: ρ (А1 А2 ... Ат) = ρ (Аг) ρ (А2 | Ах) ρ (Α9 \АгА2)...р (Ат \ АгА2 ... ...i4«-i). (1.1.12) Для взаимно независимых событий теорема умножения вероятностей принимает вид Ρ (А, А2... Ат) = ρ (Α,) ρ (Л2)... ρ (Ат)9 (1.113) т. е. вероятность произведения нескольких взаимно независимых событий равна произведению вероятностей этих событий. Формула (13) остается справедливой, если в обеих ее частях некоторые из событий заменить на противоположные. Например, р(Аг Л,.... Ат) = ρ (Аг) ρ (Л2)... ρ (Ат)9 (1.1.14) где А2 — событие, противоположное А2 (см. ниже). Теорема сложения вероятностей. Вероятность суммы двух событий равна сумме вероятностей этих событий за вычетом вероятности их произведения: Ρ (Аг + А2) = ρ (Аг) + ρ (Α2) - ρ (ΑχΑύ. (1.1.15) Для трех событий эта теорема принимает следующий вид: ρ (Аг + А2 + А8) = ρ (А,) + ρ (А2) + ρ (А3) - ρ (АгА2) - - Ρ (АгА9) - ρ (Α2ΑΖ) + ρ (ΑΧΑ2ΑΖ). (1.1.16) Аналогично т р(А1+Аг+... + Ат)=^1 ρ (Ад-Σ P(AtAj)+ + Σ ρ^Α,Αύ- 2 p(AtAjAhAl)+... (1.1.17). k > / >/ l>k>i>i Если вобытия Аг> A2f ..., Am таковы, что каждые два из них несовместны, то формула (17) примет вид т Р(Л+Л2+... + Лт)= 2 РШ. (1.1.18) т. ёГ вероятность суммы несовместных событий равна сумме вероятностей этих событий. Укажем два очевидных следствия теоремы сложения вероятностей. 13
1. Сумма вероятностей несовместных событий Аи Л2,..., Ат% составляющих полную группу, равна единице: ρ (Аг + А2+ ... + Ат) - ρ (Аг) + ρ (Л2) + .... + ρ (Ат) = 1, 2. Сумма вероятностей противоположных событий равна единице: ρ (А + А) - ρ (Α) + ρ (А) - 1, (1.1.19) где А — событие, противоположное Л. По определению противоположными называют два единственно возможных несовместных события, образующих полную группу. Укажем, что формулу сложения вероятностей (17) можно записать иначе, учтя, что вероятность наступления по крайней мере одного из т событий Аи А2, ...., Ат равна единице минус вероятность того, что не произойдет ни одного из этих событий, т. е. ρ (Аг+А2 + ....+ Ат) « 1 — ρ (At А% ... Ат). (1.1.20) Если события Аъ А2, ...» Ат независимы, то р(АгА2... Ат) = р{Аг)р(А2)... р(Ат)= Π [1— РШ) и р(Аг + А%+... + Ат)~ 1- Π 11—р(Ай)). (1.1.21) Приведенные формулы позволяют выполнять простейшие расчеты надежности изделий или систем. Надежность системы — свойство системы сохранять значения установленных параметров функционирования в определенных пределах, соответствующих заданным режимам и условиям использования, технического обслуживания, хранения и транспортировки. Основное понятие, используемое в теории надежности, — понятие отказа, т. е. утраты работоспособности, наступающей либо внезапно, либо постепенно. Работоспособность — такое состояние изделия, при котором оно соответствует всем требованиям, предъявляемым к его основным параметрам. Количественно надежность изделий или систем, которые могут находиться вдвух возможных состояниях: работоспособном и отказном, характеризуется рядом показателей и среди них — вероятность p(t) безотказной работы за время t. При объединении нескольких элементов в систему различают их основное (последовательное), резервное (параллельное) и смешанное соединения (рис. 1.2). Соединение нескольких элементов называется основным или последовательным, если отказ системы происходит при отказе любого ее элемента. Соединение двух и более элементов в систему называют резервным или параллельным^ если отказ системы происходит только при отказе всех ее элементов. Смешанное соединение элементов — различные комбинации последовательного и параллельного соединения элементов. Вычислим вероятность р0 (t) безотказной работы системы в течение, времени t при основном соединении нескольких элементов, имеющих 14
заданные вероятности рг (ί), p2 (t), ...., рп (О безотказной работы за- время L При этом полагаем отказы отдельных элементов независимыми. Тогда еобытия, состоящие в их безотказной работе, тоже независимы. Согласно определению надежная работа системы предвтавляет собой произведение событий, состоящих в безотказной работе каждого элемента. Поэтому вероятность безотказной работы рассматриваемой системы (рис· 1.2, а) равна МО-Π Pi(t). /—ι (1.1.22) Отсюда видно, что вероятность безотказной работы системы при основном (последовательном) еоединении элементов веегда меньше, чем вероятность безотказной работы самого ненадежного элемента, и она уменьшается б увеличением числа последовательно соединенных элементов. Определим теперь вероятность рр (t) надежной работы системы при резервном соединении η элементов. Пусть А% — событие, состоящее в отказе ί-го элемента в течение времени t\ вероятность такого события ρ (Л|) = 1 — Pi (0· По определению отказ системы (событие А) происходит только при отказе всех элементов, т. е. А = АгАг..Лп. Если отказы отдельных элементов неза- Ф Pz(t) 2. я. Pf(t) p[(t) δ) nil·* Рис. 1.2. Основное (α), резервное JL (б) и смешанное (в) соединения ВИСИМЫ, ТО ρ (Α) = Π [1 — pt (/)]. элементов Безотказная работа системы есть событие, противоположное отказу. Поэтому М0=1-рИ)=1-п П-л(0]. (1.1.23) /=1 Из этой формулы следует, что при увеличении числа параллельно соединенных элементов вероятность безотказной работы системы возрастает, причем она превышает вероятность безотказной работы любого элемента, в том числе и самого надежного. Воспользовавшись формулами (22) и (23), можно рассчитать надежность смешанных систем, представляющих собой различные комбинации последовательного и параллельного соединений элементов, отказы которых независимы. Методика равчета надежности систем в случае зависимых отказов отдельных элементов изложена на е. 329. /пример 1.1.1. В системе из η последовательно соединенных элементов имеется возможность дублировать (резервировать) только один из них элементом той же надежности» Какой из элементов целесообразно резервировать и насколь- 15
ко при втом повысится надежность, если отказы отдельных элементов происходят независимо. Надежность исходной системы (без резервирования) определяется формулой (22). Обозначим условно элемент, который дублируется, номером 2 (см. рис* ί,2, в) принято Рз V) β Ρ'ί (0 β Рг (0)» Надежность двух параллельно соединенных элементов по формуле (23) равна 1 — [1 — р2 (Or β 12 — — Pi (01^2 (*)' а вероятность безотказной работы всей системы находим по формуле (22): т Рс(0 = [2-р2(0] Π Pi(t). Следовательно, τη PcV)-Po(t) = ll-p2(t)] Π Pt(t). Видно, что превышение рс (t) над р0 W будет наибольшим, если р2 W придать наименьшее из всех возможных значений· Таким образом, для получения наибольшей надежности системы следует дублировать самый ненадежный элемент* К чиелу основных формул элементарной теории вероятностей относится формула полной вероятности, а также формула Байеса. Пусть некоторое событие Л может появиться только в сочетании с одним из попарно несовместных событий Нъ Н2, ..., Нпу которые составляют полную группу. Предположим, что известны вероятности этих событий ρ (Ht) и условные вероятности ρ (A | //*), (=1,2,..., я, события Л. Нужно найти безусловную вероятность ρ (А) события А, Так как событие А появляется тогда и только тогда, когда осуществляется одно из попарно несовместных событий АН19 АНЪ ..., АНп> то по теореме сложения вероятностей имеем р(Л)=2р(ЛЯ,). Отдельные слагаемые в правой части находим по формуле умножения вероятностей (10): Ρ (AHt) = Ρ (Ht) ρ (Α \ Hi). Таким образом приходим к так называемой формуле полной вероятности: p(A)=^p(Hi)p(A\Hi). (1.1.24) Формула Байеса является решением следующей задачи. Пусть по- прежнему событие А может наступить только при условии появления одного из попарно несовместных событий Нъ Нъ ..., Нп. Поскольку заранее не известно, какое из этих событий наступит, их называют гипотезами. Предполагаются известными вероятности гипотез ρ (Hi) и условные вероятности ρ (Α \ Нг) события А при каждой из гипотез. При этих условиях безусловная вероятность события А дается формулой (24). Допустим, что произведено испытание, в результате которого появилось событие Л. Спрашивается, с какой из гипотез следует связывать появление события Л? По-видимому, для решения задачи необходимо вычислить условные вероятности гипотез ρ (Hf\A) при условии, что произошло событие Л, и той из гипотез, которая будет 16
иметь наибольшую вероятность ρ (Hi | Л), следует отдать предпоч* тение. На основании теоремы умножения вероятностей имеем ρ (АЩ) -ρ (Α) ρ (Ht I A) - ρ (H^ ρ (Α \ Ht)9 откуда Ρ (Ht \A) - ρ (Ht) ρ (A | Ht)l ρ (A). Воспользовавшись (24), получим формулу Байеса p(Ht\A) = Ρ(«ύΡ(Λ\Ηύ t ίβ1 2 Пщ (1Л25) ¥=ιΡ(ΗύΡ(Α\Ηύ ΡΤΟι ПРИ Рис. 1.3. Бинарная симметричная система связи Формула Байеса позволяет оценить вероятности гипотез после того^ как становится известным результат испытания, в итоге которого появилось событие Л. Формулы Байеса играют фундаментальную роль во многих проб·* лемах статистической радиотехники (в частности, при оптимальном приеме сигналов на фоне помех). При этом вероятности гипотез ρ (#4) обычно называют априорными вероятностями, а условные вероятности ρ (Hi I A) — апостериорными вероятностями гипотез. Для иллюстрации принципиальной важности формул (25) рассмотрим пример. Пример 1.1.2. Бинарный симметричный канал связи с помехами. Пусть п<?· бинарному симметричному каналу связи с помехами может передаваться одиь из двух возможных сигналов, которые условно обозначим X и Ϋ. Примером мо: гут служить сигналы телеграфного кода Бодо. На передающей стороне (ПРД) сигналы X и Υ следуют во времени случайным образом, однако считаются известными относительные частоты следования сигналов X и К, которые обозначим соответственно через Ρ {X = Нг) = р0 и Ρ {Υ = #2} = q0 = 1 — JC70. Эти вероятности могут быть определены на основании предварительного изучения статистики передаваемых сообщений (сигналов)* В последующих расчетах принято ро = Яо = 0-5- Между передающим (ПРД) и приемным (ПРМ) устройствами расположены две ретрансляционные станции PTQ и РТС2 (рис* 1.3). Из-за наличия помех на каждом из участков ПРД—PTQ, PTCi«— PTC2, РТС2— ПРМ возможны искажения: вероятность искажения любого из двух сигналов в другой одинакова и равна q « 1 — pt где ρ — вероятность правильного приема сигналов. Искажения на каждом из участков полагаются независимыми* L Какой из двух сигналов был передан, если на PTCf принят сирнвл Х%?> Какой из сигналов был передан, если на ПРМ принят сигнал Х$? 2· Вычислить и построить графики зависимости от ρ вероятности полной ошибки ре приема сигналов в пунктах PTGj, РТ62 и ПРМ·
3f Вычислить вероятности правильного приема сигналов в пунктах PTCj, PTQ и РТС2, а также PTQ, РТС2 и ПРМ4 1. Отождествим гипотезу Н% с передачей сигнала X и гипотезу Н2 е переда· чей сигнала К. Вероятности этих гипотез заданы и равны соответственно ρ (Hi) « ρ (Χ) = ρ0, Ρ Шъ) — Ρ (Υ) — Яо = 1 — Ρο* Пусть событие А состоит в том, что на PTGi принят сигнал Х^, Из сформулированных условий следует, что ρ (А | Нх) = ρ (Χι Ι Χ) = ρ, ρ (Л | #2) = ρ (Χχ \ Υ) « q = Ι — ρ, На основании формулы Байеса (25) получаем %о ΰ,δ Л Pel- <J*\ _ I ...,. X - Ρ(Ηί\Α)=ρ(Χ\Χ1) = РоР __ 0f5/7 РоР+ЯоЯ Q,5 (p+q) P(H2\A)=p(Y\Xi) = q0q ^ 0f5q ' РоР+ЯоЯ 0,5 (p+</) =P> 0,5 1fip Рис. 1.4. Вероятность полной ошибки для бинарного симметричного канала Отсюда следует, что при приеме сигнала Х% был передан сигнал X, если ρ > q% и был передан сигнал К, если ρ <q. Такой ответ в нашем примере вполне логичен, поскольку было принято р0 = Яо β 0,6. Предположим, что принят сигнал Хъ (событие А). Нетрудно убедиться, что при независимых искажениях сигналов на отдельных участках справедливы соотношения P(Xs\X)=P(X1\X)p(X2\Xi)p(Xf>\X2)+p(Xt\X)P(Y2\Xi)P(Xs\Y2) + + P(Yt\X)p(X2\Yi)P(X*\Xu+P(Yi\X)p(Y2\YdP(Xs\Y2)=Pb2+mi P(XB\Y)^P(Y^\Y)P(Y2\Yi)p(Xb\Y2)+P(Yi\Y)P(X2\Yup(XB\X2) + +Р (Χι Ι Υ) ρ (Χ21 Χύ ρ (Χ* ΙΧ2) +ρ (Xi Ι Υ) ρ (Υ21 *ι) ρ (Χ* Ι Υΰ=я (я2+3ρ2). Формула Байеса (25) теперь принимает вид Ρ(Χ\Χύ=~ PoP(P2+W) Р*+*РЯ2 РоР(Р2+т+Яо Я (<72+3p2) P3+<73+3p<7 Р<У\Х'г) = ЯоЯ(Я2+Зр2) <?3+3р2с/ Ро Ρ (Ρ2 +3<72) +q0 q (q2 +3p2) ρ3 +<p +3pq Отсюда следует, что ρ (Χ \ Χ$) > ρ (Υ | Χ8) при ρ?+3ρ^ > ^+3ρ^, т. е, при (Ρ — <7)3 > 0* Следовательно, прием сигнала Х% означает, что был передан сигнал Ху если ρ > </, и сигнал К, если ρ <i q* Принятие таких решений будет сопровождаться, ошибками. Например, если принят сигнал Хъ и ρ > qt то это еще не свидетельствует о том, что обязательно был передан сигнал X. 2. Вычислим вероятности ошибок, допускаемых при указанных правилах приема сигналов в пунктах РТС^, PTC2 и ПРМ. Вероятности полны» ошибок 18
приема сигналов в этих пунктах определяются соответственно следующими выражениями: Ре1=Ро Ρ (γϊ I Х) "Но Ρ (*ί Ι У) =Α> <7+<Λ> <?=?= *—Ρ* Реъ-Λ Ρ (^21 Χ)~Ио Ρ № Ι У) —2pq (Ρο +Яо) =2ρ (1 — ρ), Рег=РоР<Уъ\Х) гЯР(Х*\У) = (Ф-*Р rV(l-P)· Графики зависимости этих вероятностей ошибок от ρ изображены на рис* 1.4. 3» Вероятности правильного приема сигналов в пунктах PTGj, PTQ в PTG2, а также PTQ, РТС2 и ПРМ находим по очевидным формулам £>ι=Ро р № IX) + до р (У 11 У) =ΡοΡ-ϊ% ρ =ρ* о2=р0р(Х$,Х2\Х)+9оР(УъУ2\У)~РоР2+доР=р2. D3 = p0 ρ (Х19 Х2? Х3\Х)-\-д0Р Ρε, Υ%. У%\ У) ~РоР*+Яо Р9=Р*· Здесь, например, ρ {Х%7 Х2 I X) есть условная вероятность правильного приема переданного сигнала X в пунктах PTGi и РТ62» Аналогичный смысл имеют дру- гие вероятности* 12. ОПИСАНИЕ СЛУЧАЙНЫХ ВЕЛИЧИН Рассмотрим некоторый случайный опыт или эксперимент, который можно повторить большое число раз при неизменных условиях. Предположим, что результат каждого отдельного опыта или эксперимента дается одним скалярным числом х. Введем на прямой соответствующую точку ξ =ч х. Будем называть ξ случайной величиной. Если результат отдельного опыта дается несколькими скалярными числами х19 #2,... ..., Xk, то можно ввести точку или вектор ξ = {хъ ..., xk) в ^-мерном пространстве и будем называть ξ соответственно k-мерной случайной величиной или k-мерным случайным вектором. В дальнейшем случайные величины будут обозначаться буквами греческого алфавита |, η, ζ, ..., а принимаемые ими конкретные значения — строчными латинскими буквами х% у, г, .... Жирный шрифт будет употребляться для многомерных, т. е. векторных случайных величин. Отметим, что между случайной величиной и случайным событием существует тесная связь. Так, например, любому событию А можно поставить во взаимно-однозначное соответствие случайную величину, которая при появлении события А равна lf а при непоявлении события равна нулю. Однако во многих случаях предпочтительнее иметь дело со случайными величинами. Для полного описания случайной величины необходимо указать возможные значения, принимаемые случайной величиной, и вероятности этих значений. Соотношение, устанавливающее в той или иной форме зависимость между возможными значениями случайной величины и их вероятностями называется законом распределения. В зависимости от возможных значений, принимаемых случайной величиной, и характера закона распределения действительные случайные величины можно разделить на три группы: диекретные, непрерывные и непрерывно-дискретные (смешанные). Дискретной называется случайная величина, принимающая конеч· ное или счетное множество возможных значений. Закон распределе- 19*
ния дискретной случайной величины ξ, принимающей значения х1, х*> ···> *п> задается указанием вероятностей этих значений: Pi = P{l = Xi), i=l,2> ...,n. ' (1.2.1) Такая зависимовть между вероятностями и соответствующими значениями дискретной случайной величины может быть задана в виде графика, таблицы или аналитического выражения. Очевидно, чю все вероятности должны удовлетворяв условиям Pi>0, 2?-ιΛ—1. (1.2.2) Дискретная случайная величина ξ называется решетчатой, если все возможные значения xt представляют собой арифметическую прогрессию, т. е. существуют такие числа а и ft, что** могут быть представлены в виде Xi = а + /ft, где ι принимают любые пелые значения (— оо < / < оо). Полагая нулевыми вероятности некоторых значений pt = Ρ { Ι = Xi } = 0, рассматриваемую величину ξ иногда можно привести к решетчатой. Непрерывная случайная величина принимает бесчисленное множество значений, причем вероятность попадания ее в любую бесконечно малую область бесконечно мала. Закон распределения непрерывной случайной величины ξ задается плотностью вероятности ρ (χ). Плотность вероятности ρ (χ) непрерывной случайной величины ξ определяется как предел отношения вероятности попадания значений случайной величины в малый интервал [χ, χ + Ах] к длине этого интервала Δ* при Ах -»> 0: ;?(;t) = lim Ρ {χ^Κχ + Αχ}/Αχ. (1.2.3) - Δχ-*0 Отсюда следует, что Ρ {χ < ξ < χ + Αχ) = ρ (χ) Δ χ + ο (χ), где ο (Αχ) — величина более высокого порядка малости по сравнению с Δ*. Величина ρ (χ) Ах называется элементом вероятности. Плотность вероятности ρ (χ) является размерной; ее размерность обратна размерности рассматриваемой случайной величины. Плотность вероятности обладает следующими тремя свойствами: она неот- рицагпельна и нормирована к единице оо р(х)^0, j" p{x)dx=l; (1.2.4) ·— оо вероятность попадания случайной величины в полузамкнутый интервал la, b) равна интегралу от плотности вероятности в этих пределах ъ P{a^l<b} = §p(x)dx. (1.2.5) . а Укажем, что дискретные случайные величины, как и непрерывные, можно описывать с помощью плотности вероятности* и функции рав- пределения. Используя определение дельта-функции (/-1) и ее ввой- * Ввиду этого в дальнейшем не делается существенного различия в исполь· зовании терминов «закон распределения» и «плотность вероятности». 20
ство (1-4), закон распределения дискретной случайной величины (1) можно записать в виде плотности вероятности р(*)-2 л β(*-*ι)· β О·2·6) При этом для ρ (χ) будут выполняться условия (4) и (5). Однако теперь . выражение (5) следует конкретизировать, так как в граничной точке а может быть сосредоточена отличная от нуля вероятность, если в этой точке аргумент дельта-функции равен нулю. Поэтому применительно к дискретной случайной величине в интеграле (5) левый конец α нужно включить, а правый b исключить из интервала интегрирования *: P{a<l<fc} = f p(x)dx = lim f p(x)dx. (1.2.7) οίθ β*°βίβ Очевидно, что постоянную величину с можно рассматривать как частный случай случайной величины Е, принимающей всякий раз одно и то же значение с и поэтому имеющей плотность вероятности ρ(χ) = δ(χ — с). (1.2.8) Универсальной характеристикой, одинаково пригодной как для дискретных, так и для непрерывных случайных величин, является функция распределения случайной величины. Функцией распределения случайной величины ξ называется функция F (я), равная вероятности того, что случайная величина ξ примет значение, меньшее, чем χ (для всех χ на числовой оси): F (х) = Ρ {I < х}9 — со < χ < оо. (1.2.9) На основании формулы (7) получаем связь между функцией распределения и плотностью вероятности: х—О F(x)= J Pto)dy, p(x) = dF(x)/dx. (1.2.10) Функция распределения обладает следующими свойствами: F (— оо)= = 0, F (+ оо) = 1; F (*") > F (*') при х" > х\ т. е. F (х) — неубывающая функция; вероятность попадания случайной величины в полузамкнутый интервал [а, Ь) равна разности значений функции распределения в этих точках Р{а<1<6}= f p(x)dx = F(b-0)—F(a—0). (1.2.11) αίο Вид законов распределения и функций распределения дискретной и непрерывной случайных величин показан в табл. 1.1. ♦Запись / (t0 + 0) = lim / (t) означает, что берется правосторонний пре- t \ to дел, а / (t0 — 0) = lim / (t) — левосторонний предел»
со s Ч 22 χ величи Χ 2 в «3 ВТ РЗ о 0! S X <υ ч еде о. с СО О. 2 X о Р0 1 1 0) ш 2 со 1 «1 со «о X ' к § * ИЗ S Ял Η ε» м «о α χ IS Γι <ϋ <α Си этическое выр в закона расп еления ρ (χ) <« 4 о ва со аз D3 Й, О «* СО со II <* II ^ | + ~-· <с> «55- δ — ^ ic* ы к. ^ vr с^· X О 1 II 1 -* i V/ »< с*. α ν/ J> щ •=3 >> X О. СО *"-« £ ·« i H Is» \5 11 £ II S £ l[ + ? 3. g ι 1 α> С*. I + *""* *?§· ^ . *£> ______ S ■^ . . » - КЭ Csi t^ c>r «5^ ^T ., ε» с · ϋ°ι Η О SB »S К 2 to « ΟΙ *3 «^ Ы ^ i-t 9— | 1 Τ φ cx u» ,_. It 4. [ ^ . *l 1 1 1 | ^ <* Ю C\| ^ C^ ^ ^ ^ ς^ *** Ю ' csi <5> «■Η · 1 ci II ** 1 ^_ 1 Ш О »s I © s 1 ' CO
I * g I В л > и централь V-ГО ПОрЯДК! is §1 I № О * s 1 n 1 с 1 ffl IT 1 № КЦИ I к ческа я фу гериоти Φ 1 ffl Ι β. 1 Л χ .ЗА Ι •8,w It) I E 2t« Ι α Аналитическое жение закона 1 деления ρ g§ о Я Ι ц si и 1 ее I CO I 1 ^ ι И 1 L· ©ι ι 1 о I δ ca. ί* 1 1 ^ «1 <*> 4> <M <^> Τ ! I r w lo- + ι I A S 1 5 о I 1*1 SI*· US 03 1 <* II II f * 1 CU r ·—> ^^^_ _ s — Q^\ С *ч. ·>*. λ. ι С^. 1*» £ 1 S3 §3 ^ κ ^ ^ ^ ^ Ι ^ с^ <ъ- ^ Г 5 I* r ε gl « 1 4 1 ° 1 сз 1 • 1 Ю 1 в «1 с* li и ε4 - 1 «"" I ^ "φ | 1 с $г = II ~"""■ ^ *. FH 1 ** «о Csl • 1 * 1 η 1 *S C4 1 3 я §* ι S о 1 Si to 1 ,1 1 Ι/*** Λ ε II * 1 _?■ 1 Τ 1 "^ << a> ■ε* ■ VU3 ^ <»· «NJ i <Jv^ С5Г ^ I a> « χ —« Η* ο- Ι та а о о о яг С г^ J I 23
~ I £ ю S « О et о Он S* К >< со α CLE lis Я И X О о а ее ш о. о OB § Τ? ь* !И1 N a | *с> | |см 1 + 1 > « * 1 й. - 1 + Г * ' -о + *о " II + · 1* φ I1 I Ρ U a. V V II s. m c< »■* II 1* ϊ< ■? II ^ £ II £ ε О Я © 11 В! tt ·«■ σ> л ill Φ § cu χ sis 24
ί φ a И g e I iS СР • & со о. о. π 8«* iiBg; I И §8§ со я} Η 4> <* <Ь о-* в 5 о я СО № ■i I ^ о» Ь «я + - ΐ 6 о 8 II ε η II s οι 4ί 8W1 + χ ο. δ II £ Ι<ν > Is Б ι ч| с Ι 4JL0 Ui> 8 5 - S β ■я II g*Bi Ss © « 5 · 5 «Г csi II 04 с II > + β. • + η >> c| см 1 Φ 1 1 >*-*- ^5 Csi . ^ r »\\^ «^ & *5T X ^"* ,4& λ _ fc § «^r <^ c|« 1 * ь со О. t=i а « ¥ а Χ со mm \н ' Й δ δ «а <υ о So ν 1э л is * §1 I si 1 25
2 Ш со IS г α и •ее- Л X Л _| * 1\ ' + ι ν~Ί II ечеа| S (Ν II *l <N Τ + ■3 + X I fi el с + X .8 R C3 |Sj ^ u а, я 9· ол-^а> ο о <u 2 <S л я δ ι=β α. Ε α> α> χ см Δ л |> | -ft» II C* Й. ο II δ (ι- CM . Ю CO > Ι j4 * ■4f Ι -U» CM* 1 | -ft» II ? <Ν =L * -ft ^^ ' <ЬЗ ч<< <}-> ^Г ю II ►V Ал °ч. ^ +1 ■Si х +L· ^ ' .^ У «.- С* + § II h 9 ЭЙ 2S
- =? ю со н <d « о α. С 5Β со Я о ч X со α «о Χ! + + i II II V ff ί L + It- аса!! 03 В 51 si s CO + τ ι -^ + ·§ ι ° II ε I + + -9 о + z 2-π + 3, •S- t- 1 + -Q + «3 с 3 C-* ε, +1 + -ο + Χ .^ ей + ? CO. ΦΙ ξ + 1 +1 «3 \ъ~г ι ^ - ο Ι Χ 03 СО S « **ч + «ίϋ а. + ** I + II л» <м ^—' Ι з- ~_ <=> -- J.C3 ■ Ι + -ε* " Τ << Ι " 1 > Г + * f :ί 2 5 ° ιι 2 03 0) 27
ω К аз о К «=3 о о с я с 8 | 8§ Бе is О w M 1=1 |8| со ^ & 33 Л о. 35 «* §5 5? со а ю I >> о I о. δ 8 со Щ 8 + Φ 8 ей + V - к 8 V о * Л ■β 8 I О US со. A о ι-a A 8 ± 8 - I s о CM csi л Ϋ >· |CM I sS S 5 8 -s \8/° α, CO 28
ι s ш ° ч si Be •о— ■ ■-* «а 1 Ψ* S y^J > 2. + —* 01 + d W I ^ wi Μ ι ιι + + t-, + + δι 8 У^\\ + ^» Сь с^ *tf* CnT W ο '>ο -Η -Γ ? " II * Η t3 ^ ft ..Ι- Ι ^ 1 Ρ λ _]_ ..ι _ \ <r ro csi ^ c^ •δΓ <5Γ Sb*4 ^Γ «ο*<| Hi щ CO I О Л I — © «α) το α δ si 0) & О W »SS S κ[ α б н 3 e» <υ и э д д cq °«л 5 й »s 3 с л ΐίΛ S-i> 2 £ S 2 « Й^ ^ Э 2 S κδ S Д S3 2»
α α. ε» ο ш а H i ι II °? + cT + ε >»—• tn cTl ? -Η 'Μ I u| ьИ о| > Ί + •θ· δ* 4) g Ο * Κ «и « s в» α> a Я я <ϋ gs| ВС <1> §| 8^ Ϊ + •ft» 1 с •β? 5 + ' 8HJ> χ 4 νο »35 СМ R i Ъ «5Г II ^ Vs. J_J CNl A *У \ l^^J г VO- VO Χ *■«—- *■** CM /-*. ϋ С Ι ο» Λ Χ кага» СЗ ю см расп ение £ % 30
χο со s я о О II •Θ· II II i1 i + φ ее Χ δ a gig ess η S о. Ч, е О Л • V S a 8 8 +1 a II I PS' 45I Ι ν w V * 8 ' ν .о о 8| s &« S c, 3 о ^ II ? + -ι« .1 ν н V >t a я s о, <: 00 31
Скалярная случайная величина называется непрерывно-дискретной (смешанной), если она принимает непрерывное множество значений, а в конечном или счетном множестве точек xlt х29 ...» хп имеет конечные значения вероятностей ри ръ ..., рп. Плотность вероятности такой случайной величины ξ определяется формулой Р(*)-Л(*>+ 2 Λ«(*-*ι). 0-2.12) где рг (х) — неотрицательная функция, определяемая как предел (3) при χ Φ хи х2, ... , хп. Условие нормировки для плотности вероятности (12) имеет вид f pt(x)dx + ЗЛв1· (1.2.13) Функцию распределения можно представить выражением *4*)-*J p{y)dy- J рЛУ)ау+ 2 Λ· (1-2.14) ем «оо *$ < * Характер плотности вероятности и функции распределения непрерывно-дискретной елучайной величины показан в табл. 1.1. Вместо закона распределения или функции распределения для характеристики случайной величины можно использовать характеристическую функцию. На основании определения математического ожидания (см. (1.3.2)) характеристическую функцию можно определить как математическое ожидание случайной величины ехр (/θξ) или, что то же самое, как преобразование Фурье (с точностью до знака) от закона распределения: 00 <D(jO) = M{ei*&}= f p(x)&«xdx. (1.2.15) fc.00 Применительно к дискретной случайной величине о плотностью вероятности (6) характеристическая функция примет вид Φ0*)- 2 ле1**'- 2 e'^'Pft-Xf}. (1.2.16) Использование характеристической функции в некоторых задачах упрощает вычисления. Часто вместо характеристической функции Φ (jd) оказывается удобным использовать логарифм от нее: Ψ GO) = In Φ (j*). (1.2.17) Функцию Ψ (jO) можно назвать второй характеристической функцией случайной величины ξ. . Характеристическая функция действительной скалярной случайной величины ξ имеет следующие свойства: она непрерывна по Ф; |Φ0·θ)|<Φ(0)=1, Ψ (0)«0; (1.2.18) 32
Φ (—JO) - Φ* (JO). - (1.2.19) где звездочка обозначает комплексно сопряженную функцию; если Ϊ] = at, + Ь, где а и Ь — постоянные, то φη(ίθ) = β***Φέ0α#); (1.2.20) если случайные величины | и η независимы и ζ = i + η, то Φ$0Ο) = ΦΐϋΟ)Φη0Ο); (1.2.21) 00 ф<*) (jfl) = ^±Щ. = jft С xk ejo* р (Χ) dXt (l .2.22) d$k J *9 OO В теории вероятностей при весьма слабых ограничениях доказывается теорема единственности: функция распределения (закон распределения) однозначно определяется своей характеристической функцией. На основании обратного преобразования Фурье и формулы (10) имеем 00 p(x) = £M=-L· Г ф(]д)е-и>*Л>>0. (1.2.23) αχ 2π J — OO Воспользовавшись равенством (11) и проинтегрировав соотношение (15) от х' до #", получим непосредственное выражение функции распределения через характеристическую функцию: F(x*)-F(x')=-L· J Л _J O(J0)d*. (1.2.24) <&? OO В частном случае, когда плотность вероятности является четной функцией ρ (— χ) = ρ (χ), характеристическая функция будет вещественной и четной: Φ (— jO) = Φ (jft) = Φ (ft). При этом формулы (15) и (23) примут вид пары косинус-преобразований Фурье: оо оо Ф(0)= Г p(x)cos$xdx, p(x) = -L· Г <D(O)cos0j«fth (1.2.25) •~»оо а оо Итак, учитывая наличие однозначных соотношений (15) и (23) между законом распределения, функцией распределения и характеристической функцией, можно утверждать, что характеристическую функцию в равной мере можно использовать для описания случайных величин. Приведенные выше определения плотности вероятности (закона распределения), функции распределения и характеристической функции, а также соотношения между ними обобщаются на многомерные или векторные случайные величины. Пусть многомерная случайная величина или случайный вектор ξ имеет составляющие или проекции 1Ъ ξ2, ... ..., ξΛ. Каждая из действительных скалярных величин (проекций) |г, i= I, n, может принадлежать к одной из трех указанных ранее групп: дискретной, непрерывной и непрерывно-дискретной. Векторная слу- 2 Зак. 956 33
чайная величина ξ может иметь проекции, принадлежащие к разным группам. Универсальной характеристикой, пригодной для опиаания векторной случайной величины любого типа, является функция распределения. Функцией равпределения влучайного вектора ξ « {ξχ, .♦., ξΛ} называется функция Fn(χ) tm Fn {xl9 x2,..., xn) = Ρ {% < xl9 ξ2 < *2,..., ln <xn}=* ХП Xi я | ..♦ J Pn(«i un)dut...dunp (1,2.26) «*0O iVOO т. е. вероятность произведения событий {%t < #*}, рассматриваемая как функция правых концов полубесконечных интервалов (— оо, xt)f I *= 1, п. Перечислим основные свойства функции распределения случайного вектора. 1. Функция распределения Fn(x) влучайного вектора ξ Fn (х)-> -> 0, когда хотя бы одна координата векторал стремится к — оо, и Fn (χ)-* 1, корда все координаты вектора χ стремятся к + оо. 2. Функция распределения Fn (x) является неубывающей и непрерывной слева функцией по каждой из координат вектора х. 3. Fn (Χχ9 ..♦, #j_χ, оо, Xt+U ..., хп) = Fn~i (Χχ9 ..., Xi-ι, Xi+u ... Плотновтью вероятности ρη(χ) = рЛ (хи хъ ..., *л) влучайного вектора ξ =5 {£lf ..·, ξη} или вовмевтной плотновтью вероятности влучайных величин |lt |2f ..., ln называют предел отношения вероятности попадания случайной точки в бесконечно малый многомерный параллелепипед со сторонами Δ*1§ Δλγ2, ..., Δχη κ объему этого параллелепипеда при стягивании его в точку (хъ хъ ..., xn)\ Pn(x) = Pn(Xi *п)- ^lijn p fa < h < *ι+Α*ι> >.. > Хп < In < *n+A*n} __ Δ*ι->· Δ#|) Δ*2.. # Axn • · · -i^lai^L. (1.2.27) Отметим, что функции распределения — безразмерные величины, а плотность вероятности рп (х) имеет размерность [1/ел1. Плотности вероятности должны удовлетворять следующим четырем условиям: 1) условию неотрицательности Рп(*ь*г, ~,*п)>Ъ О·2·28) 2) условию нормировки 00 О» f -. f Pn(*i> X2>..;Xn)dxidx2... dxn=*l; (1.2.29) «00 еяОО 34
3) условию вимметраа — функции рп (хи ..., хи) должны быть еим- метричны относительно любых перестановок аргументов хи так как вероятность совместного осуществления η неравенств х% < \t < х% + + А#ь Ι β 1, п9 не зависит от того, в каком порядке перечислять эти неравенства; 4) условиюеоглсиюванноетиг при любом т<п ОО 00 Рт\х1*···· ^го)еэ I ··· ι PnV*l> ···» *m> ^ш+1»»»»э *п)Х 0 0» «SO» X dXm+χ... dxn. (1.2.30) Последнее соотношение показывает, что из ^-мерной плотности вероятности всегда можно получить любую плотность вероятности меньшей мерности путем интегрирования первой по «лишним» аргументам. Из перечисленных свойств плотностей вероятностей непосредственно следуют указанные выше свойства функций распределения, если воспользоваться соотношением Χι ХП Fn(Xu—,Xn)~ j ... J Ρη(χί>—> xk)dx{... dx'n. (1.2.31) «BOO *w»00 Вероятность попадания случайного вектора ξ в область S определяется формулой P{l€S}=$pn(x)dx (1.2.32) или в координатной форме P{(lubM...U€S>-i ··· Jpn(*i xn)dx1...dxn. (1.2.33) s В частном случае, когда η = 2 и область S есть прямоугольник со сторонами, параллельными осям координат, и с вершинами в точках (Оь Ьг)9 (а2, 6Х), (%, 62), (а2> 62), ах < а2, 6Х < 62, искомая вероятность находится по формуле Ρ ft -Л(я» W— ^a(Oi.ftf)— ^<*» W + ^ifli. W- (1.2.34) Укажем, что совокупность комплексных случайных величин ζχ = β ii + JOi» ···» ζ» = Ιλ + hn считается вероятностно определенной, если известна совместная функция распределения или совместная плотность вероятности 2п действительных случайных величин |ь •••ι €л> Hit ···· Ил· Характеристическая функция случайного вектора ξ = {glf ... ..., In} по аналогии с (15) определяется формулой Ф»а*)-Фл(1*ь..м J«n)«M {βχρ1(*1|ι + ... + *ΛξΛ)}= - 2* 35
00 00 = ί -· j *H*lXt+""*'i>nXn)Pn(Xi,...>Xn)dx1...clxn, (1.2.35) емоо виоо где Ό1!, ..., Фл — вещественные переменные. Укажем некоторые свойства характеристической функции случайного вектора [6, 7]. Характеристическая функция Фп (jfl·) симметрична и непрерывна, \Фп (jO) | ^ 1, Фп (0) « 1, Фго 0*ь -о ^т) = Ф η (j#i, — JO- 0, ..,0), т < я. (1.2.36) Последнее соотношение показывает, что из характеристической функции Фп всегда можно получить характеристическую функцию Ф„, меньшей мерности (т <* /г), положив равными нулю «лишние» аргументы θ*. В этом заключается одно из преимуществ оперирования с характеристическими функциями. Если ξι,.,., ξΛ — независимые случайные величины, то их совместная характеристическая функция, как следует из (35), равна произведению характеристических функций отдельных величин: ΦΛϋ*ι,..., Ю= Π 0*fcu*»). (1-2.37) Наоборот, если совместная характеристическая функция величин |ъ ..., 1п выражается формулой (37), то случайные величины llt ..., ln независимы. Это утверждение следует из формулы, выражающей плотность вероятности через характеристическую функцию: Рп to·.... Хп) = дн_ δχη Fn (*,..., Хп) - — X X J ... J e'j (<>1 *1+"'+<>Л *»> ФЛ (j*i,.... jO^dV- d#„. (1.2.38) Здесь интеграл (если он сходится не абсолютно) понимается в смысле главного значения Коши. При решении многих задач приходится оперировать с условными функциями распределения и условными плотностями вероятности. При их определении отправной является формула (1.1.6). . Условной функцией распределения F% (χ \ В) = F (χ \ В) случайной величины | относительно события В называется условная вероятность выполнения неравенства ξ <; χ при условии осуществления события В: F(x\B) = P{l<x\B} = P{%<xt B)lp (В), (1.2.39) где {| < х, В) — по существу произведение двух шбытий {ξ < х) и В. Условная функция распределения удовлетворяет всем перечисленным ранее условиям, которым удовлетворяет безусловная функция распределения: F(— οο|β) = 0, F(oo\B) = 1, Ρ {x' < Ι < хГ | Β) = F (xu \B) — F(x'\B) = =Ρ {*' < ξ < *", Β)Ιρ (Β). (1.2.40) 36
Если ξ — непрерывная случайная величина, то условная плотновть вероятности определяется формулой p(x\B) = dFWB>=lim Pi*<K*+&*\B)t (1A41) Она удовлетворяет всем условиям, налагаемым на плотность вероятности, в частности, оо ρ(*|β)>0, § p(x\B)dx = F{oo\B)—F(—οο|β) = 1. (1.2.42) s· оо Если событие (условие) В выражено через исходную случайную величину ξ, то F (х | В) и ρ (χ \ В) могут быть выражены соответственно через F (х) и р(х). Рассмотрим здесь два случая, которые потребуются в последующем. Пусть В = {| < а), где а — постоянная, причем ρ (В) =s Ρ {ξ <; < а} = F (α) Φ 0. По определению имеем F(x\l<a)=P{l<.x\Ka}= P{1<*' ^<flLa (1.2.43) Ρ \> < я} Предположим, что * > а. Тогда {ξ < χ% ξ < α} = {l<a}nF (χ |ξ< < α) = /'{ξ < α)ΙΡ{\ < α) = 1, χ > α. Если χ < α, το {ξ < χ, ζ < α} =* {ξ < χ} и, следовательно, 1*,6<α) Ρ{ξ<α} W *<α· Условная функция распределения изображена на рис. 1.5, а. Соответствующую условную плотность вероятности ρ (χ Ι ξ < а) находим путем дифференцирования F (χ | ξ < α)ι I Р(х) _ PW у^„ I P(x)dx (1.2.44) е-* оо Of χ > α. Предположим, что В = {а ^ ξ < 6}, где Ь и α < Ь — две постоянные, причем ρ (В) = F (Ь) — F {а)Ф 0. Согласно определению (39) можем написать ^"^о'-'^Г1- (1·2·45) Пусть χ > 6. Тогда {ξ < дг, α < i < b) = {α < ξ < ί>} и Если α < * < 6, το {ξ < *, α < ξ < 6} = {α < 1 < *} и 37 p(x\l<a) =
Наконец, при χ < а имеем Ρ {ξ < #, α < ξ < 6} = 0 и F (я | я < <: ξ < &)=0, ^<fl, Соответствующая условная плотность вероятности равна (см. рис. 1.5,6) О, *>&, ρ Μ ρ(*|α<£<&) = F{b)—F{a) о; , α<*<6, χ<α. (1.2.46) φ&\α<ξ<δ) Рис. 1.5. Вид условной функции распределения (α) и условной плотности вероятности (б) Допустим, что А—произвольное событие, для которого ρ (А)ф09 и В = {х' < ξ < *"}· * < *"· Так как ρ (В) ~ F (хГ) — F (*'), то согласно (39) имеем Р(А1х'^1<хЪ=р(А' *' <г<*> * ИУ 1 ^ ' F(x»)-F(x') Отсюда и из (40) следует, что р(А\х'<\<*)- >.Р^\Л)-Р(Х'\А)]Р{А) t (1 2 47) Отметим, что вероятность /? (А \ В) оказывается неопределенной, если ρ (В) = 0. Однако если событие В выражается через случайную величину |, то часто ρ (Α | β),можно определить в виде подходящего предела. Рассмотрим важный частный случай, когда В = {ξ = χ). Предположим, что ρ {χ) Φ 0 для данного χ. Определим ρ (Α | ξ = χ) кок предел р(А\Ъ = х) = \\т ρ(Α\χ<ζξ<χ + Αχ). (1.2.48) Воспользовавшись этим определением и 'положив в (48) х' = х, х" = =з χ + Ах9 получим р(А\1 = х) = р(х\А)р(А)/р (х). (1.2.49) Таким образом удается определить условную вероятность ρ (Α | ξ == χ), хотя вероятность Ρ {ξ = χ) = 0. • Из (49) имеем оо оо J />(ЛЦ = х)р(лг)^ = j р(х|Л)р(Л)Л* = р(Л), 38
где последнее равенство написано на основании свойства (42). Итак, />(Л)=> j p(A\l=x)p{x)dx. (1.2.50) ■■00 Эту формулу можно рассматривать как обобщение формулы полной вероятности (1.1.24) на непрерывную случайную величину. Из (49) и (50) получаем формулу Ёайеса для этого случая р(х{А) m'<A\l-*PW , (Ь2.51) J" p(A\l=x)p(x)dx тасо Приведем некоторые формулы с условными функциями распределения и плотностями вероятности для двух случайных величин ξ и д. Применим формулу (39) Р*<М\В)-Р{ъ<у\В)-Р{ц<у9 В}/р(В) (1.2.52) к случаю, когда событие В =* {ξ < х}. Полагая* что ρ (В) = = Ρ {ξ < *} = Ft (χ) Φ О, имеем fi,(y|8<s)- Р{1**'*?у}.- ****** , (1.2.53) где F^ (я, у) — совместная функция распределения случайных величин ξ и а. Отсюда получаем выражение для условной плотности вероятности χ J j P%r\(u*u)dudO «boo явоо где /?ξη (#, у) — совместная плотность вероятности случайных величин ξ и χι. Для случая В =* {*' < ξ < *"}, F* (я") — F* (*') =^ 0 получим f Ρξη (*♦ У) dx Λ^Ι^<6<^)-^(^-ι>8(^)' Ο·2·56) Рассмотрим частный случай 5 = {i =* χ}, полагая ρδ (я) Φ О· Как и в (48), определим условную функцию распределения Fn (у | ξ = β #) выражением /Ίι(^Ιδ —x) = Hm Λ|(ρ|*<ξ<* + Δχ). (1.2.57) Δχ-»Ό 39
В соответствии с (55) можем написать ~" dF6 (*)/<** Но _1L -л j ρ|η (χ, у) А>. Поэтому / Ρξη (*. ») <** Отсюда дифференцированием по у получаем условную плотность вероятности ^(ylS^HU^. „/^> . (1.2.59) P*W J Ρ|η(*.</)^ — 00 Поменяв местами ξ и χ\0 можем написать X ■F|(*h = i/)= J Ptniu. У)йЧрц(у), (1.2.60) ES OO Pi (* Ι η=у)=Ρΐη (*· y)/fti (у). (1.2.61) Отсюда и из (59) поручаем формулу Ρ|η (Xf У) = Pi (*) Ρη (ί/ I S = Χ) = Ρη (#) Pi (Χ \ Ά = */)· (1.2.62) Эта формула выражает содержание теоремы умножения плотностей ее· роятностей: совместная плотность вероятности двух случайных величин равна плотности вероятности одной из них, умноженной на условную плотность вероятности другой относительно первой. Формула (62) справедлива как для скалярных, так и для векторных случайных величин ξ и я· Из (62) имеем ОО 00 /М#)= J Ptn(x. y)dx= j* PnfrlS = x)/% (*)<**· (1.2.63) ^t oo β—, oo Эту формулу можно трактовать как формулу полной вероятности. Формула Байеса следует из (59) и (62) и имеет вид Ρη (у 11=χ)=Pi (χ Ι η=у) ρη (у)/η (χ)- (ΐ .2.64) Две случайные величины ξ и η называются независимыми, если события {ξ <С #} и {η < #} независимы при любых хиу,т. е. />{!<*, Я<У> = Я{6<*}Я{Т|<У> (1.2.65) 40
или иначе F^ (χ, у) = F6 (χ) F^ (у). (1.2.66) Если существуют соответствующие плотности вероятности, то из (66) путем дифференцирования по χ и у получаем Pto(x,y)~Pl(x)Pn{y)- (1.2.67) Эта формула выражает теорему умножения плотностей вероятностей для независимых случайных величин. Отметим, что если выполняется равенство (67) или (66), то будет справедливо соотношение (65). Поэто· му формулы (66) и (67) выражают необходимое и достаточное условие независимости двух случайных величин. Из (62) и (67) для независимых случайных величин i и у) получаем формулы Pi (*\У) = Pi (*). Ρη (у\х) = ρη (у). (1.2.68) Условная совместная функция распределения двух случайных величин ξ и jf|f например, при условии В ~i {α *ζ ξ < b) по аналогии с (55) определяется выражением Λη(*.ϊΗ*<δ<6) = Ρ{ξ<*. η<*/, α<ξ<6}/Ρ{α<|<&} = ί [F^y^F^^ymF^-F^a)]-*, *>&; = UVi (х* У)—ры (а> У)] lFt Φ) — Ft (α)]"1, α < χ < &, 1 0, χ < α. Соответствующая условная совместная плотность вероятности равна Ρΐη(*,ί/|0<ξ<δ) = Ρ|η(*, У)\р1Ф)-Рф)Гг при а<*<& (1.2.69) и равна нулю при χ < а или χ ^ Ь. Приведем дополнительные сведения о многомерных условных функциях распределения и условных плотностях вероятности. Обозначим через ρ (xlf ..., xk \ Xh+u ···> xn) условную плотность вероятности случайных величин ξχ, ..., Ik при заданных значениях случайных величин £ь+1 = Xft+i, ..., In = xn- Поступая так же, как и при получении формулы (59), можем написать p(xlt...t хн\хм,..., хп)= ^ <*'-;·» **'···»*"> . (1.2.70) Соответствующая условная функция распределения F (хи ..., xk \ I Xk+u ···» Хп) получается интегрированием (70) по первым к переменным от — оо до хъ ..., Хъ,- Например, если Р\Х\ I х2> хз)== Рз (Хъ х2* Хз)1Рч №> Хз)> то F (хх | ха, х8) = J Рз (и, *2, *з) <^//?2 (*2> *з)· fc-в- ОО На основании формулы (70) можем написать Ρ (Хп I *n-lt · м *i) ~ Рп (*ь ..., ХпУРп-1 (*1* ·..· *n-l)· (1.2.71) Повторно и последовательно применяя это равенство, получаем ί *ι)··. Ρ (*t Ι Χι) Ρ (Χι)- (1.2.72) 41
Укажем два правила исключения «лишних» аргументов из условной плотности вероятности. Назовем аргументы, стоящие в условной плотности вероятности слева от вертикальной черты, «левыми», а справа — «правыми». 1. Чтобы из условной плотности вероятности исключить какие-либо «левые лишние» аргументы, нужно проинтегрировать в бесконечных пределах условную плотность вероятности по этим лишним переменным. Например, P(*iUs)= J p(Xi,Xi\xs)dXi. 2. Для исключения «правых лишних» аргументов нужно исходную условную плотность вероятности домножить на условную плотность вероятности этих «лишних» переменных при фиксированных остальных «правых» переменных и полученный результат проинтегрировать в бесконечных пределах по исключаемым «правым» переменным. Например, при исключении двух «правых» аргументов хг и х8 можно написать ОО 00 Ρ (Χι 1*4) — ί ί Ρ (*ι Ι 4% Чъ *4> Ρ (4> *a I *t) dx2dxB. Эти правила —οβ —οο следуют из сформулированного ранее правила (30) исключения «лишних» аргументов в многомерных плотностях вероятности и формул (70) и (72). На основании второго правила получаем формулу 00 Ρ (*ι I *ъ) = J Ρ (*ι I Чу Ч) Ρ (4I4) dx29 (1.2.73) которая широко используется в теории марковских процессов и часто называется уравнением Колмогорова — Чэпмена или уравнением Смолуховского. Сформулированные выше правила справедливы и для дискретных случайных величин. При этом если оперировать с законами распределения, то нужно заменить плотности вероятности на соответствующие вероятности, а интегралы — на суммы. Например, если дискретные случайные величины |ь 1г и £s принимают соответственно значения **# Dh zh> то аналогом формулы (73) будет соотношение Ρ &=*i 11з=*А}=2^ iti=4 I Ь-ft· Ь~%1 Ρ &-ίο lb-**}. (1.2.74) Случайные величины £lf ...t ξΛ называются взаимно независимыми, если события {1г<. хг}9 ·.., {ξη < Ч) независимы при любых хъ .,♦, хп. Пусть F (xi) и р (Xi) — соответственно функция распределения и плотность вероятности* олучайной величины \и I = Г# /г. Для взаимно *В данной записи F (xt) и ρ (Xi) — в общем случае при разных щ разные, а не одни и те же функции о измененными аргументами. Такая система аздшде бу» дет применяться и в дальнейшем. 42
независимых случайных величин справедливы формулы Fn (*и ...» *п) β F 0сг)... F (хп), Рп (*к» -м *n) te Ρ (*ι) ... Ρ (*η). (1.2.75) Если случайные величины |lf ..., ln взаимно независимы, то они и попарно независимы. Действительно, интегрируя равенство Р8 (xl9 х* Хь) β Ρ (χι) Ρ (*ι) Ρ (*β) πο ** получаем ρ2 (хих2) = ρ (хг) ρ (χ2). Однако обратное утверждение неверно, т. е. попарно независимые случайные величины не обязательно являются взаимно независимыми. Например, при выполнении равенств р2 (xlfx2) = Ρ (Χι) Ρ (#2)» Ρ* (*ιΛ) β Ρ \χι) Ρ fa) й Рг (Хг>Хь) β Ρ (*г) Ρ (*а) возможно, что Ρ б \Х\% Хъ хв) Φ Ρ (Χι) Ρ (χ*) Ρ (Xsh Часто бывает полезно разбить заданные случайные величины на независимые группы. Случайные величины %и ..., 1а не зависят. еСЛИ рп fa, ..., Хь> Xk+U ···» χη) β Ph (#l> *··♦ *fc) * X pn-k (Xk+ъ ···> Хп)- Отсюда (путем интегрирования щ> «лишним» переменным) следует, что любая подгруппа из величин |ь ..., Ън не зависит от любой подгруппы из величин ξΛ+1, ..., |п. Например, |х не зависит от ξη. Используя приведенный результат, определим взаимную независимость комплексных случайных величин ζχ = ξχ + ЛЬ ···» ζ* β bi + ЛЬ· Комплексные случайные величины ζχ, ..., ζΛ называются взаимно независимыми, если группы (glf ΐ)ι)»··.» (ξη> ΪΙη) независимы, т. е. если для совместной плотности вероятности 2п случайных величин выполняется равенство Р2п (Хи Уи ·.·, Хп> Уп) *= Рг (Хъ Уг)- Рг (*п> УпУ (1.2.76) Наконец, определим условную независимость случайных величин, ограничившись случаем трех величин. Говорят, что случайная величина \х не зависит от \2 при условии {ξ8 = д^}, еели выполняется равенство Ρ (Хъ X* I *з) = Ρ (Х\ I Хг) Ρ (*2 I *з)· (1.2.77) Заметим, что это равенство вовсе не означает, что случайные величины ξϊ и |2 безусловно независимы, так как несмотря на выполнение условия (77), может быть справедливым неравенство р2 (хъ х%) Φ Φ Ρ (*ι) Ρ (*2>· 1.3. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ВЕЛИЧИН Хотя полное описание скалярных или векторных случайных величин дается законами распределения вероятности (плотностями вероятности), функциями распределения или характеристическими функциями, однако в ряде случаев целесообразно оперировать β другими, более простыми характеристиками случайного процесса. Это объясняется несколькими соображениями. 1. Имеются часто встречающиеся случайные величины, плотности вероятности которых определяются небольшим числом параметров.; 43
2. Ответ на ряд практических задач может быть получен из рас· смотрения отдельных, частных характеристик случайной величины· 3. Во многих задачах нужно рассматривать преобразование случайной величины или процесса линейными и нелинейными инерционными системами. Пусть из рассмотрения физической модели, формирующей случайную величину или процесс, получены выражения для плотностей вероятностей. Тогда за исключением так называемых марковских процессов (й. 198) и линейного преобразования гауссовских процессов (с. 482) нельзя указать метод «пересчета» непосредственно самих плотностей вероятностей (функций распределения, характеристических функций) при инерционных преобразованиях случайных процессов. Эта задача, как правило, решается приближенно путем пересчета отдельных характеристик случайного процесса, позволяющих в принципе найти плотность вероятности для преобразованного процесса. 4. Предположим, что неизвестен механизм устройства, формирующего случайную величину или процесс. Тогда для выяснения характера случайной величины или процесса необходимо экспериментальным путем определять соответствующие плотности вероятности. Экспериментально сравнительно просто можно найти частные характеристики. Экспериментальное же определение самих плотностей вероятностей в большинстве практических случаев оказывается трудоемким и дорогостоящим делом. Здесь исключение составляет одномерная (и, может быть, двумерная) плотность вероятности, для определения которой в настоящее время имеются приборы. Однако она часто недостаточна для решения практических задач. В качестве числовых характеристик случайной величины, которые являются более простыми, чем плотность вероятности, обычно указывают моменты и кумулянты (семиинварианты). Ценным свойством их является то, что моменты и кумулянты более низкого порядка несут больше информации о случайной величине, чем моменты и кумулянты высокого порядка (с. 53). Поэтому на практике часто ограничиваются рассмотрением лишь нескольких первых моментов или кумулянтов. Приведем определения основных числовых характеристик сначала одной случайной величины, а затем обобщим эти определения на несколько случайных величин. Математическим ожиданием функции φ (ξ) случайной величины ξ с плотностью вероятности ρ (χ) называется интеграл оо м {φ (Ι)} = J φ (χ) ρ (χ) &. 0.3.ΐ) Здесь и в дальнейшем символ Μ {.} обозначает операцию математического ожидания над величиной, указанной в фигурных скобках. Сама операция математического ожидания по существу есть осреднение рассматриваемой величины с соответствующей плотностью вероятности. Плотность вероятности ρ (χ) для дискретной случайной величины | дается формулой (1.2.6), для непрерывной — (1.2.3) и для смешанной— 44
(1.2.12). Полагая в (1) φ (ξ) = ξ, получаем определение математического ожидания самой случайной величины ξ: 00 Μ {1} = щ = $ Хр (Х) dx. (1.3.2) —оо Математическое ожидание часто называют также средним значением случайной величины. Математическое ожидание характеризует расположение значений случайной величины. Полностью эту роль математического ожидания разъясняет закон больших чисел и, в частности, неравенство Чебыше- ва (1.3.25). Математическое ожидание комплексной случайной величины ζ = = £ + ίη по определению равно Μ{ζ} = Μ{ξ) + /Μ{η>. (1.3.3) Случайная величина ξ имеет математическое ожидание, если интеграл в правой части формулы (2) сходится. Если же он расходится, то случайная величина не имеет математического ожидания. Математическое ожидание случайной величины можно выразить непосредственно через функцию распределения вероятностей F (х). Пусть ради простоты плотность вероятности ρ (χ) равна нулю при \х\ > > by так что F (— Ь) = О, F (Ь) = 1 (рис. 1.6). Интегрируя правую часть равенства (2) по частям, имеем оо b Ь Ь О \ хр (х) dx = xF (χ) Ι — J F (x) dx = j [1 — F (x)] dx — J F (x) dx. —oo — b -~b 0 —6 Отсюда следует, что математическое ожидание равно разности площадей ABC и CDO. Этот результат остается в силе и при Ъ = оо. Укажем, что случайная величина \ может никогда не принимать значения т^ а вероятности и функции распределения некоторых случайных величин определяются как математические ожидания. Действительно, пусть случайная величина ξ принимает лишь два значения: 1 с вероятностью ρ и 0 с вероятностью q — 1 — р. Математическое ожидание такой величины равно Μ{ξ}= ЬР{|= 1} + 0·Ρ{ξ = 0} = р. Таким образом, математическое ожидание равно р, а возможными значениями случайной величины являются 0 и 1. Предположим, что случайная величина ξ с плотностью вероятности ρ (χ) подвергается преоб-, разованию η = φ (ξ), где φ (χ) = 1 при χ ^ χ0 и φ (χ) = О при χ > > χ0. Согласно формуле (1) получаем 00 Kq Μ {η} = J φ (χ) ρ (χ) dx = § ρ (χ) dx = F (x0), —ОО 00 где F (χ) — функция распределения случайной величины ξ. Перечислим основные свойства математических ожиданий. 45
1. Математическое ожидание тг имеет размерность самой случайной величины ξ. 2. Математическое ожидание неслучайной величины равно этой величине. Действительно, полагая в (1) φ (i) — с ** const, получаем Μ {с)~с f p(x)dx=c. (1.3.4) 3. Математическое ожидание случайной величины ξ, имеющей симметричную плотность вероятности относительно прямой χ » α, т. е. ®т®еЩ ЩймЮрЩ ЩЩ®т Рис. 1.6. К выражению ма- Рис. 1.7, Различные соотношения между матема· тематического ожидания че- тическим ожиданием т ξ, медианой хв и модой хт рез функцию распределения ρ (а — χ) = ρ (α + х)9 равно Μ {ξ} = α. Это следует из очевидного равенства оо оо Г (а—х) p(x)dx = Q=*a— f xp(x)dx. *—OD — ОО В частности, если плотность вероятности ρ (χ) есть четная функция, т. е. ρ (— χ) = ρ (x)t то Μ {ξ} = 0. 4. Неслучайную величину можно выносить за знак математического ожидания: M{r\} = M{cl} = cM{l}. (1.3.5) 5. Математическое ожидание суммы (разности) случайных величин равно сумме (разности) их математических ожиданий. Пусть случайные величины |2 и ξ2 имеют совместную плотность вероятности Рг (Хи *г)· Согласно исходной формуле (1) имеем ©О ОО «ΟΟ SeOO (1.3.6> В частности, Μ il + в) « Μ ф + в. (1.3.7) 46
По индукции формула (6) обобщается на несколько случайных величин: М{Д Ц = ДМ&>. О·3·8* 6. Математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий» т. е. ш «о Μ {Ш = J I ХхЪР(*ι) Ρ (*2> d*t dx2=M &} Μ <у. (1.3.9) woo m- 00 Аналогичная формула справедлива для нескольких независимых случайных величин. Математическое ожидание вектора ξ с координатами \ъ ..., \п есть вектор Μ {£} с координатами Μ {lt}> ..., Μ {|Λ}. Базируясь на условной плотности вероятности (1.2.41), можно определить условное математическое ожидание случайной величины. Условное математическое ожидание Μ {| | 5} случайной величины ξ при условии В определяется формулой (2), в которой безусловную плотность вероятности ρ (χ) нужно заменить на условную ρ (χ \ В): о» М{ЦВ} = тцв= f xp(x\B)dx. "(1.3.10) Из формулы (2) следует, что если интерпретировать ρ (χ) как плотность массы, распределенной вдоль оси дс, то математическое ожидание Ш| есть абсцисса центра тяжести этой массы. Иначе говоря, математическое ожидание характеризует расположение «центра» закона распределения ρ {χ). Можно ввести еще две характеристики такого рода, а именно медиану хе и моду хт. Медиана есть такое значение хе, которое делит площадь под плотностью вероятности пополам, т. е. медиана есть любой корень уравнения F (хе) = 0,5. Математическое ожидание может не существовать, а медиана существует всегда и может быть неоднозначно определенной. Если существует интервал (α, β), на котором F (х) = 0,5, то любая точка этого интервала может быть медианой. Иногда рассматривают квантили. Квантиль порядка ρ есть корень уравнения F (ζρ) = ρ, где ρ— некоторое данное число, 0< /?< 1. Медиана есть квантиль порядка 1/2 : хе = ζ1/2. Мода является третьей характеристикой расположения «центра» закона распределения. Модой непрерывной случайной величины называется любая точка хт максимума плотности вероятности. Если плотность вероятности имеет один максимум, то она называется унимодальной. При наличии двух или более максимумов плотность вероятности называется бимодальной или мультимодальной. Если для дискретной случайной величины возможные ее значения х% расположены в порядке возрастания, то точка χν называется модой, если Ρν > Ρν-ι и pv > /?ν+ι· Соотношения между математическим ожиданием щ9 медианой хе и модой хт показаны на рис. 1·7. Математическое ожидание «чувстви- 47
тельно» к «хвостам» закона распределения, медиана менее чувствительна к ним, а на моду крайние значения вообще не влияют. Очевидно, что для унимодального и симметричного закона распределения все три показателя совпадают. В случае асимметричных и мультимодаль- ных распределений они не совпадают. Плотность вероятности имеет положительную (отрицательную) асимметрию, если мода предшествует медиане (следует ,за медианой). При этом большая часть распределения находится справа (слева), а более крутой спад — слева (справа) от моды. Применим формулу (1) к частному случаю степенной функции φ(#)= = (χ — c)v, где в = const, v = 0Э1,2,... Получающиеся при этом числа называются моментами v-ao порядка случайной величины ξ относительно постоянной с. Если о = 0, то моменты называют начальными и обозначают т^% а при с = т% моменты называют центральными и обозначают μν. Таким образом, оо M{iv} = mv= f xvp(x) dx9 m0=l, mx = mi f -(1.3.11) Μ {(ξ—/η|)ν} = μν= J (x—mlfp(x)dx. (1.3.12) Кроме этих моментов, рассматривают также абсолютные начальные и центральные моменты оо M{|l|v}= j \x\vp(x)dx, · (1.3.13) *— оо оо Μ {|Ε— m£|v}= j \x—ml^p(x)dx, (1.3.14) 4=*- OO а для дискретной случайной величины ξ дополнительно начальные и центральные факториальные моменты M{iM}=m[v]=24v]A» (1.3.15) М {(i-ms)Cv]} = μ[ν] = 2 {х1-т% )М ри (1.3.16) i где *М = χ (х — 1) ... (х — ν + 1). Некоторые из перечисленных моментов могут не существовать. В подобных случаях иногда интересуются так называемыми обратными моментами 00 M{|-v} = m_v== С x-vp(x)dx. (1.3.17) а»оо Пользуясь формулой бинома Ньютона и свойствами математического ожидания, начальные моменты можно выразить через центральные и наоборот. При этом для скалярных случайных величин получим следующие соотношения: 48
^ = 3 С№Щ~*> (1.3Л8) μν= J (— ^ Cvmimr'· (1.3.19) Покажем, что из всех моментов второго порядка случайной величины ξ относительно некоторой постоянной в ее момент относительно математического ожидания Ш| является минимальным, т. е. min Μ {(ξ— с)2} = М {(ξ— тг )2} = μ2. (1.3.20) с По определению имеем Μ {(ξ — с)2} = Μ {Ι2} — 2 cm^ + A Для получения минимума этого выражения по с должно выполняться равенство dtA {(ξ — с)} I ас = 0, откуда получаем с = mg. Следовательно, постоянная с = т% является наилучшей оценкой случайной величины*, если за меру различия между ними принято математическое ожидание квадрата их разности (средний квадрат ошибки). При этом сам средний квадрат ошибки равен второму центральному моменту μ2. Этот момент играет особо важное значение. Поэтому момент μ2 выделяют среди других моментов; его называют дисперсией случайной величины и обозначают Dg = μ2. Введем в рассмотрение центрированную случайную величину U=l-mb (1.3.21) представляющую собой разность между случайной величиной и ее математическим ожиданием. Тогда дисперсию Dg случайной величины ξ можно определить как числовую характеристику, равную математическому ожиданию квадрата центрированной случайной величины: Ζ)ξ = 0{ξ} = Μ{ξ§} = Μ{(ξ-/ηι)2}= $ (х-щ)*р(х)ах = &- 00 = М {ξ2} — т\ = щ—mf. (1.3.22) Дисперсия характеризует меру рассеяния (разброса) значений случайной величины относительно математического ожидания. Поскольку дисперсия имеет размерность квадрата случайной величины, то часто пользуются средним квадратическим отклонением (СКО) оь имеющим размерность случайной величины. СКО случайной величины равно положительному значению квадратного корня из дисперсии: σξ = VDT. (1.3.23) "Аналогичным свойством обладает и медиана: первый абсолютный момент Μ {| ξ—с |} имеет минимальное значение, когда постоянная с равна медиане хе* При этом за характеристику меры рассеяния можно принять первый абсолютный момент Μ {] | — хе |}, 49
Дисперсия характеризует втепень концентрации плотности вероятности ρ (χ) в окрестности математического ожидания* Этот результат находит математическое выражение в неравенстве П. Л. Чебышева. Пусть ε > 0 — произвольное положительное число. Тогда для слу- чайной величины i e математическим ожиданием тЕ и дисперсией £>g справедливо неравенство P№-ml\^e}^Dl{B\ (1.3.24) Отсюда следует, что Ρ {m| — ε < ξ < пц +ε} > l~(Dg /ε2), (1.3.25) т. е. g уменьшением дисперсии случайной величины увеличивается вероятность того, что значения случайной величины не выйдут за пределы отрезка Img — ε, т% + в]. Доказательство неравенства Чебышева (24) следует из определения, дисперсии: оо — о© J x«*m£ I >8 >ε2 f p(x)dx = e2P {\l—/ηξ|>β}. Укажем два очевидных обобщения неравенства Чебышева. 1. Допустим, что случайная величина η принимает только положительные значения, т. е. ρ (у) = 0 при # <С 0. Тогда для заданной положительной величины α > 0 должно выполняться неравенство Ρ {П>а}<тл/а. (1.3.26) Действительно, оо оо оо Μ {η}= j УР (У) аУ>[ УРШУ> а]* р (у) dy=aP {η > α}. О а а Отметим, что в неравенство (26) входит только математическое ожидание случайной величины г]. 2. Рассмотрим положительную случайную величину χ\ *= | | — с |п и, положив в (26) α = гп9 получим Ρ { \1 — ^|Λ>ε«}<ε-"Μ{ |6 — с\п), т. е. Ρ { I Б — с I > ε} <·β-« Μ { Ι ξ — c\n). (1.3.27) Это неравенство Бьенэме-Ч ебышева. Положив в = т§ ил-2, придем к (24). Перечислим основные свойства дисперсии. 1. Дисперсия неотрицательна D| ^ О, причем £>| е= 0 тогда и только тогда, когда ξ — c, где с — постоянная» Dc = 0. (1.3.28) - SO
То, что дисперсия неотрицательна, следует из ее определения. Поскольку (ξ — m*)? > 0, то Μ {(ξ — тг)2} > 0. Пусть Ρ {I «- в} — = 1, тогда Μ {1} ~ щ - в, Μ {£?}»<£ и D* « Μ {ξ?} — т\ - = 0/ Если D| = Μ {(ξ — /W|)^} =5 0, το ξ - ms β вероятноетыо единица, т. е. Р{1фтг}^0. ' (1.3.29) Действительно, пусть это равенство не выполняется. Тогда можно найти такую величину ε > 0, что Ρ {\Ъ-Щ I > е} = J ρ(χ)άχφ0. |*-тЦ>е оо HoD|= f (X—m%fp(x)dx^ f (д:— щ )а ρ (χ) dx > «oo |j:-*-wt |>ε ^8a J ρ(χ)ώ>0, |*-"»ξ|>8 что неверно. Поэтому должно быть справедливо равенство (29). Таким образом, если Μ {(ξ — с)2} = 0, то I - 0. (1.3.30) 2. · DC| = c2D£>Ds+i«D|. (1.3.31) Эти свойства непосредственно следуют из определения дисперсии (22). 3. Если случайные величины |х и ξ2 не коррелированы (с. 61), то дисперсия суммы (разности) этих величин равна сумме дисперсий: Dlt±b, = Dlt+D^ (1-3.32) Действительно, полагая в формуле (22) ξ = ξ2 ± ξ2, имеем D*±l. - Μ {(Ь ± |2)2}-[М {ξ, ± ур= Μ {Ш-Ч + + М (iS}-mi ± 2M {(5i-mll)(|2-ml2)} = Z)ll+Z)lf ± ± 2М {(It-rn^) (Ь-ть)}. (1.3.33) Случайные величины ξχ и £2 называются некоррелированными, если M{(l1-mll)(|2-ml2)} = 0. (1.3.34) При выполнении этого условия из (33) следует свойство (32) аддитивности дисперсий некоррелированных случайных величин. Согласно (9) равенство (34) заведомо выполняется для независимых случайных величин 1г и |2. Пример 1.3.1. Производится k независимых измерений некоторой физической величины. Результат каждого измерения есть случайная величина |г e математическим ожиданием т и дисперсией D, не зависящими от U Нужно найти математическое ожидание и дисперсию среднего арифметического su ~ k ■■ (l/fe) Σ lit в также относительную погрешность определения среднего ариф* иетичеекого. 5*
С учетом свойств математического ожидания находим 1 k Μ ы=—2 м^=:т2т=т- (1.3.35) Т=\ /=ι Математическое ожидание среднего арифметического независимых и одинаковых измерений совпадает с математическим ожиданием отдельного измерения. Используя свойства дисперсии (31) и (32), получаем ^=М{(5*-Т J, mJ}=M {-F-[|, <Ь-«)]]-т · (1.3.36) Относительная средняя квадратичеекая погрешность определения среднего арифметического равна бь«уТ5^/М {sfe} = Λ/D/m yi=bfy&, (1.3.37) где δι = ΎόΙιίι — относительное значение средней квадратической ошибки единичного измерения. Отсюда видно, что точность измерений можно повысить за счет увеличения числа замеров. В частности, прибором, имеющим относительную погрешность 6j, можно производить измерения с меньшей относительной погрешностью 6& < 6j, если определять результат как среднее арифметическое нескольких независимых замеров. Чтобы повысить точность измерений в два раза, их число нужно увеличить в четыре раза и т. д. Отметим, что неравенство Чебышева (24) для случайной величины sh принимает вид Ρ {\sk — m \>ε) =D/e2k. Отсюда следует, что /I lim P >г = 0 (1.3.38) или, что то же самое, lim Ρ fe-*o© т2>- <ε = 1. (1.3.39) Соотношения (38) и (39) известны под названием закона больших чисел. Покажем, что низшие моменты имеют более важное значение, чем высшие. Для этого выразим правую часть формулы (1) через центральные моменты μν случайной величины ξ. В большинстве практических случаев плотность вероятности ρ (χ) имеет наиболее существенные значения в интервале, расположенном около математического ожидания /П|, причем длина этого интервала имеет порядок σ* = ]/£>& (рис. 1.8). Если в этом интервале функция φ (χ) достаточно гладкая, то ее с необходимой степенью точности можно представить рядом Тейлора в окрестности точки т%: 52
φ (Χ) = φ (mi ) + φ' (m* ) (х—тг ) + (1/2) φ" (m5) X χ (χ— mt)2+ ... + (l/nl) <ρΜ (тг) (χ—тг)п + ... Подставив это разложение в (1) и учтя определение центральных моментов (12), получим Μ{φ(ξ)} = <p(me) + (M2W\ml)Dl +... + (1 !Ш)<Р(п)(Щ)1>п +... (1.3.40) Если функция φ (χ) изменяется в указанном интервале достаточно медленно, то в разложении можно ограничиться учетом лишь первых двух членов. При этом Μ {φ ©>-/Яф <|)~ φ (mi ) + (1/2) φ" (щ ) De . (1.3.41) Отсюда видно, что математическое ожидание достаточно плавной функции от случайной величины приближенно определяется математическим ожиданием и дисперсией; роль высших моментов убывает 6 увеличением их порядка. Воспользуемся полученным результатом (41) для приближенного вычисления дисперсии случайной величины φ (ξ). Полагая h (χ) = = φ2· (χ), имеем h" (χ) = 2 φ'? (χ) + 2 φ (χ) φ" (χ). Применяя формулу (41) κ h (ξ), можем написать f Μ {φ2 (ξ)} ~ φ2 (m* ) + Ιφ'2 (щ ) + φ (m* ) φ" (me )] Dx . Согласно определению дисперсии (22) получим Ар.(|) - Μ {φ2 ©}-m« (|) - φ2 (л* ) + [φ'2 (/и* ) + + <Ρ (Щ ) φ" (Щ )] Dl - [φ (тг ) + (1/2) φ" (m* ) £ξ ]2 или, учитывая лишь члены с первой степенью D^, Αρίξ^φ'1^)^. (1.3.42) Покажем роль математического ожидания и дисперсии с другой точки зрения. Предположим, что нужно найти такую оценку | случайной величины ξ, которая минимизирует средний квадрат ошибки: ε2=Μ{ξ-ξ}2= J (x-%yp(x)dx. (1.3.43) Расписав левую часть этого равенства, имеем ε2^Μ{ξ2}-2ΐΜ{ξ} + (|)\ Приравняв производную по | нулю, находим f=mi= J xp(x)dx, ε5ϋη = Ι>ξ· (1.3.44) ^т ΟΟ Следовательно, математическое ожидание является наилучшей оценкой случайной величины по критерию минимума среднего квадрата ошибки, причем минимальное значение этой ошибки равно див· Персии. 53
Рис. 1.8. Иллюстрация роли низших моментов Вернемвя к формулам (11) и (12), которые позволяют вычислить моменты (еели они существуют), по известной плотности вероятности. Можно указать плотности вероятности, для которых моменты не существуют. Например, для плотности вероятности Коши (1/π) [1/(1 +х2)] не существуют моменты порядка ν ^ 2. Предположим, что интересующие нас моменты существуют. Возникает вопрос (проблема моментов): нельзя ли по известным моментам однозначно восстановить плотность вероятности. Во многих случаях ответ на данный вопрос является в принципе положительным [1,8). Пусть mv, ν = 1,2, ...f есть моменты некоторой функции распределения, каждый из которых конечен. Предположим, что ряд Σηι^νΜ абсолютно сходится при некотором $>0. Тогда F (х) есть единственная функция распределения, обладающая моментами пц, ν = 1,2, ... Это всегда выполняется для ограниченной случайной величины. Допустим, что моменты существуют и однозначно определяют закон (функцию) распределения. Укажем конкретный путь получения закона распределения. Заметим, что моменты т^ можно определить не только с помощью формулы (11), но и путем разложения характеристической функции в ряд Маклорена. Разлагая экспоненту в выражении (1.2.15) в ряд Маклорена и беря затем математическое ожидание от каждого слагаемого, получаем <w=m {2 it w>v} -1+ 2 ^r(j*)v· (1'3-45) где пц « ]4< d№ ίΌ·=0 (1.3.46) Если интересующие HaG моменты существуют, то формула (46) дает простой способ вычисления их путем дифференцирования характеристической функции. При указанном условии справедливо и обратное, а именно по моментам можно восстановить характеристическую функ- пию согласно (45). Зная характеристическую функцию, находим плотность вероятности по формуле (1.2.23). Часто более результативным оказывается несколько другой путь определения характеристической функции, базирующийся на разложении в ряд Маклорена не самой характеристической функции, а ее логарифма. Напомним, что для функции In (1 + ζ) ряд Маклорена имеет вид In (1 + ζ) = ζ — г2/2 + 28/3 — г*/4 + ... Заменяя 1 + ζ на Φ (j$), т. е. полагая ζ *= Φ (jfl) — 1, и используя (45), можем написать 54
+ (1.3.47) Правая часть этого выражения представляет многочлен отноеитель- но ju. Совершая перестановки влагаемых в этом многочлене* его можно представить в виде следующего ряда: ln<D(jd)=2-^U*)v (1.3.48) или Фа»)=ехРГ;|!-£г <^)ν|= -exp(J ян θ—Dfl2/2)exp (1.3.49) где -)-[^ГЧ_„. 0-3.50) Коэффициенты κν, входящие в (48) и (49), называются кумулянтами или семиинвариантами v-го порядка. Очевидно, что кумулянт κν есть полином от моментов тъ ..., пц и, наоборот, момент пц есть полином от кумулянтов xlf ..., κν. Приравнивая коэффициенты при одинаковых степенях jfl* в правых частях выражений (47) и (48) и учитывая формулу (18), получаем кг = т19 х2 = т2—т\ = μ2 = £>, ^з = Щ— 3/П! т2 + 2т\ = μ3, κ4 = /η4—Ът\ — im1m8+ I (1.3.51) + 12m? m2—6mf = μ4— 3μ1, т! = хь Αη2 = κ2+κί, /η3 = κ8+3κ1 κ2 + κ|, ^4ϊ=5κ4+3κ2 + 4κ1 κ3+6κί κ2+κ|, (1.3.52) Видно, что первый кумулянт κχ совпадает β математическим ожиданием тъ второй κ2 — о дисперсией D. Не останавливаясь на значении других кумулянтов более высокого порядка, укажем, что отношения Ъ = ***ТШ = Ы\*>У2* % = *4>С2=^41Ц — 3 (1.3.53) называются соответственно коэффициентами асимметрии и этцесса (см. е. 285)· Отметим, что кумулянты не совпадают β центральными мо· 55
ментами. Как видно из (51), расхождение между ними начинает проявляться ® κ4. Итак, моменты однозначно выражаются через кумулянты. При определенных условиях по моментам или кумулянтам можно восстановить характеристическую функцию и, следовательно, плотность вероятности. Поэтому как моменты, так и кумулянты можно использовать для описания случайных величин*· Соотношения между различ- Фунниия распределения υ-οο плотность дероятности P«D)=dF(W)/ct!B j3}"p(x)dx ζ Характеристическая функция Φ (β) »''?ЦгфЧ*>\*.. /77 ρ 0(/·*-Στ^Ο'* .V=0 0(/jJ9-e»p Моменты Кумулянты Ну Рис. 1.9. Соотношения между функцией распределения (плотностью вероятности), характеристической функцией, моментами и кумулянтами ными характеристиками случайной величины наглядно1 показаны на рис. 1.9. Приведенные выше результаты и, в частности, определения моментов и кумулянтов можно обобщить на совокупность нескольких случайных величин 1Ъ ξ2, ..., ξη, описываемых функциями распределения (1.2.26), плотностями вероятности (1.2.27) или характеристическими функциями (1.2.35). Совместные начальные моменты /п^, пц, ν , .... mvlV2 ... vn случайных величин lu ξ2, ..., ξη определяются как математические ожидания соответствующих произведений: * Укажем, что можно ввеети квазимоменты как коэффициенты разложения плотности вероятности в ряд по полиномам Эрмита (ом. с! 283). Квазимоменты ^^»а™ ί?™"™ Q М0ментамчи и кумулянтами, и и* в равной мере можно применять для описания случайных величин· 56
ή* = Μ {ξγ*>« J *νι л (xx) dxlf mVlVi = Μ {^ ξν2} β ^ xv, xv, p2 (Хъ x^ dXi аХъ (1.3.54) где Vf (1 ^ / ^ η) — неотрицательные целые числа. Момент #νν2»..νΛ, относящийся к η различным случайным величинам |ь ξ2, ..., ξΛ, называется n-мерным моментом (ν1 + ν2 + ... + + νη)·εο порядка. Так, mVl — одномерный момент vrro порядка, mVlv2 — даумерный момент (v± + v2)-ro порядка и т. д. Вместо начальных моментов можно рассматривать центральные моменты, которые определяются формулой μνιν2...νη =«*{(!!—/?4ι)νι...(δΛ—m6n)v*}« J... Jfo—m^)*... (x„— —тО*Л P» (*i, - » xn) d*i — d*n. "%,β Μ {δι}. (1.3.55) Аналогично формуле (45) совместные моменты можно определить как коэффициенты разложения в кратный степенной ряд совместной характеристической функции (1.2.35): [ μ = 1 μ, v«i +lFjS 2 Ι*6ν^Μ»*λ + ...}-ι + ί2 Μ{ξμ>θμ + μ,ν, λ«1 J ι +¥|* 2 М<Ь*М*■**» + μ,ν—1 μ-1 μ,ν,λ=1 vxl v2l...vtt! где ΛΙν,ν^ν, -(-0*+*+·-+ν·| Χ Χ 2 о (1.3.57) 57
Аналогично многомерным моментам можно ввести многомерные кумулянты xVlVi... v . Они определяются путем разложения в кратный степенной ряд не самой характеристической функции (1.2.35), а ее логарифма: ΐηΦηϋ*ι,....κ>,.)- 2 ?'Т"v".х ν,....Τη-0 Ί1*»-*' X (Ж)М№ ... <ШЧ d.3.58) ™е *v1vi...vn = <-j)Vi+Va+"-+v»X - In ΦΛ (j«b .... i*n) . (1.3.59) 1 2 П J*i — *| —... —6д-ш0 Между многомерными моментами и кумулянтами существуют связи, подобные (51) и (52) [9, 10]. В частности, "hi β κιι + κ10κ01, _ (1.3.60) тш — хш + κοοικιιο "г κοιοκιοι "Г κιοο κοιι "г κιοο κοιο κοοι· Нетрудно убедиться, что при b*5ie is эти формулы переходят в соответствующие формулы (52). Основываясь на условных плотностях вероятностей (1.2.41) и (1.2.70), можно ввести условные моменты и кумулянты. Они определяются формулами, аналогичными (11), (12), (54), (55) и (59), только теперь в них нужно подставлять условные плотности вероятности (1.2.41) и (1.2.70) и условные характеристические функции. Естественно, что условные моменты и кумулянты будут зависеть от тех условий («правых» переменных), которые входят в соответствующие условные плотности вероятности и условные характеристические функции. В дальнейшем будут часто использоваться увловное математичеа· кое ожидание и уоловная дисперсия для условных вероятностей вида (1.2.71), т.е. для одной случайной величины при фиксированных остальных. Они определяются соответственно формулами Μβ»Κ-»· •♦•>*i>!SS J ΧηΡ(Χη\Χη-\,...,χύάΧη, (1.3.61) «BOO D {|n |x.-i, .... *,} = M {[in—Μ {|n | *„_i,..., *i}]2} = oo = J [xn—Μ {ξη IXn-и ..., Χι)? ρ (xn \xn-i xd dxn. (1.3.62) Поскольку многомерные моменты и кумулянты определяются как коэффициенты разложения ς степенной ряд соответствующих характеристических функций или их логарифмов, то, как и в одномерном случае, первые коэффициенты разложений при известных условиях являются наиболее важными и существенными. Рассмотрим, например, двумерный случай. 58
Пусть нас интересует математическое ожидание функции φ (хи х2) двух случайных величин 1г и ξΒ: Μ оо оо {ф (1ъ Щ = J J Φ (*ι, *г) Pa (*ι* *г) ώίι dx2. (1.3.63) Разложение «гладкой» функции φ (xlt х2) в ряд Тейлора в окрестности точки (тъ т2) имеет вид Φ (Хь *г> = Φ (Щ* Щ) + -~ (*ι—Щ) + ~ (Х2—т2) + ... Если двумерная плотность вероятности р2 (хъ х2) сконцентрирована около точки (тъ т2) и изменяется плавно в окрестности этой точки порядка (]/l>i, ]/D2)» то в написанном разложении можно ограничиться учетом лишь низших членов до квадратичных включительно. Примем, что щ и т2 есть математические ожидания случайных величин |х и ξ2, a Dx и D2 — дисперсии этих величин. Подставив разложение функции φ (хъ х2) в (63), получим ЛЧф&У) ^f№ яц)+ ife -Jf+ 2^^-+i>2-?f 1' 2 L d*i fo« &»2 <9л»| J (1.3.64) μη = Μ {(ξι—тЛ (i2—/η*)} => рде 00 ОО = J J (Χι—mx) (X2—m2)p2 (Xu *2) ^i ^2- (L3.65) ■—oo «oo Смешанный центральный момент второго порядка μΐχ называется корреляционным моментом. Выражение (64) иллюстрирует особо важную роль низших моментов (в частности, математических ожиданий, дисперсий и смешанного центрального момента второго порядка). Покажем роль этих характеристик двух случайных величин, исходя из другого подхода. Предположим, что требуется найти наилучшую оценку (или предсказанное значение) ξ2 Для случайной величины ξ2 в виде некоторой функции |2 = g (%г) от случайной величины \ъ причем в качестве критерия оптимальности оценки по-прежнему примем минимум среднего квадрата ошибки: оо оо — J J [*2—g(*i)]2 р2(*и X2)dxtdx2. (1.3.66) SS.OO *-9 OO t Докажем, что наилучшей оценкой по минимуму среднего квадрата ошибки является условное математическое ожидание |2 при фиксированном значении &: ΐ2=^αι) = Μ{ξ2|ξχ}. (1.3.67) 59
Совместную плотность вероятное™ веегда можно представить в виде произведения Р% (*ъ П) = Р^1 *ι) Ρ (*ι)· Поэтому Μ {&—g(£i)]2} = J P(*i) \ fe-SW]2PteUi)^^i. Здесь подынтегральное выражение неотрицательно. Чтобы минимизировать двойной интеграл, достаточно минимизировать при каждом хх внутренний интеграл оо j [4—g{Xi)?P(4\Xi)dx!. Для любого фиксированного значения хг функция g (хг) является постоянной величиной. При этом из (43) и (44) следует, что написанный интеграл имеет минимальное значение, когда 00 g(*i)= J χ2ρ(Χζ\Χι)άχ2 = ΙΛ[Ιι1\χ1}. Е9 ОО Это равенство должно выполняться при любом возможном значении хи что и доказывает формулу (67). Зависимость g (хг) = Μ {|2 Ι *ι} называется кривой регрессии ξ2 на Si· Фактическое вычисление оценки Μ {ξ2 I ii} no совместной плотности вероятности р2 (xi} x2) во многих практических случаях оказывается вевьма сложным, поэтому часто ограничиваются отысканием линейных оценок для ξ2 в виде линейной функции Ιι β β (δι) « * + &5ι. (1.3.68) Естественно, что при этом ошибка во многих случаях может оказаться больше, чем при нелинейной оценке. Итак, найдем коэффициенты а и &, при которых средний квадрат ошибки ε? = Μ {(ξ2 - 12)2} = Μ{[ξ2 - (α + 6ξχ)]2} (1.3.69) )уя это выражение по а и ί ^---2Μ{ξ2} + 2α + 26Μ{ξ1}=0, минимален. Дифференцируя это выражение по α и 6 и приравнивая нулю результаты, имеем ^ = _2М {Ь Ц + 2аШ {I,} + 2ЬМ { Щ = 0. Решая эти два уравнения относительно а и Ь, получаем Ъ = Μ {(1г — тх) (и — т%)}/Ог = \хиЮъ а = т2 — щРЛ {(ξχ — тх) (|а — m2)}lD1 =*т% — щ μη/Ον (1.3.70) 60
Из (68) получаем выражение для линейной оценки 12 =» Щ + (μηΐΏχ) (h-mj, (l .3.71) а из (69) находим минимальное значение ошибки βΑ,ΐη- (1— r2)D2, (1.3.72) где г^ИиА^Ог (1.3.73) — нормированный корреляционный момент, часто называемый коэффициентом корреляции* Допустим, что случайная величина 1г приняла некоторое конкретное значение хг. Тогда согласно (71) линейная оценка (или предсказуе. мое значение) х2 для значения х2 случайной величины |2 дается формулой х2 — Щ + μιι (*ι — Щ)/Ог. (1.3.74) Рис, 1.10. Линия средне- квадратической регрессии Зависимость х2 от хг представляет собой прямую линию (рис. 1.10), проходящую через точку (тъ m2), e наклоном, равным μπ/ZV Эта прямая называется линией средней квадратической регрессии \2 на ξ1β Следовательно, корреляционный момент определяет наклон линии средней квадратической регрессии. Укажем, что в дальнейшем особую роль будут играть моменты тг = Μ {Si} и μη = Μ {(1г — тх) (|2 — т2)} или тп = = Μ {ξιΙ^} = μιι + тгт2. В отличие от корреляционного момента μη начальный момент Шц называется ковариационным моментом. Раздел теории, посвященный изучению лишь тех свойств случайных величин, которые определяются этими характеристиками, называется корреляционной теорией. Две случайные величины gx и |а называются некоррелированными или линейно независимыми, если для них μη = 0, т. е. % = Μ {ξ^} - Μ {ξ^ Μ {12}; (1.3.75) в противном случае величины называются коррелированными. Случайные величины 1г и ξ2 называются ортогональными, если %-МШдО, (1.3.76) и независимым^ если выполняется равенство (1.2.67), т. е. Рг (*» Ч) = PL· (*i) PL· (*г). (1.3.77) Между этими условиями существуют связи. Наиболее жестким и ограничительным является условие независимости (77). Независи- 61
мость предполагает выполнение равенства (77) для каждого хг и х2> в то время как некоррелированность представляет собой только интегральное свойство плотности вероятности р2 (х19 х2). Подставляя выражение (77) в правую часть (65), нетрудно убедиться, что для независимых случайных величин μη = 0. Следовательно, независимые величины всегда не коррелированы (линейно независимы). Однако обратное утверждение в общем^случае неверно, т. е. некоррелированные случайные величины могут быть зависимыми. Здесь исключение составляют совместно гауссовские случайные величины (с. 69). Утверждение, что некоррелированные величины могут быть зависимыми, базируется на очевидном факте — из равенства 00 00 Hii s S S (χι — mi) (*2 — Щ) Р2 (*v *2) dxt dx2 =* 0 «—00 —CO вовсе не следует соотношение независимости (77). В подтверждение приведем три примера. Пусть случайные величины ξι и $2 имеют вид ξϊ = Λ)8ΐη(ω0*+φ), ξ2=-40εθ8((Μ+φ), где А0 и ωό — постоянные величины; φ — случайная величина, равномерно распределенная в интервале (—π, π). Нетрудно убедиться, что величины ξι и ξ2 не коррелированы, хотя они являются явно зависимыми, поскольку ξ2= - И?-|?)1/2. Предположим, что ξϊ = Λ8ίη(οΜ+φ), ξ2 = βοο3(ω0*+φ), где А и В — независимые случайные величины и φ — случайная величина, равномерно распределенная в интервале (—π, π). Хотя величины ξι и £г связаны очевидной зависимостью ξ2=5[1—(ξι/Л)2]1/2, однако они не коррелированы. Пусть зависимые случайные величины ξι и ξ2 связаны детерминированной зависимостью ξ2=£ξ и где с — постоянный коэффициент; ξι — случайная величина с нулевым математическим ожиданием и симметричной относительно нуля плотностью вероятности ρ (χ). Тогда при любом четном k корреляционный момент равен нулю: №ΤΜίδϊ&-*ι)>-'Μ{δί+Ι>- ] xk+lp(x)dx=Q, ее» хотя случайные величины ξι и £з связаны жесткой зависимостью. Характеристики нелинейных вероятностных связей можно получить на базе условной плотности вероятности ρ (х2 \ хг). Простейшими из них являются условное математическое ожидание Μ {ξ2 | хг) и условная дисперсия D {ξ2 Ι *ι}· Для некоррелированных случайных величин наклон линии регрессии (74) равен нулю и |2= Μ {ξ2}, что совпадает с (44). Таким образом, если случайные величины не коррелированы, то линейная оценка (или предсказанное значение) 12 равна математическому ожиданию самой случайной величины ξ2 и совсем не зависит от знания характеристик другой случайной величины ξ1# Согласно (69) и (72) это означает, что если случайные величины не коррелированы, то дшпероию ошибки Λ О
линейной оценки ξ3 нельзя уменьшить, вычитая из нее какую бы то ни было линейную функцию |1# Из (75) и (76) следует, что если математическое ожидание хотя бы одной из случайных величин равно нулю, то некоррелированность тождественна ортогональности. Определения (75) — (77) распространяются на несколько случайных величин Ιχ, ξ2, ..., |Λ, причем сами величины могут быть вещественными и комплексными. Говорят, что случайные величины |ь ..., ln некоррелированы, если корреляционные моменты между любыми двумя из них равны нулю, т. е. если м φ ι;}-м [ц м {ι;}, / φ /. (\хщ Они называются ортогональными, если Μ {|,ξ; }=0, /^/. (1.3.79) Здесь звездочка обозначает комплексно-сопряженную величину. Полученным выше результатам (71) и (72) можно придать более общий вид, сформулировав их в виде так называемого принципа ортогональности: постоянные α и 6, минимизирующие средний квадрат ошибки (69), должны быть такими, чтобы ошибка ξ2 — (я + &δι) была ортогональна наблюдению ξχ и чтобы ее математическое ожидание равнялось нулю: М{&-а—6&) 1\] = 0, Μ {(%-a—b Ь)} =*0. (1.3.80) При этом минимальное значение среднего квадрата ошибки равно eSnn-M {a2-a-blh)ll}. (1.3.81) Легко проверить, что для действительных случайных величин |t и |2 9™ формулы совпадают соответственно с формулами (71) и (72). 1.4. ГАУССОВСКИЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ Непрерывная случайная величина I называется гауововокой, если её плотность вероятности является нормальной, т. е. дается формулой* где т = Μ {%} — математическое ожидание; D =» М{(1 — /п)2} — дисперсия случайной величины |. Плотности вероятности (1) соответствует характеристическая функция Φ (18>) = ехр (j mft—L D$A. (1.4.2) Путем дифференцирования для характеристической функции получаем соотношение dDn -(-~)*Φϋ<>). (1.4.3) "Приведенная функция ρ (χ) называется гауссовской или нормальной· 63
Функция распределения гауссовской случайной величины имеет вид где л; φ(*) = _!_ Г е-'2 Τ/2π J i*dt (1.4.5) /7® -δ -z-7 о 1 г ъ χ I \^\ I I I I I U -ъ-г-1 q ι* ζ ъ w Рис. 1.11. Нормальная плотность вероятности р(х) при /га=0 и соответствующая ей функция распределения F(x) — интеграл вероятности. Этот интеграл и его первые двадцать производных подробно табулированы 111]. Пользуясь соотношениями (11-3), интеграл вероятности можно выразить через другие функции ошибок. Графики плотности вероятности и функции распределения приведены на рис. 1.11. По формуле (1.2. И) находим вероятность того, что гаус- совская случайная величина будет заключена в полуинтервале [а, Ь): P{a^l<b}=F(b)-F(a) = o(£^]—o(?^\ (1.4.6) Гаусеоввкие случайные величины довольно часто встречаются на практике, поэтому нормальная плотность вероятности играет особую роль среди других законов распределения. В теории вероятностей доказывается ряд так называемых предельных теорем, указывающих условия возникновения тех или иных закономерностей в результате действия большого числа факторов. Среди этих теорем важное место занимает центральная предельная теорема. Пусть 1и 1%, .... &н ... 0.4.7) — какая-либо последовательность независимых случайных величин HSft — сумма первых η из них Sn == blT fe2 "Т" ··· "Ь Ъп' 64
Обозначим математическое ожидание и дивперсию этой суммы соот· ветственно через Мп и Dni Мп = М {sn} - Μ {^} + Μ {ξ2> + ... + Μ (U, Dn - D {sn} = D {lt} + D {ξ2} + ... + D {ξη>. Говорят, что к последовательности (7) применима центральная предельная теорема, если при любых хх и х2 вероятность неравенства XiVDn <Zsn — Мп < х2 VDn имеет пределом при η -> со величину —^ f е~**'2 djc = 0(x2)—Ф (*χ), (1.4.8) 1/2л J определяемую нормальной плотностью вероятности. Условия применимости центральной предельной теоремы были установлены А. М. Ляпуновым. Пусть ck «■ Μ { | lh — Щк\*+б}9 δ > 0 и θη = сг + ог + ... + оп. Если отношение Ln =я θΛ/0 2 стремится к нулю при η -*· оо, то к пооледовательновти (7) применима центральная предельная теорема. Отметим, что эти условия осуществляются весьма часто. Пувть рассматриваемая случайная величина | представляет собой некоторую детерминированную функцию других случайных величин \ъ .♦., \п\ * = /(*ь Ч, ..·» *п). (1.4.9) При тщательном рассмотрении физики явлений такая ситуация является весьма характерной. Например, на частоту колебаний генератора передатчика влияют многие случайные факторы (температура окр ужа· ющей среды, ее влажность, давление, питающие напряжения, посторонние поля и т. п.). Обозначим номинальные значения этих факторов через xi0. Тогда #0 β / (^10* «^20» ···! ^ηθ)· Разложим функцию/ (·) в степенной ряд по приращениям dkXt=xt — — Xto и, считая их малыми, ограничимся в разложении линейными членами. Получим η Δχ = χ—χ9~ 2 α«Δ*ί· я* = д/(*ы, *2о».··, xno)/dXi. (1.4-10) Видно, что дестабилизирующие влияния величин хъ .·., хп на χ в первом приближении складываются (с весовыми коэффициентами al9..., an)f хотя в функцию / (·) они входят произвольным образом. Что касается роли отдельных слагаемых в сумме (10), то если одно из них превалирует над остальными, то обычно стараются снизить его влияние в первую очередь. Например, превалирующее влияние температуры среды на частоту колебаний передатчика снижают путем термостати* рования некоторых элементов автогенератора* Для гауссовской случайной величины ξ с математическим ожиданием т и дисперсией D справедливо следующее весьма полезное соотношение: 3 Зак/ 956 65
ίϋΐΜΛ I di2n Γ £^Μ_^ Μ <---*->. 0.4.11) dDn 2n ' "°η ' Здесь g (χ) — произвольная функция, οο M{g(|)} = J g(x)p(x)dx (1.4.12) «iOO — математическое ожидание функции от случайной величины, зависящее от т и D. Докажем его· Выразив ρ (я) в (12) через характеристическую функцию согласно формуле (1.2.23), имеем оо оо м{г«)}= J *W^- J oo*)e"J**<iWr. —*0O ЁяОО В этом равенстве от D зависит только Φ (ju)· Дифференцируя равенство η раз по О и учитывая соотношение (3), можем написать 0"M{g(E)} J *W"5T J ( Yf*W)*~m*bdx. dDn -*0O -9» — oo как легко убедиться 2/г-кратным интегрированием выражения (Ь2;23) по х* Поэтому ^M{g(6)} 1 Г ...л d2np(x) У1 2" J £(*) —-ТТ***· dDn 2n J dx2n Повторным интегрированием по частям получим что и доказывает результат (11). В качестве иллюстрации рассмотрим частный случай η = \: J dx dx dx H v ' I J dx* "y ' Если допустить, что при я -* ± оо функция g (x) стремится к бесконечности не очень быстро (например, | g (χ) | < const · exp (xa)t α < 2), то приведенные выражения будут равны нулю и, таким образом, приходим к равенству (13). При использовании формулы (11) необходимо знать начальное значение Μ {g(ξ)} относительноD. Ясно, что еели D =в 0, то 5 = та 66
= const и, следовательно, M{fir©}li>-o-i(m). (1.4.14) Полученная формула (11) позволяет сравнительно просто находить последовательно все более высокие моменты mh = Μ {lh} гауссовской случайной величины. Так, полагая g (ξ) = ξ*, из (11) и (14) получаем — dD = 2 m*-2 (m> D)> »ih (m, 0) = mk. Следовательно, D mk(m9 D)=klk~l) Г mft.2(m, D)dD + m*. (1.4.15) Так как m0 = 1, то ma = D + m2 и о m4 = -^- r(D + m2)dD+m4 = 3D2+6Dm2 + m4 о и т. д. Аналогично поскольку т2 = /η, то о m3 = 3 f mdD + m3 = 3Dm-\-m3 и т. д. Повтупая таким же образом, получим рекуррентное соотношение для центральных моментов μΛ =^ Μ {(ξ — m)*}s о μ^= ^«f0 f Ш-»Д?> Ио = 1, μι-0. о Последовательно применяя его, получим ( Ь3.б...(*—I)/?*/2 при k четном, , 1 0 при k нечетном. Аналогично можно вычислить абсолютные центральные моменты и прийти к формуле Mi|E-ml*>-i Ь3*5- &-Ъ°т ПРИ k четном· (1 4 17) Щ1§ W|1 1 УЩУЧЛ !)*+»/» при Л нечетном. 1 ' В дополнение укажем, что при вычислении моментов гауссовской случайной величины ξ можно также воспользоваться равенством Μ {lg (ζ)} - Μ {|} Μ {g (ξ)} + DM {tfg (g)/d|}, (1.4.18) полагая в нем gW*^^ I, 2, 3, ··· Это равенство легко доказывается для гауссовской случайной величины. По определению две случайные величины ξχ и |2 называются совместно еауссовскимщ если их совместная плотность вероятности имеет вид Рг (*it *г) — С ехр [—(ах\ + &лгхх2 + сх\ + йдсх+ еха)], (1.4.19) 3* 67
где квадратичная форма в показателе является положительно полуоп- .ределенной: ax'i + Ьх^х^ + сх\ + dx1 + ex2^0 (1.4.20) для любых Χχ и #2- Выражая совместную плотность вероятности через ранее введенные количественные характеристики, получаем ΡΑΧχ, *ϋ) = ——=== Χ 2nVDiD2—μ?, βχ Γ — Dt (Χί—'ηύ9+2μα(χ1—ηι1) (xt—mi)—D1(xi—mt)* 1 = *Ч 2(ΟίΟί-μ?1) J X 2not σ2 V1 —r2 χ eXD Γ—σΐ (λγι—mi)^+2rQig2 (*i—mx) (x2—m2) — a\ (*2 — m2)21 ^ 4 2Jv L 2σ?σ|(1-Γ*) J1 Соответственно совместная характеристическая функция равна ОО 00 Ф2 (Рь j*i) = j J ei (·· *+** *> Λ (xlt x2) dx1dx2 = — ОО — 00 = βχρυ(/η1^1 + ^^)-(ν2)(Ζ)1^ϊ+2μ1101^2 + ΰ2^)] = = exp [j (mt *t + m2 #2)_(ΐ/2)(σ? φ? + 2rax σ2 flx *2+σΐ OJ)]. (1.4.22) Здесь отдельные параметры (всего их пять), как нетрудно проверить, имеют следующий смысл: щ и т2 — математические ожидания случайных величин ξχ и ξ2 соответственно; Dx = σ| и D2 = σ| — их дисперсии; г — коэффициент корреляции, т. е. Щ = Μ {ξ,}, tf = Μ {(ξ* - m*)2}, r = μιι/σχσ3 = Μ {(ξχ - mjft, - — т2)}/ого2, /=1,2. (1.4.23) Дифференцируя выражение (22), нетрудно проверить, что для характеристической функции имеют место равенства *"ф^,^)=(_1т^Фгад1> ш УФ, 0*. т ,(_i),(gl σ2 fl^y φ2θΛ> j^. (1.4.24) Рассмотрим на примере двух случайных величин характерные свойства совместно гауссовских случайных величин. 1. Если случайные величины %г и ξ2 не коррелированы, т. е. г = 0, то из формулы (21) следует, что их совместная плотность вероятности равна произведению плотностей вероятностей каждой из величин: Рг (*ъ х*) = Ph (Χι) Рь (*2). (1.4.25) 68
Но такие величины по определению (1.3.77) называются независимыми, Следовательно, если две совместно гауссовские случайные величины не коррелированы, то они и независимы, т. е. некоррелированность двух совместно гауссовских случайных величин тождественна их независимости. 2. Две коррелированные (зависимые) совместно гауссовские слу~ чайные величины ξχ и ξ2 всегда можно привести к двум некоррелиро-, ванным (независимым) гауссовским случайным величинам гц и η2 ПРИ помощи линейного преобразования ίΐι = (ii — tf*i) cos α + (S2 — ma) sin a, (1.4.26) η2 = — (ii — 1Щ) sin a + (ξ2 — m2) cos a, где угол α определяется из условия Μ{%η2} = 0 и равен tg 2a = 2ro1<s2l(o\ — а%) при at Φ σ2, a = π/4 при σχ = σ2.- (1.4.27) а?2 щ < ι й ^ W &_ Г k- r^ а?г, «(7 *• i J Ж2, %<№ ' j Ι & b^+rf»»/ L-A, ==—^ ι PtmPt~8 Рис. 1Л2. Эллипс постоянной N вероятности Рис. 1.13. Пример двух зависимых гауссовских случайных величин, не являющихся совместно гауссовскими Вид преобразования (26) объясняется следующими воображениями, Из формулы (21) видно, что нормальная плотность вероятности имеет постоянное значение на так называемых эллипсах постоянной плотности (рис, 1.12): (Xj—Щ)2 ~ (xi—tnu (*2—Щ) , (Ъ—Щ)2 -2г σ? =<?% *>0. (1.4.28) σ? at σ2 Центр эторо эллипса находится в точке (ntf, m^} в этой точке плотность вероятности максимальна и равна Р2 (Щ, гп2) = (2πσχ σ2 Vl — r2)""1. Оси симметрии эллипса составляют с координатными осями (%, дг2) два угла, определяемые уравнением (27) и различающиеся на π/2. Для независимых влучай- ных величин (г = 0) оси симметрии эллипса параллельны координатным осям* Отсюда ясно, что для сведения зависимых случайных величин.& и |2 к независимым % и η2 нужно перенести начало координат новой системы в точку (щ9 т2) и совместить оси с главными осями эллипса постоянной плотности. Это и осуществляет преобразование (26). 69
3. Одно из важнейших и определяющих свойств совместно гаус- еоввких случайных величин cogtoht в том, что при линейных преобразованиях их получаются также совместно гауссовские елучайные величины. Этот результат будет установлен в § 3.3. 4. Докажем, что если две случайные величины являются совместно гауссовскими, то каждая из величин будет также гауссовской. Обратное утверждение в общем случае неверно (оно верно только для независимых случайных величин). Представим показатель экспоненты в выражении (21) в виде 1 Г (*μ-"*μ)2 ог (*μ-"ν)(*ν-"*ν) , (*ν~"Μ2Ί ^ (*v-mv)2 +zj, z^ix^-r^^^jV^ На основании (1.2.30) имеем условия согласованности ; μ, ν=1,2; μ φ v. плотностей вероятностей OS» p(*v)= f РЛЧ> Χν)άΧμ,. (1.4.29) Перейдя здесь от переменной интегрирования χμ κ ζμ и выполнив интегрирование, получим 1 _„ Г (*у—п 1 Г (Xv-mvf"\ , , (1.4.30) Этот результат доказывает первую часть сформулированного утверждения. Докажем теперь вторую часть. Из формулы (25) еледует, что если две гауссовские случайные величины Ιχ и |2 независимы, то они являются также вовместно гауссовскими. Для зависимых гауссовских случайных величин %г и ξ2 такое общее утверждение неверно; две зависимые случайные величины ξχ и |2» каждая из которых является гауссовской, могут быть совместно негауссовскими [12—14]. Поясним это на примере. Пусть случайные величины ξ% и |2 совместно гауссовские с плотностью вероятности (21). Добавим к этой плотности вероятности две небольшие одинаковые вероятностные «массы» g, равномерно распределенные в площади кругов (или квадратов) 1 и 3 (рис. 1*13) и вычтем точно такие же массы в кругах 2 и 4* В результате получим новую совместную плотность вероятности р'% (хъ ле2). Ясно, что объем под поверхностью р'% (xlf х2) по-прежнему равен единице и при достаточно малой «массе» g функция pi (#$, х2) неотрицательна» Следовательно, в принципе можно указать две случайные величины §ί и Ц с совместной плотностью вероятности р£ (*i» x%)' Очевидно, что случайные величины ξί и ξ£ не являются совместно гауссовскими, хотя плотности вероятности каждой из случайных величин ξί и |а остаются нормальными."Действительно, по аналогии с (29) вероятность р' (xt) dxt того, что случайная величина \\ заключена в интервале (хь Ч + ^*i)» равна объему под поверхностью р'2 fa, x2) в вертикальной полосе (χχ, χι + dxj)i Так как в этой полосе прибавляется и вычитается одинаковая 70
«масса», то ρ' (x^)dxi = р^ (x^)dxlt Поскольку случайная величина ξ| по предположению гауссовская, то и £'t будет гауссовской случайной величиной. То же самое справедливо для случайной величины |'2 (рис. 1ЛЗ). В дополнение приведем следующий конкретный пример. Пусть р2 (хь #2) и /?2 (ΛΓχ, х%) — выражения двух нормальных плотностей вероятностей» в которых trif = т% =^ т% о\ =» о\ = σ2, но г ^= г. Тогда полусумму (1/2) χ X [р2 (#i, #2) + Рг (*!♦ ^гЯ можно рассматривать как некоторую двумерную плотность вероятности, которая однако не является нормальной, хотя одномерные плотности вероятности, вычисленные по формуле (29), будут нормальными. 5. Для совместно гауссовских случайных величин условная плотность вероятности одной из них при фиксированном значении другой является нормальной. Действительно, воспользовавшись формулами (21) и (30), получим ρ (*21 li = *ι) = р2 (*ъ **)lPh (*ι) = , X ХеХр{~ Щ*-*> [ь-Щ-r^Od-mtf}. (1.4.31) Видно, что условная плотность вероятности является нормальной с математическим ожиданием и дисперсией, равными соответственно Ni{lz\li^Xi}^nh + r(o2/al)(xl-ml)t Dlillt ==σ!(1-/·2). (1.4.32) Условное математическое ожидание |2 ПРИ данном хг зависит от xi9 а условная дисперсия D|2 (ξ, не зависит от хг. Профиль условной плотности вероятности (31) в плоскости хг = = const есть нормальная кривая с единственным максимумом, расположенным на прямой линии *2 =* тг + г (<*Αι) (*ι — т\)$ проходящей через центр (ти т2) эллипса постоянной плотности. Точка пересечения этой прямой с эллипсом (28) совпадает β точкой касания вертикальной линии хг =* const с тем же эллипсом. При г -* 1 условная дисперсия Dg21 ^ уменьшается. Поэтому условная плотность вероятности при /·->· 1 все теснее и теснее концентрируется около прямой, переходя в пределе в дельта-функцию: Ρ (*2 Ι *ι) β δ (*2 — Щ — r (ojaj (хг — mj), r -* 1. (1.4.33) 6. Имея в виду результат (1.3.67), формула (32) позволяет сделать важный принципиальный вывод: для совместно гауссовских случайных величин нелинейная и линейная оценки одной из случайных величин через другую (по критерию минимума среднего квадрата ошибки) совпадают и, следовательно, для таких величин наилучшей оценкой является линейная: ί2 - ё Иг) - Μ {|2 I 1г) = m2 + r (ojoj (хг - щ). (1.4.34) При этом минимальное значение среднего квадрата ошибки (1.3. 72) равно 85.Щ = (1 —г2) σ| = (1 —г2) Г>2. (1.4.35) 71
Следовательно, нормальную уоловную плотность вероятности (31) можно записать в следующем виде: 1 — Г (*2—12 Ρ(*2|*ι) = V2m& exp min Г (*2-U21 L 2bS,id J* При анализе безынерционных (функциональных) преобразований совместно гауееовских случайных величин часто оказывается полезным разложение Мелера двумерной нормальной плотности вероятности (21) в ряд по ортогональным полиномам Чебышева — Эрмита [151; χ (1.4.36) 2πσίσ2 L 2σ* 2σ| где Ηη (χ) — полиномы Чебышева — Эрмита; #„(*) = (-1)»е**/2—(е~**'2), #0=1, /1 = 1,2,3,... (1.4.37) Простота оперирования о таким разложением объясняется тем, что в правой части выражения (36) переменные хг и х2 «расщеплены», т. е. входят в качестве отдельных сомножителей. Почти все приведенные выше результаты обобщаются на несколько совместно гауееовских случайных величин. Случайные величины £ъ-?2> ···» ?л называются совместно гауссовскими, если их совместные плотности вероятности являются нормальными. Эти плотности вероятности записываются наиболее компактно в матричной форме. Обозначим математическое ожидание случайной величины |μ через тй, дисперсию через D^ и корреляционный момент между случайными величинами ξμ и |v через #μν = Μ {(ξμ — /%) (ξν — /ην)} = Γμ,ν ]/#μ Ζ?ν, μ, V = ΪΤΤΐ, (1.4.38) rfti? — коэффициент корреляции. Ясно, что /?μμ = Ζ)μ и #μν =з #νμ. Определим векторы-столбцы х = хх х2 и корреляционную матрицу R = и т= Г? ii А12 ··· ^ΐΛ Ι 21 *?22 ··· °2u I · rcl *>n2 ··· Knn J (1.4.39) а также | R | =* det R — определитель корреляционной матрицы. 72
Совместная нормальная плотность вероятности случайных величин 1и 12> ..., ξη имеет вид ^W"WJ|R|i/« 6ХР[-Т (*-««)TR-l(x-ni)] (1.4.40) и соответственно характеристическая функция равна ФЛ0'О) = ехрЛт*О— -1-0*rA (L4.41) Здесь R"1 — матрица, обратная R; символ τ обозначает транспонированную матрицу и*т= [dlf ΰ·2, ···» fyJ — вектор-строка. Так.как /?μν = /?νμ, т. е. элементы корреляционной матрицы R, расположенные симметрично относительно главной диагонали, равны друг другу, то корреляционная матрица является симметрической. Поэтому плотность вероятности (40) и характеристическая функция (41) определяются η (п + 1)/2 + η параметрами. Убедимся, что для двух совместно гауссовских случайных величин ξχ и ξ2 из общей формулы (40) следует результат (21). Имеем Ri=i!! „ r°'?l' IRI=°?°i0-^.°i=V^7. <-ι.2. 1/σ1 σ2 σ2 J Обратная матрица равна R-1=_L[ °i -га, α^Ί |R| L—гаха2 σ? J В данном частном случае (х—т) = * 1L (χ—т)Т =[а;1—mi, *2—m2] L#2—/я2 J и 1 IRI ί-^ϊσ2 σ? J U-m2J σ| (%—m1)2~2rgig2 (хг — т{) (х2—m2)+of (х2—т2)2 o?al(l-r2) Таким образом, двумерную плотность вероятности (21) можно записать в вектор· ной форме р2 (χ) = (1/2π | R |1/2) ехр [ — (χ— jn)T R-1 (х—т)/2]. Если не пользоваться векторными представлениями, то многомерную плотность. вероятности и характеристическую функцию можно запивать иначе: Pn(Xl *J"(a^.l,R,i/»X X ехр — —ί— V ^μν(%—/ημ)(Χν—mv) , (1.4.42) L ' μ, ν=1 J 73
Φ,,ίίΦΐ,.... i^„)-exp(j 2 «μ «μ- γ J ΑμνΦμΟν), 0-4.43) \ μ—1 μ ν=1 / где Λμν— алгебраическое дополнение элемента #μν в определителе |R|. Из (42) и (43) непосредственно видно, что если совместно гауссов· ские случайные величины ξμ не коррелированы (отличны от нуля только корреляционные моменты #μμ Φ 0), то они и независимы. В данном* случае совместная плотность вероятности (характеристическая функция) равна произведению плотностей вероятностей (1) (характеристических функций (2)) каждой из случайных величин. Отметим одно характерное свойство совместно гауссовских случайных величин. Пусть, например, имеются три совместно гауссовские случайные величины ξι, ξ2, ξ3 такие, что \х не зависит от \ъ и |2 не зависит от ξ8: Р2 (*1> *ъ) β Ρ (*ι) Ρ (*β). Ρ* (*2> *з) = Ρ (4)Ρ (*β)· Воспользовавшись формулой (43), нетрудно убедиться, что для таких случайных величин всегда справедливо равенство Р* (*ь *2» **) β Ρ2 (χι> Ч)Р (*з)» (1.4,44) которое можно распространить на большее число совместно гауссовских случайных величин. Однако такое равенство нельзя записать в общем случае для негауссовских случайных величин. Применив формулу (1.3.57) к совместно гауссовским случайным величинам с характеристической функцией (43), можно показать, что все многомерные центральные моменты нечетного порядка равны нулю,, а четного порядка выражаются через произведения корреляционных моментов: μ2η+ι = Μ {(Ь—/fii)... (l2n+i—Щк+ι)} = 0, η l*«n = 2 Π Μ {(ξμ — /Πμ) (|ν—/fly)} = все пары μ^ν - 2 Μ{(ξμ-/ημ)(|ν-/ην)}Μ{(ξ,ί~/η(ι)(|,-/ηί)}... (1.4.45 все пары ... М {(1р—mp)(ig— /η5)}μ^ν· Здесь суммирование производится по всем возможным способам, которыми можно разбить 2я точек на л парных комбинаций. Общее число членов суммы равно 2п1/2пп\ = 1·3·5... (2п— 1). В частности, для четырех совместно гауссовских случайных величин |ь ξ2, 1з и Ё* получим Μ {EJAb) - Μ {«,} Μ {Ы,} + Μ {Uz} Μ {ξ2ξ4} + + Μ {|χξ4} Μ {ξ2ξ8} - 2т1т2т3тй, (1.4.46) Μ {ξ? Щ » Μ {(|х- mx)2 (ξ2- m2)2} + 4mx m2 M {&- тх) (ξ2- т2)} + + т2 σΐ + ml o\ + mf ml. 74
Покажем, что оптимальной оценкой (по критерию минимума среднего квадрата ошибки) одной из совместно гауссовских случайных величин в зависимости от остальных является линейная оценка. Пусть требуется найти такую оценку |п случайной величины ξη в виде некоторой функции g (£ь ξ2> ···» £Λ-ι) от остальных случайных величин, чтобы средний квадрат ошибки е2 = М {(in-in)2} = Μ {[In-gdu h In-il2} (1.4.47) был минимален. Повторив рассуждения, приведшие к формуле (1.3.67), получим, что оптимальной оценкой является условное математическое ожидание ln = g(L· i2,.·.. ln-i) = M {ln |ξχ, ξ2,..., ξη-ι} = со = \ χηρ (χη |#ι,..., xn^i)dxn=· *ь_оо οο = J *ηΜ*ι,..., Xn)dxJPn-i(Xi,...,Xn-i). (1.4.48) Допустим ради простоты, что математические ожидания рассматриваемых случайных величин равны нулю: Μ{ξ*} = 0, ί=1, 2,..., η. (1.4.49) Определим η — 1 постоянных blf ..., 6η_ι так, чтобы выполнялись равенства М{[^—(61b+... + 6n.1gn.1)]i,> = 0f ί=1,2 η—1. (1.4.50) Сохранив для корреляционных моментов прежнее обозначение #μν = Μ {ξμξν} и полагая в (50) i = 1, η — 1, для определения коэффициентов bt получим систему η — 1 линейных алгебраических уравнений Riibl + R2ib2+.... + Rn_liibn_1 = Rnh ί=1,Λ_1. (1.4.51) Если детерминант этой системы отличен от нуля, то система имеет однозначное решение. Докажем теперь, что при таком подборе коэффициентов bt .справедливо равенство Μ {ξηΐξχ ^-i} = &ili+... + &n^iin-i. (1.4.52) Действительно, случайные величины 1п — (fr^ + ... + ί>η-ι£η-ι)> £ъ 1г> ···> in-i (как линейная комбинация совместно гауссовских случайных величин) являются совместно гауссовскими. По определению (1.3.76) первая из этих величин ортогональна со всеми остальными, поскольку выполняются равенства (50). Однако при условии (49) ортогональность эквивалентна некоррелированности. Но для совместно гауссовских случайных величин из некоррелированности следует их независимость. Поэтому случайная ошибка 1п — {Ьг1х + ..· + &η-ι£η-ι) 75
не зависит от совокупности случайных величин %ъ ξ2, ..., ^_1# Следовательно, Μ {1п— фг Ь+... + δη-ι ξ»-ι) 11ь».. in-i} = = Μ{ξη-(61ξ1+... + 6η~ιξη-ι)} = 0. Ho M{ln-(b1l1+... + bn_1%n„1)\l1 ξ^}- = Μ {ξη Ι ξι,.*.» Ιη-ι}—Μ {&ι Ιι+ ... + &η-ι bi-i Ι ξι···.. Ιη-ι}. Так как то предыдущее равенство переходит в (52). Таким образом доказано, что наилучшей оценкой одной из совместно гауссовских случайных величин через другие является линейная оценка. Заметим, что в рассматриваемом случае условная дисперсия Μ {[^-(&ιΕ1 + ... + &η-ι £Λ-ι№,...,ξη-ι} (1.4.53) равна минимуму среднего квадрата ошибки линейной оценки ε5,ι„ = Μ {[^-(6Ji+... + &n-Jn-i)]2} = ^n|i1,..,in^ (1.4.54) Это следует из того, что случайная ошибка \п — (ЬЦг + ... + + Ьп-г Ιη-ι) не зависит от Еь ..., ξη_χ. Полученные выше результаты (52) и (54), относящиеся к совместно гауссовским случайным величинам, можно сформулировать в виде общего принципа ортогональности, справедливого для оптимальной ли- нейной оценки любых случайных величин. Постоянные bi9i = 19п — 1, минимизирующие средний квадрат ошибки линейной оценки *2 = М{[1п-ф111+... + Ьп-11п-1)]% (1.4.55) определяются из условия, что случайная ошибка ξη — фг1г + ... + + &λ~ι£λ-ι) должна быть ортогональна со случайными величинами Ь1э···» »л—1* Μ {[&.— (bi Ь+... + b«-ifct-iM δι) — 0t ί= 1,2,..., я_1. (1.4.56) При этом минимальное значение среднего квадрата ошибки равно в&т- Μ illn-Фг Ь+ ... + &*-!ln-i)} In} = = Rnn- Φι Rm +... + &»-i #»-i,n), (1.4.57) где коэффициенты Ъ% являются решением системы линейных уравнений (56). Заметим, что если в нашем распоряжении нет никаких данных относительно случайной величины ξΛ, то, как указывалось на с. 49, наилучшей оценкой ее является математическое ожидание, которое было принято равным нулю. При этом средний квадрат ошибки оценки равен дисперсии Ό\η = Rnn = Μ {ξ£}. При наличии наблюдений <ξχ,.·., ξη_ι) средний квадрат ошибки оценки уменьшается на величину btRln + ... + 6Λ_ι /?Λ_ιίΛ. Очевидно, что если эта величина мала но сравнению с Rnnf то можно не учитывать результаты наблюдения и принять за оценку случайной величины ее математическое ожидание.
Если результаты наблюдения (1Ъ ..., 1п^) ортогональны с ξη, то Rin = 0 и bt = 0. Если отдельные наблюдения ортогональны между собой, т. е. RtJ = 0 при гф\= 1, 2, ..., η — 1, то 6* = RiJRn* В общем случае увеличение объема располагаемых данных о случайной величине повышает точность ее оценки (уменьшает ошибку ε). Однако если новые данные ортогональны ξη — (btlt + ... + bn^tX X in-i). то наилучшей оценкой по-прежнему будет |Л — (Ь^ + ...+ В том случае, когда условие (49) не выполняется, т. е. Μ {ξ^^Ο, оптимальную оценку следует искать в виде 1η β Μ {In I 1ь ...f £„_!> = b0 + btlt + ... + 6П_! |п_ь где постоянные коэффициенты 60, 61э ..., 6п-1 определяются из условия ортогональности (56) и равенства нулю математического ожидания ошибки: Μ {1п - (b0 + Ьг1г + ... + bn-ttn-i)} = 0. Полученными результатами можно воспользоваться для нахождения условных плотностей вероятностей ρ(*ь—· *k I *fc+i>···» xn) => pn (#i,..., xn)/Pn-k (*ft+i>···» #n) (1.4.58) совместно гауссовских случайных величин £lf ..., ξΛ. В правой части этого выражения стоят нормальные плотности вероятности. Они представляют собой экспоненциальные функции, показатели которых есть квадратичные многочлены относительно xt. Поэтому их отношение будет также экспоненциальной функцией, показатель которой является полиномом второй степени относительно xl9 ..., xk. Следовательно, условные плотности вероятности совместно гауссовских случайных величин являются нормальными. Они полностью определяются k'+ + (1/2) k (k + 1) параметрами Μ {ξμ | xk+u ..., χη), Μ {ξμξν | xk+u ...,#η}, μ,ν=1,..., k. Ясно, что эти параметры зависят от xk+lt ...,xn. Покажем на частных примерах, что эти параметры можно сравнительно просто определить при помощи полученных выше формул. Пример 1.4.1. Пусть требуется найти условную плотность вероятности Ρ (*з I Ч> хъ) совместно гауссовских случайных величин §ι, ξ2, ξ3 с нулевыми математическими ожиданиями. По формуле (52) имеем Согласно (51) постоянные bt и Ь2 находятся из решения системы двух линейных уравнений #11^1 + ^21^2 β & 31» #12^1 "Ь #22^2 ~ R 32» Условную дисперсию вычисляем в соответствии с (54) и (57): DK I In ξΐβ βΠϋηβ*88—^1^13—b2 #23. Таким образом, 77
Пример 1.4.2. Вычислим условную плотность вероятности ρ (х2, *§ | дгх) трех совместно гауссовских случайных величин |jf ξ2» Is· Как указывалось выше, плотность вероятности ρ (χ2> χ81 χύ есть нормальная плотность вероятности относительно двух случайных величин |2 и |g, она определяется пятью параметрами. Согласно (1*3.68) и (L3.70) находим MfelW—^"Ь. М{£8|Ы = -|^Ч* (1.4.60) На основании (54) и (57) определяем условные дисперсии ^,Ь-«||-«1Л D^b^Rv-RU/Rji. (1.4.61) Остается показать, что условный корреляционный момент Действительно, случайные величины ξ2 — (RtjRn)li и £а — (Ria/Ru)li не коррелированы с ξι» Поскольку они совместно гауссовские, то первые две не зависят от ξι» Поэтому их произведение также не зависит от ξ^ и в левой части равенства (62) условие можно опустить. Беря затем почленно математическое ожидание, получим результат (62). Подставив найденные пять параметров (60)— (62) в формулу (21), получим интересующую нас условную плотность вероятности ρ (*2, *з Ι *ι)* В заключение приведем общее выражение ^-мерной условной нормальной плотности вероятности [97] ph (Х±, Xf,..., Xh I Xk+b...9 Xn) = Pk (Xl I X2) = γτγ-. rjyj X (2π) IRx1/x2 I X ехрГ—(Xi—mX| (x.rRx/jx.iX!—mxl|X,)/2jf (1.4.63) где R — корреляционная матрица вектора-столбца X = [Хь Χ2]τ, Rx, ι χέ = R11—R12R221 R21» R = [ ! шх, |x2 = tti1 + R12R-1(X2—m2), Rii> R22 — корреляционные матрицы векторов Xt и Х2 соответственно, R12, R2i — матрицы взаимной корреляции между векторами Хх и Х2; тг = Μ {XjJ и m2 = Μ {Χ2} — вектор-столбцы математических ожиданий векторов Хг и Х2 соответственно. . 1.5. РАСПРЕДЕЛЕНИЯ ПИРСОНА В принципе любую неотрицательную функцию / (х) > 0, удовлет- 00 воряющую уеловию нормировки J / (χ) dx s= 1, можно рассматривать как плотность вероятности ρ (χ) некоторой случайной величины (с. 20). Несколько конкретных примеров плотностей вероятностей ρ (χ) были приведены в табл. 1.1. Весьма разнообразный характер плотностей вероятностей ρ (χ) дает система кривых Пирсона, задаваемая дифференциальным уравнением 116] 78 [Ru R21 R12 R22
^vpSmT'M· ".5.., где an bt — постоянные параметры распределения. В зависимости от значений отдельных параметров в качестве решения уравнения (1) получаются 12 типов кривых. Эти кривые часто используются для аппроксимации статистических распределений^. 433). Нормальное распределение, гамма-, бэта- и χ2- распределения, рас- пределение Стьюдента и другие удовлетворяют уравнению (1) и, следовательно, являются частными случаями семейства кривых Пирсона (см. ниже). Используя общие свойства плотностей вероятностей, установим правила определения постоянных величин, входящих в уравнение (1). Для унимодальных распределений модой является точка χ = α, так как dpldx = 0 при χ = а. Запишем уравнение (1) в следующем виде: хп Ф0+ Ьгх+ Ь2х2) ά^ψ- = χ* (χ—α) ρ (χ). (1.5.2) ах Пусть допустимые значения случайной величины ξ с плотностью вероятности ρ (χ) заключены в интервале [1Ъ /2К Проинтегрируем левую часть равенства (2) по частям. Считая, что интегралы существуют, получим h {хпФо + ЬгХ + Ь,х2)р(х)}11]- f [nb0x^ + (n+l)bxxn+ h л2 л2 + (n + 2)b2xn+x]p(x)dx= \ xn+lp(x)dx—a \ xnp{x)dx. Предположим, что выражение в фигурных скобках слева обращается в нуль на концах распределения или же lim хп+2 ρ (χ) -► 0, если рас- пределение имеет бесконечный размах. Тогда, используя определение начальных моментов (1.3.11), получим — атп + /2&ο^η-ι + (л+1) Ьгтп + (п + 2) b2 mn+1 = = —"Wi, (1.6-3) где тп — начальный момент η-го порядка. Уравнение (3) позволяет получить рекуррентное соотношение для определения старших моментов по младшим, а также выразить постоянные параметры а и bt через моменты распределения. Последовательно полагая в (3) η = 0,1,2,3 и учитывая, что т„х = 5= 0, имеем — atriQ + &i m0+ 2&2 тг = — т19 ) — am1+bem0+2&1/72x4-362^2=—Щ* — ащ^2Ь0т1+ЪЬ1гщ^Г^Ь11,тъ^—щ9 — атъ + З&о Щ + 4ЬХ ть + 562 т4 = — т4· (1.5.4) 79
(1.5.5) Из условия нормировки плотности вероятности (1.2.4) следует, что m0 = 1. Допустим, что распределение является центрированным, т. е. тх = 0. Тогда система уравнений (4) примет вид —а + Ь^О, 6ο+3&2μ2 = — μ2, —αμ2 + 3&! μ2 + 462 μ8 = — μ8» —αμ3 + 3fc0 μ2 + 46χ μ8 + 5&2 μ4 = — μ4, где μΛ — центральные моменты распределения (1.3.12). Решив эту систему относительно интересующих нас параметров распределения, получим а = Ьъ Ь0 =* cjdy Ьг = cjd, b2 = c2/d, (1.5.6) где Со = — μ2 (4μ2 μ4—3μ!), Сх = — μ8 (μ4 + 3μ|), С2=—2μ2μ4+6μ| + 3μ|, d= 10μ2μ4— 18μ1— 12μ1. ' Из (4) и (6) видно, что в общем случае распределения Пирсона определяются четырьмя моментами тъ μ2, μ8 и μ4. Учитывая равенство а = Ьъ полученное из условия тг = 0, соотношение (3) можно записать в виде "iWa-i + nb&n = — μΛ+ι Кп + 2) Ьг + П. (1.5.8) Отсюда получаем рекуррентное соотношение для определения старших центральных моментов через два предыдущих младших: μη+1 = -Π *<>μη-ι-Η>ιμ» (159) или с учетом (6) *п+г--п (n+2)c2+d · (1.5.10) В дальнейшем будем рассматривать только случай центрированных распределений (тх = 0), т. е. а = 61в Запишем исходное дифференциальное уравнение (1): J-lnp(x) = £ζώ . (1.5.11) Решение этого уравнения можно представить в виде р(х) = сехр[<р(*)], φ(*) = Г ——-Ji=£L—-dx. (1.5.12) J Ь0+Ь±х + Ь2х2 Известно, что характер кривой φ (χ) может быть различным в зависимости от корней уравнения &о + М + М' = 0. (1.5.13) Обозначим корни этого уравнения через хг и x2t k**btl(toft>. (1.5.14) 80
Для определенности будем ечитать, что здеаь знаки выбираются так, что хх < х2. Из (14) еледует, что значения корней зависят от величины k. Если k < 0, то корни вещественны и имеют разные знаки (тип I распределения по классификации Пирсона). Если k > 1, то корни веществен- Рис. 1.14. Диаграмма различных распределений семейства Пирсона ны и имеют одинаковые знаки (тип VI распределения). При 0 < k < 1 корни комплексные (тип IV распределения). По существу этим охватываются все возможные случаи. Однако граничные и некоторые частные случаи типов I, IV и VI распределений выделяют особо, так что в итоге различают 12 типов распределений Пирсона. От характера корней хл и х2 зависит также интервал оси х, на котором задано соответствующее распределение ρ (χ); вне этого интервала распределение принимается равным нулю. Если корни действительны и различны по знаку, то распределение считается заданным при хх < х < х2. Если же корни действительны и одинаковы по знаку, то распределение считается заданным на бесконечном полуинтервале, причем х2 < χ < со, если хх < х2 < 0, и — сю < χ < хъ если 0 < < хг < х2. Напомним, что мы считаем распределения центрированными· Поэтому указанный выбор интервалов необходим для того, чтобы математическое ожидание тг = О принадлежало интервалу задания распределения. Для комплексных корней распределение р(х)за*
дано на всей оси х. При этом удается обеспечить выполнение свойств неотрицательности и нормировки ρ (χ). Для классификации кривых распределения Пирсон предложил пользоваться диаграммой в плоскости переменных βχ и β2 (рис 1.14). Величины βχ и β2 определяются равенствами βι*=μ!μ2-3-ΤΪ, β2 = μ4μ2-2 = <?2+3, (1.5.15) где уг и у2 — коэффициенты асимметрии и эксцесса. Каждой паре значений (βχ, β2) соответствует определенная форма кривой Пирсона. Действительно, распределения Пирсона полностью определяются четырьмя моментами тл% μ2> μ3 и μ4. Но моменты т, и μ2 определяют лишь положение и рассеяние распределения. Их можно менять простым переносом начала отсчета и изменением масштаба по оси #, не меняющими форму 'распределения. Знак коэффициента асимметрии тоже не важен для формы в том смысле, что два распределения, отличающиеся только знаком μ3> представляют собой зеркальные отображения относительно вертикальной прямой, проходящей через точку χ = щ. Таким образом, разным формам кривых Пирсона соответствуют разные значения (βχ, β2), τ. е. разные точки на диаграмме рис. 1.14. На диаграмме выделена критическая область. Не существует распределений (в том числе и распределений Пирсона), для которых значения параметров βχ и β2, если они конечны (т. е. существуют моменты μ3 и μ4), соответствовали бы точкам критической области. В справедливости этого общего утверждения можно убедиться следующим путем. Для коэффициента асимметрии произвольной случайной величины ξ справедлива запись μ?'2 и2/? Л12 \ Л" \ * /Г где % = ξ — тг — центрированная случайная величина. Согласно известному неравенству Коши—Буняковского можем написать = -И1—1=β2-1. μ| Следовательно, для любого распределения должно выполняться неравенство β2>βι+1· (L5.16) Это неравенство определяет на диаграмме риа. 1.14 критическую юбласть. Можно показать, что границе области, т. е. знаку равенства в (16), соответствует распределение вида Ρ (х) = Ροδ (х — Χι) + (1 — Ρο) δ (Χ — *2)> где 0 < ρ0 < 1, δ (χ) — дельта-функция. 82
Запишем выражения для параметров распределения через βι и β2: a = bt = c[ld\ b0 = с\Ла\ b2 = с№, - (1.5.17) где со - -μ2 (4β2- 3fc), *ί = Τ КЙ·/К (fc + 3), d = — (2β2 — 3βχ — 6), ά' = 10 β2 — 12 βχ — 18. (1.5.18) Знак для с[ отрицателен при μ3 > 0 и положителен при μ3 <С 0. С учетом (17) и (18) величину k> определяющую характер корней хх и х2, можно также выразить через β3 и β2: *--it— bib±2! . (1.5.19) 460 Ь2 4 (2β2—3β!—6) (4β2-3β1) Отсюда следует, что знак k определяется первым сомножителем знаменателя, так как второй сомножитель вне критической области (16) всегда положителен, как и числитель. Таким образом, прямая 2 β2 — 3 βχ — 6 = 0 является границей: выше этой прямой, где k < 0, находится область I типа распределения Пирсона; непосредственна ниже прямой, где k > 1, лежит область VI типа распределения Пирсона. Граница между типами VI и IV определяется уравнением k = 1. Соответствующая кривая нанесена на рис. 1.14. Рассмотрим теперь подробнее различные типы распределений Пирсона. / тип распределения (бэта-распределение). В данном случае корни хг и х2 действительны и различны по знаку, к < 0. Запишем подынтегральное выражение в (12) в виде χ—ьх __ χ—bt g . h Ь0+Ьгх+Ь2х2 b2 (я —xj (χ—χ2) x—x-l χ—χ2 где (1.5.20) . _ υι- I*L_, h= X2~bi . (1.5.21) b2 (x2 — x1) b2 (χ2—χτ) Интегрируя (20) и подставив результат в (12), получим Ρ (х) = с | χ — X\\g \х — Хг I Л. Учитывая, что при разных знаках корней χ изменяется в интервале Χι ^ х ^ х2> и определяя постоянную с из условия нормировки, найдем Р(х) = ттггт (*~*ιΗ (*2—х)\ В(Ц + 1,Н + \)(х2-Х1)*+н+1 *χ<*<*2, (1.5.22) где В (х, у) — бэта-функция [90]. Распределение (22) существует при g> — 1, h> — 1. Это распределение называют также бэта-распределением. Заменив ζ = (χ — Xi)/(x2 — *ι)» можно перейти к более привычной форме бэта-распределения (49). 8S
Различные формы кривых, относящихся к I типу распределения, представлены на рис. 1.15. При g> О, Л> О распределение унимодально (рис. 1.15, я), при —1 < g < 0, —1 < Л < 0 — выпукло вниз (имеет U-образную форму — рис. 1.15, б), при g и h разных знаков— J-образно (рис. 1.15, в). И тип. Этот тип распределения является частным случаем типа I при g = h> т. е. хх = х2. Кривые этого типа симметричны 0,1 0,Ц 0,6 0,8 (в ° 0,2 0,к 0,6 0,8 а? О) 5) υ Ο,Ζ 0,U 0,6 0,8 W и 0,1 ufi 0,6 0,8 X в) г) Рис. 1.15. Кривые бэта-распределения с различными значениями параметров <рис. 1.15, г). На диаграмме рис. 1.14 типу II соответствуют точки отрезка 1 < β2 < 3 при βχ = 0. /// тип (гамма-распределение). Этот тип распределения получается при k = оо. Согласно (19) ему соответствуют точки границы 2β2 — — 3 β! — 6 = 0 между типами I и VI. Как следует из (17) и (18), для данного распределения выполняются равенства Ь2 = 0» Ь0 = — μ2, а = &j = — ЫРъ- (1.5.23) Равенство Ь2 = 0 иногда используют в качестве определения III типа распределения. Из (14) следует, что при этом один из корней стремится к ± оо, а второй равен — b0/bv Если Ьг >> 0, то согласно (23) — bjbx > 0, т. е. х2 = — Ь0/Ьъ и распределение сосредоточено в интервале — оо < χ < х2. Если Ъх < 0, то 0 > — Ь0/Ьг = хг и распределение задано при хг < χ < оо. 34
Само распределение можно найти путем предельного перехода в (22) при Ь% -*· 0. Однако проще обратиться непосредственно к (12): φ(χ)«Γ»ϊ=5ί.Λ-±Γ(ι—Ь±ЫЬ-)<ь- —2- j-(b\ + b0)\n\x+^-\ +const. Отсюда р(х) = се*'ь>\х+Ь01ЬгГ1~ЬоЬГ2. Определив постоянную с из условия нормировки, получим *>(«)- { ~h ' ,,, hil =*»-*-, (1.5.24) где — Ь0/Ь± <; *<C oo при &ι < 0 (μ3 > 0) и — οο < χ < — V^i при 6χ > 0 (μ3 < 0). В формуле (24) за нуль отсчета принято математическое ожидание распределения. Если переместить нуль отсчета в точку — bjbly ввести обозначения α = — 1 — (b0lb\), β = — \lbx (1.5.25) и перейти к новой переменной ζ = χ + (Ь0/Ьг)9 то распределение (24) примет вид стандартного гамма-распределения Р(*) = -тг^ (-Τ-Υ е~2/3' О-5·26) |β|Γ(α + 1) U/ К где 0 < χ < сю при μ3>0(β>0) и — оо < л; < 0 при μό < 0 JP<0). Кривые распределения III типа (гамма-распределения) изображены на рис. 1.16. Заметим, что на этом рисунке приведены только кривые с положительной асимметрией. Кривые с отрицательной асимметрией получаются путем зеркального отображения. Рассмотренный тип распределения включает как частный случай Х?-распределение, которое соответствует β = 2 и α = (я/2) — 1 при ti = 1, Z9 u, ··· IV тип. В этом случае корни хх и х2 комплексные, т. е. 0 <С k < 1. Чтобы выполнить в (12) интегрирование, представим подынтегральное выражение в виде х—Ьх X—B Ьо + Ьхх+Ьъх* Р(Х*+А*)9, где *-*+£· в~Ч1 +£>"■-■*-$■· ,,·5·27) 85
Тогда _J^«--L In <* + *)- JLarctg^ + const, т. е. p(X) = c(X2 + A2)l'2b* ехрЛ * 7,0 2# 3,0 4,0 4^ * Рис. 1.16. Кривые гамма-распределения с различными значениями параметров В АЬ2 X \ arctg — J , — оо < * < оо. (1.5.28) / /,# Л# ^ W W &0% Нормировочный коэффициент с наиболее просто может быть найден численными методами, так как интеграл от (28) в общем случае через известные функции не выражается. Область IV типа распределения на диаграмме рис. 1.14 лежит ниже кривой, определяемой уравнением £ = . βι (β2+3)2 4 (2β2—3βχ—6) (4fc-3fc) = 1. (1.5.29) Типичный вид кривой IV типа распределения приведен на рис. 1.17, а. Для IV типа распределения не существуют моменты μη порядков η ^ Г^ — 1/&2· Соотношения (4)— (7) и (17), (18) справедливы лишь при Ш%< —5. Частным случаем этого типа распределения при βι — О является распределение Стьюдента. На диаграмме рис. 1.14 этому распределению соответствуют точки оси ординат при β2 > 3. Если βχ — О, то из (17) и (18) следует, что Ьг = 0. При этом из (27) имеем χ = Xf в = 0, Л? « bjb% 86
Соответственно формула (28) упрощается: (1.5.30) Если ввести обозначения 60 = — п/(п + 1), &2 = — 1/(я + 1), (1.5.31) то из (30) получим стандартную форму распределения Стьюдента 1 Г((л+1)/я) у™ г (я/2) Отсюда при η = 1 получаем распределение Коши р(х) = 1/π (1 + л:2). Р0*)к (1+ —) , — оо<л;<со. (1.5.32) (1.5.33) Рис. 1.17. Кривые распределения Пирсона разных типов: а) тип IV; б) тип V; в, г) тип VI Точку, соответствующую распределению Коши, на диаграмме рис. 1.14 нанести невозможно, так как это распределение не имеет конечных моментов. V тип. Этот тип распределения определяется равенством (29), т. е. ему соответствуют точки границы между типами IV и VI. Из (14) следует, что при k = 1 корни хг и х2 действительны и равны между еобой: хг = х2 = — Ьг/(2 62). При этом согласно (12) имеем »»-ii х—bt dx=- dx (x+b/Vtf "" b, У (х+Ьг/2Ь2) Ьг (1 +l/(2fr2)) С dx ■ί- (x+bJ2b2y 87
=,±ln\x+J*\+h_. ^^^ + const, b2 I 262 I b2 x+bx/2b2 т. e. P(x) = c\X+ £1"* ехрГй^Ш^Ш], 0.5.34) где — &i /(2 &г)< χ < oo при — bx/(2b2) < О и — oo < л; < — — bx/(2b2) при — M2&2) > 0. Воспользовавшись соотношениями (17), (18) и равенством (29), можно показать, что в данном случае оказываются эквивалентными следующие условия: — bx/(2b2) <0 ~ Ьг<0 ~ μ8> 0;—bxl(2b2) >0~Ь±> 0~μ3< 0. Для упрощения записи распределения (34) целесообразно перенести начало отсчета в точку — ЬХ12Ь2 и рассматривать распределение V типа в виде ρ(ζ)*=ο\ζ\~* ехр (— у/г), (1.5.35) где ζ = χ + ЪХ12Ъ2, q = — \lb2, γ = — (bx/b2) (1 + 1/(2 b2% (1.5.36) причем 0 < ζ < οο при bx < 0 (μ3 > 0) и — oo < ζ < 0 при bx >0 (μ8 < 0). Путем интегрирования распределения (35) находим нормировочный коэффициент о. Например, пусть Ьх < 0 (γ > 0). Тогда Ή12" В результате получим ^^^Т^^1г^'ехр(-7-)^ <κ5·37> где 0 < ζ < oo при fci < 0 (μ8> 0) и — оо< ζ < 0 при Ьх > 0 (μ8 < 0). Типичная кривая распределения V типа приведена на рис. 1.17, б. Отметим, что соотношения (4) — (7) и (17), (18) справедливы только щж q = — \tb2 > 5. W тип (бэта-раепределениея II рода). Этому типу соответствует случай, когда корни хх и х2 действительны и одинаковы по знаку, т, е. k> 1. Выражение для распределения получается так же, как и для типа 1. При использовании прежних обозначений (21) оно имеет вид ρ (χ) ^ о | χ — хх μ | χ — *2 | \ (1.5.38) где — оо < * < ^! при 0 < *! < я2 и х2 < λ < oo. при ^ < х2 < <0. Можно показать, что корни положительны (0 < хх <С х2), еели &i > О (при этом μ$ < 0), и отрицательны (хх < #а < 0) при 6Х <0 (μ*>0). 88
Из условия нормировки при &! < О находим нормировочный коэффициент в: xi)6(x-xzf dx = (*2— ^+"+1 [> (y+ 1)* dy = -1 Г (х—хОЧх—хУ dx - (*2— ^+*+' (V *2 О = (*2—Χι)^+Λ+!5(Α+1, —g—k-l),h>—ltg+h<~l. Здесь при интегрировании была использована замена переменной у =в (л; — #ι)/(#2 — *ι)· Теперь записываем окончательную формулу VI типа распределения при μ3 > 0 (Ьг < 0) ρ (х) = —ГЦ ' {Χ—χύ* {Х—Хг)Н * Хъ<х<°о. (1.5.39) Аналогично для μ3 < 0 (bL > 0) получим Ρ (х) = ,..,, 1 (Χι—х)9 (Xz-x)h\ — оо<х<*1# (1.5.40) Если сдвинуть начало отсчета ζ — χ — х2 и использовать обозначения р = А+1, Я = —5 — ^ — 1» то формула (39) упрощается: ρ (ζ) = —- — , 0 < г < оо. (1.5.41) 5 (Ρ, <tf (1+г)*+? Это распределение называется бэта-распределением II рода [161. Типичные кривые VI типа распределений приведены на рис. 1.17, в9 а. J-образная кривая получается при μ3 > 0 (Ьг < 0) для 0 > h >— — 1 илиπpиμ3< 0 (Ьг> 0)для 0>g>— 1. На диаграмме р ио. 1.14 VI тип распределений находится между линиями, определяющими типы III и V. Укажем, что у распределений типа VI не существуют моменты μΛ высших типов, точнее, не существуют моменты порядков, равных и больших п9 если g + А > — η — 1. Поэтому соотношения (4) — (7) и (17), (18) применимы лишь при g + h = 1/Ьа < — 5. VII тип (нормальное распределение). Распределение этого типа имеет место при Ьг = Ь2 = 0. При этом из (12) получим р(х) = с ехр (х*12Ь0) = * ехр [- Q *\ 1. (1.5.42) Τ/2π(—60) L 2<— 60) J Очевидно, что μ3 = — &0. Кроме того, из (5) следует, что μ3 — 0, μ4 = 3μ2, т. е. β ι = 0 и β2 = 3. На диаграмме рис. 1.14 данному распределению соответствует точка. Из рассмотрения диаграммы видно, что нормальное распределение является предельным для всех рассмотренных типов I—VI. VIII тип. Распределение этого типа есть частный случай типа I,. когда g =» 0, — 1< h< 0 или h = 0, — 1< g < 0. Из (22) при g =0 получаем 89
Ρ Μ = г—, (*2— χ)\χι<χ< χ2. (1.5.43) (Χ2-Χύ^1 Β (Ι, Λ+1) Кривые этого распределения начинаются θ конечной ординаты при χ = хг и монотонно возрастают, стремясь к бесконечности при χ = = х2. При h = О кривые распределения зеркальны кривым для g = 0. На диаграмме рис. 1.14 VIII типу распределений соответствует кривая, являющаяся границей между J- и U-образными бэта-распределениями. IX тип. Это распределение является частным случаем I типа, когда g = 0, h > 0 или h =0, g > 0. Выражение для IX типа распределения при g = 0 совпадает с формулой (43). Соответствующие кривые распределения начинаются с конечной ординаты при χ = хг и монотонно убывают, оканчиваясь в нуле при χ = х2. Кривые распределения для h = 0 зеркальны кривым, соответствующим g=0. На диаграмме рис. 1.14 типу IX соответствует граница между унимодальным и J-образным бэта-распределениями. X тип (экспоненциальное распределение). Это распределение является особым случаем распределения III типа (гамма-распределения), когда bjb\ = — 1. При этом βχ = 4 и β2 = 9. Выражение X типа распределения имеет вид pix^J-expi-f-JL· +Л), ^<*<«> при 61<0(μ3>0), \bi\ I \—fti /J — оо<л:^&1 при δι > 0 (μ8< 0). (1.5.44) Заменой переменной интегрирования г — х — Ьх (перенос начала отсчета в точку Ьх) выражение (44) приводится к обычной форме записи одностороннего экспоненциального распределения P{Z)-\iJe*P[bJ' -οο<2<0πρΗ61>0(μ3<0). (Κ5·45) Отметим, что точка φΐ9 β2) = (4,9) лежит на пересечении кривых распределений типов III и IX. Поэтому экспоненциальное распределе- ние является одновременно частным случаем как III, так и IX типов распределений. XI тип. Он представляет собой частный случай типа VI, когда в (39) ft = 0 или в (40) g = 0· Выражение для распределения типа XI имеет вид: при μ8 > 0 фг < 0) Ρ (х)= ττ-ί (x—xug , &ι < * < оо, g <— 1; №ι-*>*+ι*<1.-*-1> (1.5.46) при μ3< 0 (&!>()) ρ (*) = г-г- (*2—x)h> — °ο <x^bi9 h <— 1. (1.5.47) 90
Кривые распределения при μ3> Ο являются гиперболами порядка и = —£(или n = —h для μ3<0)> начинающимися g конечного значения в точке χ = Ьх и монотонно убывающими до нуля при х _^ оо (я ->— оо). На диаграмме рио. 1.14 XI типу соответствует кривая, являющаяся продолжением кривой для типа XI внутри области типа VI. XII тип. Он представляет собой частный случай J-образного бэта- распределения, когда в выражениях (6) и (7) d = 0 или в (17) и (18) d! = 0. При этом формулы для определения величин а, Ь% через моменты неприменимы. Поэтому формулу для распределения записывают с использованием параметров $г и β2: />(*) = . * X 2σ Τ/3+β! Г (m + 1) Г (1—m) v , J (T/3+ 15, +У^1 )+* •Ν ί'1 , , ,_, , . -a(V3 + |J1 + +VpT) <*< aV3TFi-Vpr), (1.5.48) где m = Τ/βι/(3 + βχ), σ = У^. XII типу распределения Пирсона на диаграмме рис. 1.14 соответствует прямая 5 β2 — 6 βχ — 9 = 0, как это следует из (18) при а1 =0. Эта прямая нанесена на диаграме штрихом. Форма кривой распределения не имеет особенностей по сравнению с обычными кривыми J-образного распределения, приведенными на рис. 1.15. Укажем, кстати, что кривыми Пирсона описываются случайные процессы в некоторых физических системах. Разным типам распределений Пирсона можно поставить в соответствие стохастические дифференциальные уравнения, описывающие поведение систем [17]. Если случайная величина ξ изменяется от нуля до единицы и если она имеет математическое ожидание т1 и второй начальный момент тъ то бета-распределение имеет вид PW^FT^^"1 О-*)*-1, (1.5.49) Г (μι) Ι (μ2) где μχ , μ2 = . Щ~т\ m2—ml ГЛАВА 2 СЛУЧАЙНЫЕ ПРОЦЕССЫ 2.1. ОБЩИЕ ОПРЕДЕЛЕНИЯ, МЕТОДЫ ОПИСАНИЯ И КЛАССИФИКАЦИЯ Общие определения На практике приходится часто встречаться с такими случайными величинами, которые зависят от времени (или каких-нибудь других аргументов) и поэтому в процессе одного наблюдения (эксперимента) изменяются случайным образом с течением времени. Можно привести 91
следующие конкретные примеры: осциллограммы напряжения собственных шумов радиоприемного устройства, атмосферных, индустриальных и других помех; амплитуда и фаза принимаемого радиосигнала, прошедшего через турбулентную среду, обусловливающую замирания сигнала; ошибка сопровождения самолета по дальности радиодальномером; колебания давления, температуры, ьлажности и скорости ветра в какой-либо точке атмосферы; колебания почвы, зарегистрированные сейсмографом и др. Во всех подобных случаях говорят о случайном процессе. Случайный процесо характеризуется тем, что какая-либо физическая величина изменяется в некотором пространстве, причем это изменение управляется вероятностными законами. Конкретный вид случайного процесса (т. е. его фактическая запись, например, в виде фотографии или осциллограммы) в определенном опыте называется реализацией случайного процесса. В качестве синонимов употребляются также термины «траектория случайного процесса? и «выборочная функция». Для формального обозначения зависимости случайного процесса (наблюдаемой величины) от аргументов применяются случайные функции. Будем обозначать случайные функции буквами греческого алфавита с указанием в скобках аргумента, а их реализации малыми буквами латинского алфавита. Случайной функцией ξ (t) называется такая функция, которая при любом фиксированном значении аргумента является случайной величиной. Это означает, что при неизменных условиях опыта значения ξ (t)f t = const, в реализациях*, полученных для нескольких полностью идентичных систем, будут различными. В этом состоит существенное отличие случайной функции от детерминированной, значение которой однозначно определяется значениями аргументов. Очевидно, что если физические причины случайного характера, порождающие рассматриваемый случайный процесс, отсутствуют полностью, что в действительности никогда не имеет места, то случайная функция переходит в детерминированную. Случайная функция может зависеть не от одного, а от нескольких аргументов (например, скорость ветра зависит от времени и пространственных координат). При записи случайной функции обычно указывается область ее задания, т. е. область возможного изменения аргументов. В радиотехнике наиболее часто приходится оперировать со случайными процессами | (ί), зависящими от одного аргумента — времени. При этом под случайным (стохастическим, вероятностным) процессом обычно понимается электрическая величина (ток, напряжение, напряженность поля и др.), изменяющаяся случайно во времени. Однако наряду со случайными процессами ξ (t) возникает необходимость рассмотрения случайных функций нескольких переменных, получивших название случайных полей или многомерных сигналов. В качестве переменных при этом выступают координаты пространства и время. *Реализации ξ (t), фактически полученные в результате наблюдения, являются обычными, а не случайными функциями. 92
В зависимости от того, какая случайная функция рассматривается (скалярная или векторная), различают скалярные и векторные случайные поля. Количество переменных в принципе может быть любым, однако на практике наиболее интересными оказываются случаи с двумя, тремя и четырьмя переменными. Естественно, что пространство задания случайной функции может представляться в любой системе координат. Введем следующую классификацию: 1) скалярный случайный процесс | (/) —случайный процесс, область значений которого есть множество в пространстве действительных чисел; 2) векторный случайный процесс l(t) — случайный процесс, область значений которого есть множество в соответствующем координатном пространстве; 3) скалярное случайное поле i (r, f) — случайный процесс, область значений которого есть множество из действительных чисел в соответствующем координатном пространстве; 4) векторное случайное поле ξ (г, ί) — случайный процесс, представимый в виде компонент, являющихся скалярными полями. Здесь под вектором г понимается n-мерный вектор со своими проекциями в, избранной системе координат. Например, если выбрана прямоугольная система координат, то ξ (г, /) = ξ (χ, yf ζ, i), для полярной системы координат ξ (г, t) = ξ (ρ, φ, t). Так как в случае векторного поля и функция, и аргумент являются векторами со своими компонентами, то большое значение имеет выбор системы координат. Векторы | и г могут рассматриваться в единой системе координат или в разных. Переход яз одной системы координат в другую осуществляется по известным правилам линейной алгебры. Пусть, например, имеется векторное поле 1 (г), не зависящее от времени. Предположим, что вектор ξ задан в системе координат х% у, ζ, а вектор г в еиетеме xl9 yLf zx+ Тогда можно записать ! (г) = ί Ъх (*ι, уъ *ι)> Ъу (*ь Уи *i), lz (*it Уи Zi)b Видно, что векторное поле представимо в виде компонент, которые являются скалярными полями. Случайные процессы (и соответствующие случайные функции ξ (t)) можно классифицировать по разным признакам: 1) по характеру реализаций χ (t), т. е. в зависимости от возможных значений, принимаемых случайной функцией ξ (t) и аргументом t; 2) по виду введенных ниже отдельных вероятностных характеристик, которыми описывается случайный процесс. Приведем здесь классификацию по первому признаку (классификация по второму признаку будет дана позже, где вводятся соответствующие вероятностные характеристики—см. рис. 2.5). В зависимости от того, непрерывное или дискретное множество значений принимают случайная величина l(t) и ее параметр t9 различают следующие пять основных видов случайных процессов. Дискретная случайная последовательность (дискретный процесс α дискретным временем) — случайный процесс, у которого область значений и область определения — дискретные множества. В данном случае время t пробегает дискретный ряд значений t0f tlt ..., tit ..., ϊμ9 и случайная величина х% = \ (ti) может принимать лишь дивкретное 9S
множество значений х0, хи ..., xh> ..., *κ· Множества значений {tt} и {xk} могут быть конечными или бесконечными; в последнем случае Μ -* оо, К -* оо. Процессы такого вида непосредственно встречаются на практике (случайное подбрасывание монеты, радиотелеграфия, радиолокация и др.), а также могут быть получены квантованием по уровню и по времени непрерывно изменяющихся процессов с непрерывным временем. Такое квантование часто применяется при машинной обработке различной информации. Случайная последовательность (непрерывный процесс с дискретным временем) — случайный процесс, у которого область значений — непрерывное множество, а область определения — дискретное. Такой про- процесс отличается от процесса первого вида лишь тем, что теперь случайная величина !(**)> i = 1, 2,..., М9 может принимать бесконечное число значений. В качестве примера можно указать временное выборки из непрерывного случайного процесса. Дискретный (разрывный) случайный процесс (дискретный процесс с непрерывным временем) — случайный процесс, у которого область значений — дискретное, а область определения — непрерывное множество. В этом случае l(t) может принимать дискретные значения xkf k = 1, 2,..., К у а время t — континуум значений: t£ (О, Т), где Т — длина временного интервала, на котором задан процесс ξ (/)· Примерами могут служить показания счетчика числа случайно появляющихся частиц, результат квантования непрерывного случайного процесса только по уровню и др. Непрерывнозначный случайный процесс — случайный процесс, область значений и область определения которого — непрерывные множества. В данном случае ξ (/) принимает значения из некоторого непрерывного пространства и аргумент t изменяется также непрерывно, причем реализации процесса могут иметь разрывы первого рода. Если подобные скачки отсутствуют, то такой процесс называется непрерывным. Процесс называется комплексным, если он принимает комплес- ные значения. Случайный точечный процесс (поток) представляет собой последовательность точек, расположенных случайным образом, например, на оси времени. Такие точки могут соответствовать различным событиям (например, моментам времени наступления отказов в какой-либо системе или аппаратуре, временам поступления требований или заявок на обслуживание и др.). Характер временных реализаций перечисленных процессов показан на рис. 2.1. Помимо пяти основных видов возможны разнообразные, более сложные, смешанные виды случайных процессов. Например, при рассмотрении радиосигналов с разными видами комбинированной модуляции часто приходится встречаться со случайными процессами вида ξ (/)= = F (t, λχ (t), λ2 (/)), где F — детерминированная функция первого аргумента t и параметров λ1 (t) и λ2 (t), представляющих собой случайные процессы. Если один из параметров, допустим λχ (/), является дискретным случайным процессом, а другой λ2(/)—непрерывнозначным случайным процессом, то результирующий процесс £(/) можно на- 94
ξ(ϋι #2 Х1 — ξ») />. tn tt to ti t to t/ ΪΖ _ * #i ^2 7 Дискретная Случайная последовательность последовательность Дискретный процесс Непрерывный процесс to r\f~\J t t(j tf tz ft' f Непрерыбнознашш процесс Точечный процесс Рис. 2.1. Основные виды случайных процессов звать случайным процессом (сигналом) дискретно-непрерывного или смешанного вида. В том частном влучае, когда ξ (t) => F (t9 λχ, λ2), т. е. параметры λχ и λ2 не зависят от времени, а являются случайными величинами, процесс ξ (/) называется квазидетерминированным. В общем случае это процесс, реализации которого описываются функциями времени заданного вида F (/, λχ, λ2,..Μ λη), содержащими один или несколько случайных параметров λ = {λχ, λ2, ..., λΛ}, не зависящих от времени. Классификация случайных полей является более разнообразной в зависимости от разных комбинаций характера областей значений, принимаемых как компонентами самого поля ξ, так и компонентами вектора г и времени L Описание случайных процессов и полей Так как случайный процесс ξ (/) или скалярное случайное поле ξ (дс, у) при фиксированных значениях аргументов представляют еобой случайные величины, то для их описания (задания) применяются те же вероятностные характеристики, что для случайных величин, а именно: плотности вероятности (законы распределения), функции распределе- 95
a%) №tu ι 1 /Ν / > У ι /\Λ\Λ· WVfV-' ^ ния вероятностей, характеристические функции, момент- ные и корреляционные (куму- лянтные) функции. Напомним их определения (см. § 1.2, 1.3), связи между ними и основные свойства. Функция распределения и плотность вероятности. Допустим, что имеется большое число N полностью одинаковых систем (рив. 2.2), образующих некоторый «ансамбль». Пусть все системы работают одновременно при одинаковых условиях. На выходе этих систем наблюдается- процесс ξ (t). Если к каждой системе подключить одинаковые регистрирующие приборы (например, осциллографы) и на всех приборах в один ' и тот же момент времени tx отсчитать мгновенные значения, то получим отличающиеся друг от друга величины х<1) (tx)t #(?) (tt)t ..., x(N) (t±). Выделим из общего числа N те пх (хх\ tx) величин, значения которых в момент времени tt меньше или равны заданному числу хг. При достаточно большом N относительная доля nL (хг; tx)lN величин (систем), удовлетворяющих этому условию, будет обладать статистической устойчивостью (группируется около постоянного числа) и может рассматриваться как вероятность того, что при ί = ίχ случайная функция ξ (t) находится ниже уровня хг: Ρ {I (к) <Xi} = F (Χύ tt) ~ пг (xu tJ/N9 Ν -> οο. (2.1.1) Функция F (x1; tt) есть одномерная функция распределения вероятности. Слово «одномерная» подчеркивает тот факт, что рассматриваются значения случайной функции в один, фиксированный момент времени*. Производная от функции распределения вероятностей Рис. 2.2. Ансамбль идентичных систем Ρ (*ι; k) = — F (хг; tx)f (2.1.2) если она существует, есть одномерная плотность вероятности случайной функции (процесса). Безразмерная величина ρ (хг; tt) άχλ равна вероятности того, что случайная величина \ (tx) будет заключена в интервале хг < ξ (tt) < χγ + άχλ\ ρ (xt; tj dxx = Ρ {χχ < I (tL) < xt + dxx}. (2.1.3) *Из (1) следует, что функция распределения вероятностей случайной вели* чины | = | (ίχ) зависит от аргумента t\ как от параметра. В записи это отражено тем, что основной аргумент хх отделен от параметра t± точкой с запятой* 96
Правую часть этого равенства можно интерпретировать как относительную долю систем Дяг (хг; tx)IN, отсчеты которых в момент времени tx попадают в горизонтальное окно [хъ хх +dxx). Одномерная плотность вероятности, как и функция распределения, является важной, но не полной характеристикой случайного процесса. Она дает представление о процессе лишь в отдельные, фиксированные моменты времени, не указывая, например, как значения ξ (tx) в момент времени tx влияют на дальнейшее поведение процесса при t2 ;> > tv Можно сказать, что одномерная плотность вероятности характеризует процесс «статически» и не дает представления о динамике его развития. Более полными характеристиками случайного процесса являются двумерная функция распределения вероятности и двумерная плотность вероятности, которые характеризуют вероятностную связь между значениями процесса в два произвольных момента времени tx и t2. Двумерная функция распределения вероятности и двумерная плотность вероятности определяются так. Возьмем два момента времени tx и t%. Пусть значения процесса на выходе систем в эти два момента времени есть *(l) (hi x(2) Vi),..., *(N) (d) и *<»> (У, х<2> (У,..., *<n> (t2). Подсчитаем относительную долю систем п2 (хъ х2; tu t2) I Nf отсчеты которых в момент времени tx не превышают хх и в момент времени t2 не превышают х2. Тогда для достаточно большого числа систем N функция F2 (*!, х2; *i. t2) = Р{1 (tx) < хх; ξ (t2) < x2) ^ n% (xu x2; tl9 t2)IN (2.1.4) называется двумерной функцией распределения вероятности. Производная от этой функции . р2 (хь х2\ /Л, 4) = ——-—г2 (Хъ #2э tx% t2), (2Л .5) называется двумерной плотностью вероятности· Безразмерная величина р2 (хи х2; tu t2) dxx dx2 определяет вероятность совместного выполнения двух неравенств: Ч < \ (h) <xx+dxx и х2 < ξ (ί2) < х2 + dx2> т. е. р2 (хъ х2; tlf t2) dxx dx2 = Ρ {χχ < ξ (tx) < xx + dxu x2 < ξ (t2) < x2 + + dx2y (2.1.6) Здесь правая часть при больших N представляет собой относительную долю систем Δη2 (хи х2; tu t2) / Ν, отсчеты которых в момент времени tx попадают в горизонтальное окно |xlf xx + dxx) и в момент времени t2 — в окно \хъ х2 + dx2). В общем случае двумерная функция распределения или плотность вероятности также не дают исчерпывающего описания случайного процесса. Они позволяют судить о связи между вероятными значениями случайного процесса лишь в два момента времени. Более полное и де- 4 Зак. 956 ' 9V
тальное описание случайного процесса дается многомерными плотно- стями вероятности (функциями распределения). Плотность вероятности рп (хи #2>·"» χη\ k* U, ···> tn)> называемая я-мерной, определяет вероятность того, что значения случайного процесса ξ (t) в η моментов времени tlt t29 ..., tn заключены соответственно в малых полуинтервалах [хъ хЛ + d*0,..., [хп> *п + dxn)\ эта вероятность равна рп (хи ..., Хп\ tx, ···» *п) dXi... dxn. Плотность вероятности рп (хъ..., хп\ tlt..., tn) позволяет судить о связи между вероятными значениями процесса в η произвольных моментов времени. Таким образом, случайный процесс в общем случае описывается с помощью я-мерной плотности вероятности (функции распределения) и тем детальнее, чем больше я. Два случайных процесса, у которых все конечномерные функции распределения совпадают, называются жви- валентными. Из приведенных определений следует, что плотности вероятности Рп (Хь ···» χη\ tu ···» tn) и функции распределения вероятностей Fn \хъ ·-·» χη\ t\> ···» tn) случайного процесса ξ (t) (не считая небольшой разницы в обозначениях) полностью аналогичны совместным плотностям вероятности рп (хъ ..., хп) и функциям распределения вероятностей Fn(xu ...,#„) совокупности η случайных величин |ь..., ξπ. Плотности вероятности рп (xlt ..., хп\ tl9 ..., tn) и функции распределения вероятностей Fn (xlt ..., хп; tly ..., tn) по-прежнему связаны однозначными зависимостями вида (1.2.26) и (1.2.27), причем плотность вероятности случайного процесса рп (хъ ..., хп\ tlt ..., tn) удовлетворяет прежним условиям: 1) неотрицательности (1.2.28), 2) нормировки (1.2.29), 3) симметрии и 4) согласованности (1.2.30). В частности, последнее условие с учетом разницы в обозначениях примет вид оо оо Рт (*1> ··· » Хщ* Ну ··· , 1т)=* ι ... I рп (Xit ... , Xm, Χηι + \ > ... , Xa\ ti,...Jn) dxm+x...dxnt m<Cn. (2.1.7) Однако изучение случайных процессов не сводится к изучению совокупности случайных величин, а имеет некоторые принципиальные особенности. Как следует из (7), интегрируя я-мерную плотность вероятности случайного процесса по «лишним» аргументам, всегда можно найти все другие плотности вероятности меньшей кратности m<zn. Но само наибольшее значение η для случайного процесса ничем не ограничено. По-видимому, исчерпывающим было бы описание случайного процесса одной плотностью вероятности максимального порядка, если бы она существовала. При непрерывном изменении аргумента / такого конечного максимального порядка в общем случае не существует. Здесь можно отметить два частных, но очень важных и наиболее изученных класса случайных процессов, для которых я-мерные плотности вероятности pnt η ^ 3, выражаются через двумерные плотности вероятности р2: это гауссовские (§ 2.5) и марковские (§ 2.6) процессы 98
Часто бывает интересно знать вероятность того, что случайная функция обладает тем или иным свойством (например, l(t)<.h для всех t в некотором интервале или вероятность того, что ξ (t) непрерывна, дифференцируема или интегрируема в этом интервале). События такого рода не определяются конечномерными распределениями процесса Иначе говоря, иногда можно найти два случайных процесса, каждый из которых задан некоторой функцией ξ (/), имеющих одно и то же семейство конечномерных плотностей вероятностей. Пусть | (t) — случайный процесс о известными конечномерными плотностями вероятности. Возникает вопрос, при каких условиях существует такой процесс ξ (/), что ξ (/) и ξ (t) эквивалентны, т. е. Ρ {ξ (t) = f (t)} = 1 для любого фиксированного момента времени < € Т9 и реализации процесса | (/) с вероятностью единица обладают определенными свойствами регулярновти (например, дифференцируе- мости и др.). Если такой процесс ξ (/) существует, то естественно изучать 1 (t) вместо ξ (t), используя получаемое при этом упрощение. Приведем определение одного свойства регулярности, называемое сепарабельностью процесса [18, 19]. По определению сепарабельная функция может быть в известном смысле восстановлена по ее значениям! на некотором счетном, всюду плотном множестве точек. Случайный про-' цесс называется сепарабельным,-если с вероятностью единица его pea-1 лизации обладают указанным свойством. Для сепарабельных процессов вероятности упомянутых множеств однозначно определяются конечномерными распределениями. Дж. Дуб показал [191, что для любого случайного процесса ξ (t) можно найти эквивалентный ему сепарабель- ный процесс ξ (t). Для совместного вероятностного описания двух или нескольких случайных процессов вводят совместные функции распределения и плотности вероятности. Так, для двух процессов ξ (t) и т) (t) их определяют при помощи следующих соотношений: Гп+т \Х\> ··»* ХП9 У и ···» У ml *Ъ ···» ™» *Ь ···♦ *т) =s (2.1.о) = Ρ {Ι (*ι) < *ι, ·... I Vn) < Xn, η (t{) < уг τι (ft,) < ym}, Pn+m (X\, .·. , Xnt Уъ ··· * У ml *1* ··· » *n> t\ » ··· » *m) "Χχ ... UXn άί/χ... dym = = Ρ{Χχ<1 (*i) < Xi + dXb ..., xn < I (tn) < Xn + dXn y± < < η( t\ ) < yi + dyl9 ..9ym < η ( Q < ym + dym}9 (2.1.9) где nt т — целые неотрицательные числа. Два случайных процесса ξ (0 и η (t) называются независимыми, если совокупность значений первого процесса | (ίχ), ..., ξ (tn) не зависит от совокупности значений второго процесса η (t{)9 ..., η (fm) при любых tl9 ..., tn9 t\t ..., fm. Необходимое и достаточное условие независимости процессов состоит в том, что совместная плотность вероятности (9) распадается на произведение плотновтей вероятностей каждого из процессов: 4* 99
Pn-\-m (Χχ> ··· > Xn> Уъ ··· t Ут* *Ь ··· > Ы> *ι > ··· > *m/ — = Pn (*1, ... » *ni *1» ..·; 'n) An (#1> .·· . Ут\ t\ · ... · Q- (2.1.10) Определения функций распределения и плотностей вероятностей распространяются и на случайные поля. Пусть, например, имеется ансамбль реализаций скалярного поля ξ (#, у), полученный для момента времени t = tx (рис. 2.3). Так как в фиксированной точке пространства с координатами хи уг значение функции \ для разных реализаций есть случайная величина, то можно ввести одномерную функцию распределения случайного поля F(L· *ъ Уд = Ρ {δ (*ъ Уг)< ϊι>. (2.1.11) Если необходимо знать поведение и взаимосвязь поля в двух точках пространства (xlf yj и (x2f y2)f то вводится двумерная функция распределения^ представляющая собой вероятность совместного выполнения двух неравенств **2 (bl> Ъ2* ХЪ Уъ %2> У%) == -РШХиУгХЪЛ&г.УгХЫ. (2.1.12) Аналогично определяются 3, 4, ..., я-мерная функция распределения: *П (δΐ> ···» bn> %Ъ Уъ ···» *Л> #/l) == </*)<£»}· - (2-1.13) Я?/ #2, Рис. 2.3. Ансамбль реализаций скалярного поля Видно, что функции распределения случайных скалярных полей определяются так же, как и соответствующие функции случайных процессов. Отличие состоит лишь в том, что задание величин ξχ, ..., ξη производится на плоскости, а не на прямой. В случае трехмерного поля | (χ, у, ζ) величины |ь ..., ξΛ задаются в трехмерном объеме. Если в формулах (11) — (13) функции F имеют частные производные по ξ, то можно определить соответствующие плотности вероятности: Ρ (Ь) - 0J7 (Ь; *ъ Уг)1д1ъ (2,1.14) Рг (Ь. St) = Wi (Ь· S2; *ь № ** у№Ш%. (2.1.15) Αι (ξι,-, L) = 3"Fn (ξχ,..., ξΛ; л^; уг;...; хп, УпУдЪь ... <?ξΛ. (2.1.16) 100
Конечно, плотности вероятности рп зависят и от координат (хъ ух\...\ хп>Уп)- Однако для сокращения записи они опущены. Плотности вероятности случайных полей удовлетворяют четырем указанным выше условиям. Для случайных процессов и полей можно ввести условные плотное· та вероятности. Так, например, случайное значение процесса ξ (к) при известном значении его в другой момент времени ξ (t2) = х2 описывается условной плотностью вероятности Ρ (*ιί к I x2\ t2) = p2 (xlt x2\ t1% t2)/pt (x2; t2), (2.1.17) где oo Pi(*2> k)= j" Pz (*ь Ч* ti, h) dxx. (2.1.18) f*m CO Условная плотность вероятности ρ (χχ\ tx \ χ2; t2) содержит больше (по крайней мере не меньше) сведений о ξ (к), чем безусловная плотность вероятности рх (ху9 к)» Насколько именно увеличилась информация о ξ (к) в результате того, что стало известным значение | (/2)= х%9 зависит от конкрегных условий. В некоторых случаях информация о ξ (tx) вообще не прибавляется, каким бы не оказалось значение х2. Это значит, что Ρ (*и к I x2; t2) = ρ (χ,; tx\ (2.1.19) при этом р2 (xlt х2; tu t2) = ρ (xu к) ρ (χ2; t2). (2.1.2Q) Эта формула выражает необходимое и достаточное условие незавиои· мости значений случайного процесса ξ (ί) в два момента времени к и t2. Для физически реальных процессов, наблюдаемых в системах g конечной «памятью», равенства (19) и (20) выполняются в пределе при \ к — *i I -*· °° почти всегда. В другом противоположном крайнем случае, когда разность (t2 — — к) -*- 0, физически очевидно, что для непрерывнозначных процессов lim ρ (хс к [ х2\ t2) = δ (χλ —χ2) и, вледовательно, р2 (хи Х£ tlt tt) = рх (х2, к) δ (хг — х2)9 (2.1.21) где δ (χ) — дельта-функция (1-1). Между этими двумя крайними случаями возможно большое число промежуточных случаев. Формулы (17) —(21) легко можно обобщить на различные многомерные условные плотности вероятности, которые по «левым» переменным должны удовлетворять обычным четырем условиям. Характеристическая функция. Вместо плотностей вероятностей для описания случайного процесса можно указать характеристическую функцию Фп 0 *ι. ··.. J *»; к,..., tn) = Μ {exp (j *! lx +... + j Фй ξ J} = oo oo = J ... J exp [j (Ол+ ... + #„*„)] x — oo *— oo Xpn (*i> ».. X™ k, .··. tn) dxi... dxn, lt = g (lt). (2.1.22) 101
Напомним, что между функцией распределения, плотностью вероятности и характеристической функцией существует однозначная связь (1.2.38). Моменгные и корреляционные (кумулянтные) функции. В качестве характеристик случайных процессов и полей, более простых, чем плотности вероятности, можно использовать моментные и корреляционные (кумулянтные) функции. При этом различают начальные и центральные моментные функции. Под начальными моментными функциями случайного процесса ξ (/), заданного на некотором интервале, понимают функции /nVl (/), ^vjv2 (^» ^)» ···> mviv2...vn {t\y t2f .·., tn), симметричные относительно всех своих аргументов, являющиеся математическими ожиданиями соответствующих произведений: /Ην, (ί) = Μ {ξν, (/)} = Γ χνι ρ (χ; t) dX, /ην,ν2.(/ΐ,ω = Μ{ξ^(ω^(ω}- = ^ *ϊι *l2 p2 (Хъ Хъ k> t2) dxx dx29 (2.123) Wv, v,..vn (/ь U U = Μ { Γ ft) ξν. (/2) ... lVn (tn)) ^ = J - J x\x x\* ... xvnn ρη (xl9 ..., xn; tlt..., ίη) άχχ ... dxn, где Vj (1 < i ^ η) — неотрицательные целые числа. Момент m*iV2...vn (h> ^2»···» tn)> зависящий от п несовпадающих аргументов tu t2 ,..., tn9 называется я-мерным моментом (vx + v2 + ... + vn)-ro порядка. Вместо начальных моментов можно рассматривать центральные моменты, которые определяются формулой 14 ν,... vn (tlf /*... tn) =-- Μ [\Ш ~тх (tjr ... [ξ (tn) -mx (tn)fn } = = i -J [*ι—/«ι(Ί)Γ ... k-^y^ χ X Pn (X\> ·.·> Xn\ k tn) dXi ... dxn. (2.1.24) Если соответствующие моментные функции существуют, то их можно определить путем разложения характеристической функции в ряд Маклорена. Разлагая экспоненту в правой части (22) в ряд Маклорена и беря затем математическое ожидание от каждого члена, получаем Фп (j К .... J К; h tn) = м /ι + j 2 t о* + + -L}* 2 ξμξν^μ^ν + ·..] = μ, ν»! j = 1+J"2 m* (*»)*» +γ? 2 /ηιι(/^ίν)θμθν+..., (2.1.25) μ=1 μ, ν=1 102.
где = ϋ)νι+ν2",-ν^νιν2...νη(ί1,..., tn). (2.1.26) Применительно к одномерному случаю формулы (25) и (26) принимают соответственно вид Φι (JO; 0—1+2 Wv!° <j0)v· ^τ φ* <Jd;') l*-° = iv mv <'>· WV (2.1.27) Если интересующие нас моменты существуют, то формула (26) дает простой способ вычисления их путем дифференцирования характеристической функции. При указанном условии справедливо и обратное, а именно, по моментам можно восстановить характеристическую функцию согласно (25). Перейдем к определению корреляционных (кумулянтных) функций. Корреляционные функции Rx(t), /?2(^i> '2)» R%hu t** '*)» ···> подобно кумулянтам, определяются разложением в ряд Маклорена не самой характеристической функции, а ее логарифма. Для многомерного случая формула, аналогичная (1.3.56), имеет вид Фп 0*1. - i №n> tlf..., ln) = exp j 2 Ri (tn) *α + 31 ι. ν = 1 μ, ν, λ—1 (2.1.28) При ti = t% = ... = tn = t, η = Ι эта формула должна совпадать о (1.3.49). Из (28) получаем f ^2 (*i, k)= d* In Ф2 (jf>lf jOa; /1э /Jk.^.0. (2.1.29) Чтобы получить выражение моментных функций через корреляционные и наоборот, нужно каждый из экспоненциальных сомножителей в (28) разложить в ряд Маклорена, перемножить эти ряды, сгруппиро- 103
вать члены и затем сравнить результат с формулой (25). Не приводя здесь громоздких формальных разложений, запишем окончательные формулы, устанавливающие однозначную связь моментных и корреляционных функций: Щ (0 = /?!(*), /я„(/ь tt) = Я, (/lf /,) + Rx «О/?! (ί2). %1 (*1, Ι. ^) = /?8 (*1, <» <·) + Wl i'l) /?1 (*2, ίβ) + (2Л.30) + #l('2) /?« (tU <β) + RlVs) /?2 du Q\ + Rl (k) Rl (*,) Rl (t*),... Нетрудно проверить, что при tx = /2 = h = ^эти формулы совпадают с (1.3.52). Разрешая последовательно уравнения (30) относительно корреляционных функций, можно получить выражения корреляционных функций через моментные. Итак, моментные функции однозначно выражаются через корреляционные. При определенных условиях по моментным или корреляционным (кумулянтным) функциям можно восстановить характеристическую функцию и, следовательно, плотность вероятности (см. рис. 1.9). Поэтому моментные функции так же, как и корреляционные, могут быть использованы для описания случайных процессов. Поскольку моментные и корреляционные функции определяются^- как коэффициенты разложения в ряд Маклорена характеристическби функции или ее логарифма, то естественно, что первые коэффициенты соответствующих разложений являются наиболее важными и существенными (см. с. 59). В дальнейшем особую роль будут играть математическое ооюидание процесса 00 mi(/) = m1(0 = M {6(/)}=» f xp(x;t)dx, (2.1.31) а также начальный момент тп (tl9 /2)> называемый ковариационной функцией случайного процесса, Κι (/ь h)=mn (th /г) = М {ξ (/г) ξ (t2)} = оо оо = Г f хг х2 ρ (xL, x2\ h, t2) dxl dx2 (2.1.32) .00 —00 и центральный момент μα (tu t%) = R2 (tlf t2), называемый корреляционной функцией случайного процесса *, Ri du 4) = μιι(/ι, 4)=м {[| м-щ (/οι [Ε ft)-ms W) = 00 00 = ί J ^1—т*^ 1*а —тб('а)] Μ*υ x* h* t2)dxxdx2. (2.1.33) *Отметим, чго в иностранной литературе обычно используется обратная терминология: Къ (/j, t2) называется автокорреляционной функцией случайного процесса, a R^ (ti, t2) — автоковариационной функцией случайного процесса. 104
Из (32) и (33) следует связь между ковариационной и корреляционной функциями случайного процесса: Κι (tlf h) = Rt (iv t2) Η- тг (tx) ml (/2). (2.1.34) Раздел теории, посвященный изучению лишь тех свойств случайных процессов, которые определяются этими характеристиками, называется корреляционной теорией. Корреляционная теория дает полное описание очень важного класса случайных процессов, называемых гауссовскими (см. § 2.5). Отправляясь от совместных и условных плотностей вероятностей типа (9) и (17), можно ввести совместные и условные моментные и ко- реляционные функции. Они определяются формулами, аналогичными (23), (24) и (28), только теперь нужно оперировать соответственно с совместными и условными плотностями вероятности и условными характеристическими функциями. Для случайного поля ξ (г) моментные функции4' определяются как интегралы от произведений значений поля ξ,, ..., \п в заданных точках пространства на соответствующую плотность вероятности. Например, математическое ожидание равно оо Щ (Γι) = Щ (гх) = j ξχ ρ (Ь; rx) d Σχ. (2.1.35) — oo Применительно к двумерному полю ξ (χ, у) это выражение примет вид оо т% fa, уд = Μ {i (xlt уг\ = j Si (Χι, уд Ρ (Ιι, Χι! Уд dlv (2.1.36) — оо Одномерный центральный момент второго порядка равен £|(Γι)=.μ2(Γχ)= ] Ih-miirdfpd^rddlb (2.1.37) — оо а для двумерного поля ξ (χ, у) оо μ2 (Χι, Уд = j Hi — /"ι (*ι. Уд? Ρ (lb Χι, Уд dli- (2.1.38) — оо Корреляционная функция случайного поля R% (гь г2) определяется как двумерный центральный момент второго порядка, т. е. оо оо Rt (Γι. Гг) = μιι (Γι, Гг)«= j" J & (h)—тг ft)] [ξ2 (rj — — OO ι— ΟΟ - тг (г2)] Λ (ξχ, ξ2; rlf r2) db </ξ2. (2β 1.39) Для двумерного поля I (χ, у) корреляционная функция может быть записана в виде оо оо #ξ (Χι, ί/ι". Хъ Уд = J j [ξι (Χι Уд— Щ (χι> Уд] [It (*t. Уд— —>ио — оо I 105
—m1 (x2, y2)] p2 (ξι, ξ2; Χι, Ул< Х2* У*) d%x d%2- (2·1 -40) Формулы (35) — (40) имеют две особенности. Во-первых, интегрирование везде ведется по значениям поля в данных точках пространства, что эквивалентно вероятностному осреднению (т. е. осреднению по ансамблю реализаций поля). Во -вторых, математическое ожидание поля и его корреляционная функция в общем случае зависят от координат пространства. Это значит, что если производить вероятностное осреднение в нескольких точках пространства, то могут получиться различные значения моментов. Однако существует обширный класс полей, для которых моменты не зависят от координат пространства. Такие поля получили название однородных. Классификация процессов и полей Основываясь на введенных характеристиках случайных процессов и полей, можно провести их дальнейшую классификацию. Приведем основные определения, связанные с классификацией. Нестационарные и стационарные процессы и поля. Важным классом случайных процессов являются стационарные случайные процессы. Случайный процесс ξ (/) называется стационарным в узком смысле, если все конечномерные функции распределения вероятностей любого порядка инвариантны относительно сдвига по времени*, т. е. при любых η и t0 справедливо равенство * и иа> ···> %п ti* *ο>···> *п *о) === *п \Хъ ..., ΧγιΊ *ъ "·> *п)· (2.1.41) Зто означает, что два процесса ξ (/) и Ε (t — /0) имеют одинаковые вероятностные характеристики при любом /0. Случайные процессы, не удовлетворяющие этому условию, называются нестационарными в узком смысле. Разумеется, что аналогичное равенство должно выполняться для плотностей вероятностей Рп (*i,..., Xn\ h — /0,..., tn — t0) = рп (хъ ..., хп\ tl9 ..., tn), (2.1.42) а также для характеристических, моментных и корреляционных функций. Стационарный в узком смысле случайный процесс, в отличие от нестационарного, ведет себя однородно (однообразно) во времени (рис. 2.4). Стационарные случайные процессы аналогично установившимся детерминированным процессам получаются в установившемся режиме работы системы при неизменных внешних условиях. Стационарные процессы являются частным случаем более широкого класса нестационарных процессов. Примером может быть любой случайный процесс в переходном режиме работы системы (например, случайный процесс на выходе инерционной системы в начальный период при воз- *В литературе такие случайные процессы часто называют стационарными в строгом смысле. 106
действии на вход системы даже стационарного.случайного сигнала). В некоторых простых случаях нестационарный процесс можно преобразовать в стационарный. Например, если непосредственному наблюдению доступны нестационарные процессы η (0 = I (0 + f (t) или η (0-/(06(0 + fi (0. где ξ (t) — стационарный процесс; / (0 и Д (t) — некоторые детерминированные функции, то они очевидным образом сводятся к стационарному процессу ξ (t). Однако если нестационарный процесс r\ (t) задан выражением типа η(0=ί Λ(/,τ)ξ(τ)Λ, lHt Рис. 2.4. Характер реализаций нестационарного (а) и стационарного (б) процессов где h (t, τ) — некоторая детерминированная функция, то сведение нестационарного процесса к стационарному в общем случае невозможно. Понятие стационарности в узком смысле обобщается на два и несколько случайных процессов. Два случайных процесса ξ (t) и η (t) называются совместно стационарно связанными в узком смысле, если их совместные функции распределения вероятностей любого порядка инвариантны относительно сдвига по времени: = Γξη (Χι,..., хт\ Ух,..., уп\ ίχ i0,..., tm ί0; ix ί0,... ,ίΛ £0). (2.1.43) Отметим, что если каждый из процессов ξ (/) и η (t) является стационарным, то отсюда вовсе не следует, что они будут стационарно связанными в узком смысле. Из определения стационарности (42), в частности, следует р (*; h) = ρ (*; U—ti) = Ρι (χ), p2 (Χχ9 Χω /χ, 1%) = Ръ (*i> хъ *\— *\i *%— *i)== = P2 (^2; *2*> τ)» T = ^2—^1» (2.1.44) Таким образом, для стационарного в узком смысле случайного процесса я-мерная плотность вероятности, я-мерные моменты и корреляционные функции зависят не от п, а от η — 1 моментов времени, так как один из выбранных моментов времени можно всегда принять за начало отсчета времени (например, положить ίΛ = 0). Из первой формулы (44) видно, что одномерная плотность вероятно- 107
сти стационарного в узком смысле случайного процесса вообще не зависит от времени. Поэтому одномерная плотность вероятности и одномерные моменты не учитывают временнйх характеристик стационарного процесса: процесс, протекающий в ν раз быстрее или медленнее, будет иметь одну и ту же одномерную плотность вероятности. Грубо говоря, описание случайного процесса с помощью одномерной плотности вероятности подобно указанию амплитуды гармонического колебания A cos (ωί + φ) без задания его частоты. Отсюда ясно, что описание процесса с помощью одномерной плотности вероятности является неполным. Математическое ожидание (среднее значение) стационарного в узком смысле случайного процесса не зависит от времени: 00 щ =Μ{ξ(0}= f xpi(x)dx. (2.1.45) »оо Ковариационная К\ (ttt t2) и корреляционная /?g (tu t2) функции зависят лишь от разности аргументов τ = t2 — tu причем Rl (τ)= Μ {[ξ (i)~ml ] [ξ (/ + т)-/и* ]} = 00 00 = f Ι (Xl — Щ ) (*2— Щ ) Ρ2 (*1> Ч\ τ) ΛΧ\ 0X2 = •-00 — οο = Μ {ξ (/) I (f + τ)}—/η*«#ξ (τ)—ml (2.1.46) Дисперсия стационарного процесса οο Ζ)ξ=σ| = Μ{[ξ(0-/ηξ]2} = /?έ(0)= j (x'-ml)*pl(x)dx = — οο = Μ{ξ2(0} — rn\ (2.1.47) постоянна и равна значению корреляционной функции при нулевом значении аргумента. При решении некоторых практических задач (в рамках корреляционной теории) многомерные плотности вероятности не рассматривают, а оперируют только с математическими ожиданиями и ковариационной (корреляционной) функцией. В связи с этим введено понятие стационарности в широком смысле. Случайный процесс ξ (t) с конечной дисперсией называется стационарным в широком смысле, если его математическое ожидание и ковариационная функция инварианты относительно сдвига по времени, т. е. математическое ожидание постоянно (не зависит от времени), а ковариационная функция зависит только от разности аргументов t2— - fc тг = const, Kt (tu k) = Κι (t2 — k)- (2.1.48) Отметим, что сумма двух нестационарных процессов может оказаться стационарным процессом. Пусть Ах0) и A2(t) — независимые стационарные в широком смысле случайные процессы о нулевыми математическими ожиданиями и одинаковыми корреляционными функция- 108
ми. Тогда случайные процессы 1г (ί) = ^ι (Ο cos ω0 i и ξ2 (0 = ^2 (Ox Xsin ω0ί, где ω0—постоянная частота, нестационарны. Тем не менее суммарный процесс ξ (ί) = ξχ (<) + ξ2 (0 будет стационарным в широком смысле. На основании формул (45) и (46) заключаем, что случайные процессы, стационарные в узком смысле, всегда стационарны и в широком смысле. Однако обратное утверждение в общем случае неверно. В этом можно убедиться, вычислив, например, третий начальный момент Μ {ξ3 (0) Для следующего стационарного в широком смысле случайного процесса: l(t) = Аг cos ω0ί + А 2 sin ω0/, где ω0 — постоянная величина, а Ах и Л2 — независимые случайные величины, каждая из которых принимает лишь два значения: — 1 и +2 с вероятностями 2/3 и 1/3 соответственно. Для гауссовских стационарных процессов, плотности вероятности которых полностью определяются математическим ожиданием и корреляционной функцией, понятия стационарности в узком и широком смыслах полностью совпадают. Два случайных процесса ξ (t) и η (t) называются стационарно связанными в широком смысле, если их взаимная ковариационная функция инвариантна относительно сдвига по времени: ΚΙΆ (/ь У=М {I (tjn (t2)} = Μ{ξ & - h) n[(tt - h) = ΚΙΆ (τ), τ = tt — ίχ. (2.1.49) Отметим, что если каждый из процессов ξ (t) и η (t) является стационарным в широком смысле, то это вовсе не означает, что они являются стационарно связанными в широком смысле. В этом можно убедиться на частном примере. Пусть ξ (t) = Аг cosco0i + A2sin ω0ί, r\ (t) = Л2 cos ω0ί + Аг sin ω0ί, где ω0 — постоянная величина, а Аг и А2 — независимые случайные величины с нулевыми математическими ожиданиями (π%α1 = ша2 = 0) и одинаковыми дисперсиями (Dax = Da2 = Da)- Помимо указанных двух основных определений стационарности, встречаются и другие понятия стационарности. Случайный процесс ξ (f) называется стационарным порядка kt если равенство (41) или (42) выполняется не для любых я, а только при η ^ k. Ясно, что если (42) справедливо при # = &, то в силу условия согласованности (1.2.30) оно будет также выполняться и при n^k. Случайный процесс ζ (ί) называется асимптотически стационарным в узком смысле, если существует предел lim pn (*i,..., xn; t± + t0f Случайный процесс ξ (t) называется стационарным в узком смысле на конечном интервале, если равенство (42) выполняется для всех вре- меннйх точек этого интервала. Случайный процессе со стационарными в узком смысле приращениями — процесс, у которого приращения, т. е. разность ξ (t + τ) — ξ (/) 109
для каждого фиксированного τ, есть стационарный в узком смысле процесс. Процесс ξ (t) называется периодически стационарным или цикло- стационарным в узком смысле g периодом Т, если равенство (42) выполняется только при t0 = тТу т= 1, 2, ... Это означает, что случайные величины Ε (/), I (t + Τ), „., ξ (f + тГ) имеют одинаковые плотности вероятности. Случайные процессы (последовательности) Нестационарные §1 ^v 1 II PI И III г 1 Ч \стационарнб/е\ S 1 I 1 Дальнейшая классификация по виду корреляционных функций, характеру плоткостеа вероятностей и вру sum признакам Рис. 2.5. Классификация случайных процессов (последовательностей) Можно сформулировать аналогичные определения стационарности в широком смысле. Так, например, случайный процесс ξ (/), у которого приращения ξ (t+τ) — ξ (t) для каждого фиксированного τ есть стационарный в широком смысле процесс, называется случайным процессом со стационарными в широком смысле приращениями. Процесс I (t) является периодически стационарным в широком смысле, если для любых целых чисел k и т выполняются равенства Μ {ξ (/ + kT)} =* Μ {ξ (0} = тг (0, К^Ъ + кТ, *а + тГ) = β*δ(Ί. t2). (2Л .50) Следует иметь в виду, что несмотря на наличие термина «стационарные» три последние группы случайных процессов (стационарные на конечном интервале, со стационарными приращениями и периодически стационарные), вообще говоря, являются нестационарными и поэтому на рис. 2.5 отнесены к нестационарным процессам. К понятию стационарности на конечном интервале обычно прибегают в тех случаях, ког- 110
да реализации нестационарного процесса на достаточно большом интервале времени разбивают на несколько «кусков» меньшей длительности, где процесс ведет себя подобно стационарному, и при обработке интересующих нас отрезков реализаций можно применять более простые правила и приемы, справедливые для стационарных процессов. Позже мы убедимся (с. 499), что для самих процессов со стационарными приращениями условия (42), (48) могут не выполняться. Периодически стационарные процессы можно рассматривать как стационарные лишь при частных значениях временного сдвига t0 = kT; при t0 Φ kT такие процессы являются нестационарными. Случайные процессы перечисленных выше видов будут рассматриваться в дальнейшем. Приведем здесь лишь частные примеры. Пример 2.1.1. Пусть задан случайный процесс η (0= I (0 cos (ω0ί + φ), (2.1.51) где φ — случайная начальная фаза; ξ (/) — не зависящий от φ стационарный в широком смысле процесс. Докажем, что η (/) есть стационарный в широком смысле случайный процесс тогда и только тогда, когда характеристическая фнукция случайной величины φ удовлетворяет равенствам Φ (/) = 0, Φ (2/) = 0. Математическое ожидание рассматриваемого процесса по определению равно тл = Μ {η (t)} = Μ (ξ (ή} [Μ {cos φ) cos α>0/ — Μ {sin φ} sin ω0/]. Чтобы процесс η (/) был стационарным в широком смысле, это выражение не должно зависеть от /. Поскольку по предположению Μ {ξ (t)} = т* = const, то это возможно только в том случае, если коэффициенты при cos ω0 t и sin ω0/ равны нулю: Μ {cos φ} = Μ {sin φ} = 0. Так как характеристическая функция случайной величины φ равна ф (j#) =М {е-^ф} = М {cos #q>} +jM {sin #<p}, то отсюда следует, что Ф (j) = 0. Наоборот, если Φ (j) = 0, то т = 0. Выражение для ковариационной функции имеет вид Кц (τ) = (1/2) Кг (τ) [cos ω0 τ+Μ {cos (2ω01 +ω0 τ +2φ)}]. Раскладывая последнюю косинусную функцию в правой части, получим, что для независимости /С (τ) от времени t должны выполняться равенства Μ {cos 2φ} = 0, Μ {sin 2φ} = 0, т. е. Φ (2j) = 0. Наоборот, если Φ (2j) = 0, то #η (τ) = (1 /2) Кг (τ) cos ω0 τ (2.1.52) не зависят от времени. В частном случае, когда случайная начальная фаза φ распределена равномерно в интервале (—π, π), имеем ·<№--?_(·"·*-*=?· Видно, что равенства Φ (j) = 0 и Φ (2j) = 0 выполняются и, следовательно, процесс η (/) является стационарным в широком смысле. Можно убедиться, что процесс η (/) будет также стационарным и при некоторых других плотностях вероятности случайной начальной фазы, например, когда Ρ (Φ) = (1/2π) (1 + cos βπφ) 111
или ρ (φ) = (1/4) [δ (φ) + δ (φ — η/2) + δ (φ - π) + δ (φ — 3π/2)]. Здесь δ (χ) ~ дельта-функция (см. приложение I). Пример 2.1.2. Случайный процесс имеет вид η (t) *= AQ cos [ωθ* + Ψ (0 + φΐ* (2· 1.53) где AQ и ω0 — постоянные; φ — случайная величина, равномерно распределенная в интервале (—я, π); ψ (ή — не зависящий от φ стационарный в узком смысле случайный процесс. Требуется показать, что процесс ч\ (t) является стационарным в широком смысле. Нетрудно убедиться, что т^ «= Μ {η (ή) = 0. Выражение для ковариационной функции приводится к следующему виду: *η « = MJ/2) Μ {cos [ω0 τ+Ψ («-ψ Λ)]} = = (Λ J/2) Re [exp (]ω0 τ),Μ {exρ J (ψ (/2)-ψ fa))}], где Re (г) — вещественная часть комплексного числа ζ; τ = t2 — tv Заметим, что двумерная характеристическая функция стационарного в узком смысле процесса ψ (ί) зависит только от разности временных аргументов: Ф2 (J*i. J*tl τ> - М <ехР П<М> W + j^«4> V + τ)]}. Из сравнения этого выражения с предыдущим следует, что Μ {exp / [ψ (t2) - ψ ft)]} = Φ2 (-j, ί; τ). Поэтому ^(*)=(^o2/2)Re{exp (jg>0t) Ф2 <—j, j; τ)}. (2.1.54) Следовательно, при сформулированных условиях ковариационная функция /С (τ) действительно зависит только от τ = ί2 — ίΎ и процесс η (/) стационарен в широком смысле. Пример 2.1.3. Задан случайный процесс η (0-= Л cos (<ut+ φ), (2.1.55) где Л0 — постоянная величина, ω и φ —независимые случайные величины, причем φ равномерно распределена в интервале —π < φ < л, а ω имеет плотность вероятности ρ (ω). Покажем, что процесс η (/) стационарен в широком смысле. Математическое ожидание процесса η (/) равно нулю: со Я Μ {η (/)} = (А0/2л) j β>(ω)όω J cos (ω*+φ) </<ρ = 0. — oo .—π Ковариационная функция 1 oo Αη (τ) = Μ {η (/) η (/+τ)} = (A J/2) J ρ (ω) cos ωταω (2.1.56) — οο вависит только от τ и удовлетворяет всем необходимым условиям, которые накладываются на корреляционную функцию стационарного процесса (с. 108). Пример 2.1.4. Докажем, что случайный процесс Ч (0 - ti W cos ω0* + |2 (0 sin ω0/, (2.1.57) где ξι (0 и |2 (0 — два вещественных стационарно связанных в широком смысле случайных процесса, будет стационарным в широком смысле, если выполняются условия Μ {lt (t)) = Μ {ξ2 (/)} = 0, (2.L58) 4 W-*b W. %|2 W = ~% ь W- (2Л,59) 112
При этом ковариационная функция процесса η (/) будет равна Яц (τ) = R^ (τ) cos ω0 τ+R^ ^ (τ) si π ω0 %. (2.1.60) Действительно, из равенств (58) следует независимость [Μ {η (t)} от времени U Далее имеем η (*+ τ)η (/) = [\г (t+τ) cos ω0 (t+ τ) + ξ2 (t+τ) sin ω0 (t+ τ)] Χ Χ [\ι (0 cos ω0/ + ξ2 (0 sin ω0 *]„ Выполнив перемножение, взяв математическое ожидание и применив некоторые тригонометрические преобразования, получим 2М {η (/ -f-τ) η (/)} = \RU (τ) +/?ξβ (τ)] cos ωυ τ+ [tf*8 ξι (τ) -tf^ ^ (τ)] sin ω() τ+ + [%(τ)~%(T)]coso)0(2/+T)+[/?^^(T)+/?Eai (τ)] sino0 (2*+τ). . Чтобы это выражение не зависело от /, сомножители в двух последних квадратных скобках должны равняться нулю. Отсюда следуют равенства (59) и затем (60). Отметим, что поскольку R^9 (τ) = Яе t (—τ), то из (59) получаем, что /?t ε Φ) — 0> т* е· случайные процессы |j (/) и ξ2 (/) в совпадающие моменты времени не коррелированы. Однако это не означает, что процессы не коррели- рованы в разные моменты времени. Если бы это было так, т, е. /?* * (τ) = 0 для любого τ, то формула (60) упростилась бы: #η (τ) =Rb (τ) cos ω0 τ. (2.1.61) Если использовать комплексную форму записи процесса η (0 = Ret(/)e-^*', ζ (/) = ξχ (/)+j£2 (0> (2.1.62) то формула (60) примет вид #η (τ)= (1/2) Re^(x) е~'^ \ (2.1.63) где, *:(τ) = Μ {IU Ρ+τ)+ίξ2 (*+τ)] (ξχ (/)~j£2 (*)]}= 2*ξι Ю+1ЩЛ Ь (τ). (2.1.64) Пример 2.1.5. Пусть' ξ (0= *(/+τ0), (2.1.65> где s (t) — периодическая функция с периодом Τ и τ0 — случайная величина, равномерно распределенная в интервале [0, Т]. Докажем, что рассматриваемый процесс стационарен в широком смысле. Математическое ожидание процесса как среднее значение периодической функции за период не зависит от времени: Т Хо+Т 1 Μ у 0 Хо Ковариационная функция процесса равна {Ι (0} = γ· ] « V+Ч) Ίτ0 = — \ s (χ) dx^m^const. То + Г Αξ(«)«Μ{ξ<0ξ«+τ)Ηγ f s(x)s(x+40dx- -tJ Τ s(x)s(x+T)dx. (2.1.66) 113
Последнее равенство написано на том основании, что подынтегральная функция является периодической с периодом 7\ Следовательно, процесс (65) является стационарным в широком смысле. Итак, если начало отсчета периодического процесса случайно и равномерно распределено в интервале периодичности, то такой случайный процесс является стационарным в широком смысле. Предположим теперь, что процесс s (t) периодически стационарен, т. е. совместная плотность вероятности значений процесса Si = s (/), $2 (t + τι)>···» $η = 5 (t + Ttt-i) является периодической функцией «аргумента» t g периодом Т: Рп (slt s2> ··· » sn* *% * "Γ~τ1> ··· > t"\~^n— l) = =*Ρη(8ι> s2· ...,sn; t + T, t + xx + T t + Xn-\ + T). Покажем, что процесс ξ (ί) стационарен в узком смысле. Условная плотность вероятности процесса ξ (/) при фиксированном значении τ0 равна Рп (*1> *2> -., *п\ U t + Xl9 ... , t + Xn-\ |Т0) = = Рп («ι» s2f ... , sn; / + τ0, ( + хг + т0,..., ί + τη-\ +τ0). Поэтому безусловную плотность вероятности находим по известной формуле т _ Рп (xlt #2»···» *п> '» * + τ1>···> ' + τη—l) == I Pn(slf"> sn> 0 * + τ0,..., / + τη-.1 + τ0)/?(τ0)ίίτο== = T S *P*(*b-'s*> Δ>Δ + τι Δ + τηβ1)έίΔ. (2.1.67) Поскольку плотность вероятности /?п — периодическая функция времени с периодом 7, то правая часть этого равенства не будет зависеть от времени tt а будет функцией только разности временных аргументов τχ, τ2, ..., τη_,, что и доказывает стационарность процесса ξ (£). Приведенные определения распространяются на случайные поля. Однородность случайного поля является аналогом стационарности случайных процессов. Случайное поле | (г) называется однородным, если его плотности вероятности любого порядка не меняются при произвольном сдвиге начала координат, т. е. Рп (Ъъ 1п\ Гъ .... гп) = рп (£ь..., 1п; тг — г0,..., гп — г0). (2.1.68) Физически однородность поля указывает на то, что в любой точке пространства г поле ведет себя «в среднем» одинаково. Если равенство (68) не выполняется, то поле является неоднородным, В более общем случае поле определено как функция координат пространства г и времени tf т. е. ξ (г, t). Если учитывать временную зависимость, то к полю применимо понятие стационарности, относящееся к случайным процессам. Случайное поле называется стационарным (во μ 4
времени) в узком смысле, если его плотности вероятности не меняются при изменении начала отсчета времени. Поместив начало отсчета в точки г, и tl9 для одномерных и двумерных плотностей вероятностей однородных и стационарных полей можем написать Ρ (Ιύ Γι; k) = ρ (ξι; Γι - Γι; tx - у = Ρι (1г), (2.1.69) Λ (δι. Ει; гь r%; *ι. t2) = ρ2 (Бь ξ2; Δγ; τ), (2.1.70) где Δγ = r2 — rlf τ = t2 — tx. Из (69) видно, что одномерные плотности вероятности однородных стационарных полей не учитывают пространственных и временных характеристик поля. Это значит, что быстрые и медленные во времени поля растянутые и сжатые в пространстве, могут иметь одну и ту же плотность вероятности. Следовательно, задание случайных полей одномерными плотностями вероятности является неполным и отражает только «амплитудные» характеристики поля, не учитывая при этом временных и пространственных частот поля. Формула (70) говорит о том, что двумерная плотность вероятности однородного и стационарного поля зависит только от разности координат Аг двух точек пространства и от разности времен τ, в которые рассматривается поле. Случайное поле называется однородным в широком смысле, если его математическое ожидание не зависит от координат пространства, а пространственная ковариационная функция Κι (гь г2) является функцией только разности аргументов, т. е. Κξ(Γι, r2) = /Cl(r2-r1)==/Cl(Ar). (2.1.71) Стационарность случайного поля в широком смысле предполагает постоянство математического ожидания поля во времени и зависимость временной ковариационной (корреляционной) функции только от разности τ = t2 — tv Укажем, что если поле однородно в узком смысле, то оно однородно и в широком смысле. Обратное утверждение несправедливо. Однако существует класс полей, а именно гауссовские поля, для которых понятия однородности в широком и узком смыслах совпадают. Для однородных полей вместо (35), (37) и (39) можно написать следующие выражения: математическое ожидание однородного поля Щ- I liPiili)dL· (2.172) дисперсия однородного поля D% = σξ = [ (h-mtf Pl &) dllt (2.1.73) — oo 115
корреляционная функция однородного поля Я| (Аг) - J j (lt- mi) &,-m%) p2 (|lr U Ar) dly d^. (2.1.74) fc— ОС — OO Корреляционная функция в нуле равна дисперсии однородного поля: Dl Г **(0)· Аргументом корреляционной (ковариационной) функции однородного случайного поля является разность координат пространства Аг, что дает основание называть /?g (Аг) пространственной корреляционной функцией. Вектор Дг имеет те же проекции, что и г. Поэтому корреляционная функция скалярного случайного поля является функцией нескольких переменных. В этом состоит существенное отличие случайного поля от случайного процесса, где корреляционная функция зависит только от одного аргумента t. Если имеется однородное поле вида ξ (х, у), то его корреляционная функция зависит от двух переменных R% (Δχ, Ay), для трехмерного поля ξ (χ, у, ζ) — от трех переменных R% (Ад:, А#, Аг). Эргодические и неэргодические стационарные процессы и поля До сих пор характеристики случайных процессов и полей (плотности вероятности, моментные функции и др.) были определены через соответствующие статистические средние значения («поперек процесса» — см. рис. 2.2 и 2.3), т. е. средние значения большого числа реализаций в ансамбле идентичных систем. Оказывается, что для многих стационарных случайных процессов указанные характеристики можно получить путем осреднения соответствующих величин «вдоль процесса», т. е. по одной реализации достаточно большой длительности. Например, представляется естественным за оценку математического ожидания т^ стационарного процесса ξ (t) принять величину τ m = lim-l Γξ(/)Λ, (2.1.75) а в качестве оценок дисперсии Dg и корреляционной функции R$ (τ) взять соответственно величины τ /5-lim4 [[l(t)-mi]4tt (2.1.76) О 7 $l(%) = \im-L f β(/ + τ)—т5]В(0-ю*]#. (2.1.77) о На практике временной интервал осреднения Τ берут конечным, но по возможности большим. Такая возможность физически может быть оправдана тем, что стационарный случайный процесс протекает однородно во времени. По- 116
этому одна реализация достаточно большой продолжительности может содержать все сведения о свойствах случайного процесса. Это можно также пояснить иначе. Представим себе, что длинная реализация стационарного процесса разбита на «куски» примерно одинаковой длительности. Для ряда стационарных процессов каждый из таких «кусков» можно рассматривать в качестве «полномочного представителя» отрезка реализации на выходе отдельного члена статистического ансамбля одинаковых систем. Стационарные случайные процессы, для которых это справедливо, называются эргодическими или говорят, что стационарный процесс обладает эргодическим свойством. Аналогично обстоит дело и со случайными полями. Например, для однородного поля в соответствующих выражениях осреднение по времени нужно заменить на осреднение по достаточно большой области пространства. Следовательно, эргодическое свойство стационарного процесса или однородного поля состоит в том, что вероятностные характеристики процесса или поля можно получить при надлежащей обработке лишь одной реализации достаточно большой «длительности»; В понятие эргодичности можно вкладывать различный смысл, поэтому его целесообразно дифференцировать в зависимости от того, какие характеристики процесса или поля представляют интерес и подлежат рассмотрению. Стационарный процесс \{t) называется эргодическим в строгом смыс- ле, если с вероятностью единица все его вероятностные характеристики могут быть получены по одной реализации процесса. Имея в виду, что различные характеристики эргодического процесса обычно определяются осреднением по времени, можно сказать, что стационарный случайный процесс ξ (t) является эргодическим, если результаты осреднения по времени совпадают с соответствующими результатами осреднения по ансамблю-(т. е. с математическими ожиданиями). Практически часто интересуются не всеми, а только отдельными характеристиками процесса (в частности, математическим ожиданием, корреляционной функцией и одномерной функцией распределения или плотностью вероятности). Ясно, что процесс может быть эргодическим относительно одной характеристики (параметра) и неэргоди- ческим для других. В связи с этим можно ввести понятие эргодичности относительно отдельных характеристик процесса. Укажем здесь три таких понятия эргодичности, отложив доказательство приводимых результатов до § 5.4. За основу определенний эргодичности принят следующий факт. Аналоги соответствующих вероятностных характеристик процесса определяются временным осредя^ием р^т^ти за конечный интервал времени [О, Т] и жгем. устанавливается условия, при которых дисперсия получающихся временных средних значение стремится κ нулю при Г-^оо. Стационарный случайный процесс l(t) обладает эргодическим свойством относительно математического ожидания, т. е. 117
7 Μ {1 «)} = тг=Urn -i- f S (0 * (2.1,78) если и только еели выполняется равенство τ о lim г- ™τί(,_'τ)/?δ(τ)έίτ"ί)· (2Л,79) где Λξ(τ) — корреляционная функция процесса. Стационарный процесс l(t) обладает эргодическим свойством относительно корреляционной функции, т. е. τ Я* W = lim у J ffi(/)-mdB(i+x)-mdd/, (2.1.80) если и только если выполняется соотношение τ №η ^-|(ΐ-.-^-)/?η(τ')ίίτ'=.0, (2.1.81) о где /?η(τ*) — коререляционная функция процесса η(/) = \(t + τ)ξ(/). Стационарный процесс ξ(ί) обладает эргодическим свойством относительно одномерной функции распределения F^x), т. е. лм-иш-Илю*. л(о-{?при!!2^ <2л-82> г-юо Г J [1 при l(t)^x9 о ■ν* если и только если выполняется равенство* τ 1ш -|-|(ΐ--ΐ)[^(*,*; т)-Л(*)Ыт = 0. (2.1.83) о Заметим, что для выполнения равенства (79) необходима стационарность процесса ξ(ί) лишь в широком смысле, а для выполнения соотношений (81) и (83) — стационарность в узком смысле. Условия эргодичности процесса налагают дополнительные требования на вероятностные характеристики стационарного процесса. Поэтому не всякий стационарный процесс является эгродическим (в том или ином смысле). Например, рассмотрим случайный процесс W) = Acos((u0t + φ), где амплитуда А и начальная фаза φ — независимые случайные величины, принимающие различные множества значений для разных *Это равенство, конечно, выполняется, если lim F2 (χ, χ; τ) = F\ (*), т. е, t-*OQ если случайные величины ξ (t -f- τ) и ξ (t) оказываются независимыми для больших τ. Равенство (79) заведомо выполняется при lim Rt (τ) = 0, т. е» ко1да £ U + τ) и ξ (t) при увеличении τ становятся некоррелированными* 118
реализаций. Если фаза φ равномерно распределена в интервале (—π, π), ίο математическое ожидание и корреляционная функция (рассчитанные осреднением по ансамблю) равны т1 = О, R% (τ) = Μ {Л2} χ Xcos (ω0τ)/2. Следовательно, процесс ξ(ί) стационарен в широком смысле. Однако он не будет эргодическим, так как упомянутые характеристики, рассчитанные осреднением по времени, будут другими: т\ = = 0, /?£ (τ) = (Л/72) cos ω0τ, где At — одно из возможных значений, принятое случайной величиной А в рассматриваемой ί-й реализации, с использованием которой выполняется временное осреднение. Изложенная выше классификация случайных процессов (последовательностей) наглядно показана на рис. 2.5. Каждый из перечисленных частных видов случайных процессов, в свою очередь, можно дополнительно классифицировать в зависимости от формы частных характеристик, описывающих процесс. Например, за основу классификации можно принять вид корреляционной функции (широкополосные и узкополосные процессы), характер плотностей вероятностей (гауссовские, негауссовские и другие процессы) и т. д. Такая классификация будет приводиться позже, при рассмотрении частных видов случайных процессов. ' 2.2. КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ На с. 108 указывалось, что при решении практических задач часто оперируют с математическим ожиданием и корреляционной или ковариационной функцией случайного процесса. Их определения для действительного случайного процесса даются формулами (2.1.31) — (2.1.34). Для комплексного случайного процесса ξ (t) аналогичные формулы имеют следующий вид: оо /П| (0 = Μ {ξ (/)} = f xp(x;t)dx, (2.2.1) — оо R* (ti, Ц = Μ {[ξ (/j-mj (Ml β* &)-«! (4)]} = оо оо = ί ί '*ι —ms('i)H*2—^1(ί2)]ρ2(χί9χ2\ t\>Ьг)аххахъ (2.2.2) — оо — оо оо оо ^ΐ(^ι»4) = Μ{ξ(/1)Ε*(/2)}= J j ххх\р2{хъхг\1ъ1г)аххах2^ = Ri (iu к) + Щ Vi) m\ (/J, (2.2.3) где звездочкой отмечены комплексно-сопряженные функции. Очевидно, что соответствующие определения и результаты для вещественного процесса получают отсюда автоматически, положив мнимую часть соответствующих случайных величин равной нулю. Из последней формулы видно, что ковариационная функция отличается от корреляционной наличием детерминированного слагаемого тЪ (к) т% ('г)· Если математическое ожидание процесса тг (t) а 0, то ковариационная и корреляционная функции совпадают. Поэтому 119
ковариационная функция по сравнению с корреляционной содержит дополнительную информацию лишь о математическом ожидании случайного процесса. Значения случайного процесса ξ (t) в рассматриваемые моменты времени tx и t2 называются некоррелированными, если R 6 (tlyt2) = О, т. е. 'KlttuV^mtdJmiitJ. (2.2 А) Рассматриваемые два значения называются ортогональными, если Kiih, t2) = 0. (2.2.5) Пусть имеются два не обязательно действительных случайных процесса I it) и χι (t) с корреляционными функциями /?| (tlf /2) и /?η (tu t2) или ковариационными функциями K%(k, t2) и /Сл (tu t2) соответственно. В дополнение к ним теперь можно рассматривать две взаимные "корреляционные или ковариационные функции Rln (tu k) = Μ {[ξ(tx)— щ № [η* (/,)-mi (t2)]}, Я* (tu Ί) ■= Μ{1η (tx)- mn (/JJ [ξ* («- m| (Щ (2.2.6) или ^η(ίι,ϊι) = «Ι{5(?ι)η·(ϋλ ^ξ(/ι,4)-Μ{η(/ι)Γ(/2)}, (2.2.7) Следовательно, корреляционные свойства между выборочными значениями случайных процессов ξ (/) и ft (t) в два различных момента времени задаются корреляционной или ковариационной матрицей R _ гя& (/χ, ω /?ξη (/ь«, ι к=г ад, ω *6η &, ωι (2 2 8) В общем случае, если нужно задавать корреляции (ковариации) для двух процессов в η моментов времени или для совокупности η разных процессов в два 1^рмента времени, то потребуется корреляционная (ковариационная) матрица размером η χ п. Два случайных процесса Ε (/) и η (t) называются некоррелированными, если взаимная корреляционная функция для двух произвольных моментов времени, равна нулю: Я*ч (h* к) = 0, т. е. -*f 4Т| (ίΐ9 ί2) = т% (ίχ) m? (t2). (2.2.9) Процессы ξ (t) и л (ί) называются ортогональными, если ковариационная функция равна нулю: Кы(к>к) = 0. (2.2.10) Разумеется, что применительно к случайным процессам остаются справедливыми результаты (1.3.71) и (1.3.72), дающие физически наглядную интерпретацию корреляционной функции. В ряде случаев оказывается целесообразным вместо /?| (tlf t2) или R^ (tl9 t2) рассматривать соответственно нормированную корреляционную функцию г & (tu t2) или нормированную взаимную корреляционную функцию П(tu к)-Ri(h, *2)/КЗД)ЭД)> (2.2.11) 120
r& (h, t%) = Λξη (h, QlVDt ft) £>η ft). (2.2.12) Эти функции количественно характеризуют степень линейной зависимости между соответствующими значениями одного или двух процессов. Перечислим основные свойства корреляционных функций. При этом следует иметь в виду, что Дб Съ 4) = % ft, /2), гг(1ъ t2) = ru ft, t2). (2.2.13) Поэтому все свойства взаимной корреляционной функции #£nft> ί2) распространяются на корреляционную функцию R δ ft, t2). 1. Корреляционная функция обладает (так называемым эрмитовым) свойством #|η(ΊΛ) = /?;ι(4, ίύ, Ъп$ъ «=»/fc(** к). (2.2.14) В справедливости этих равенств можно убедиться на основании определения взаимной корреляционной функции (6). Отсюда следует, что корреляционная функция вещественного процесса ξ (t) является симметричной относительно своих аргументов: Я|&, « = Д|<<1. <i). (2.2.15) 2. Для корреляционной функции справедливо неравенство Коши— Шварца I Rtn (/ι. к) I2 < Μ {| ξ ft) |2} Μ {| η (t2) |2} - £>ξ ft) £>η ft), |^(/ι,/2)1<1. (2.2.16) Пусть математические ожидания процессов ξ (ί) и η (ί) равны нулю и λ — вещественная переменная. Тогда из очевидного неравенства ΛΙ{|ξ((ι) + λΛ&η(/1,/1)η(/1)Ρι}>0 имеем Μ{[£(ω + λ/?;η(^, 4)П(ШГ (к) + Щц(^ 4)г)*(Ш = ' = Μ {| ξ (/J |2 + λ [Λ5η ft, у Г ft) η (ί2) + Λ|η ft, 4) I ft) η* ft)! + + λ21 /?|η ft, t2) I21 η ft) |2} - Μ (| ξ ft) I2} + 2λ | /?ξη ft, у Ρ + + λ2|/?,η(/ι,ί2)|2Μ{|η(ί2)|2}>0. Этот квадратный многочлен неотрицателен для любого λ. Поэтому дискриминант этого квадратного уравнения не может быть положительным, откуда и следуют неравенства (16). 3. Равенства \ЪгьУиЫ\=УЩ&Щ(Ы9 |r^ft, /2)| = 1 (2.2.17) имеют место тогда и только тогда, когда существуют такие поатоянные числа аФ 0 и Ь, что рассматриваемые значения случайных процессов ξ ft) и η ft) g вероятностью единица связаны линейной зависимостью η('ι)β*δ(ίχ) + &. (2.2.18) 121
Для доказательства этого факта воспользуемся выражением для нормированной взаимной корреляционной функции (12) в следующем виде: 'ξη (fi. к) = Μ {1(h) ? (/,)>, (2.2.19) где %(t) и η (t) — нормированные случайные величины: Г(0 = [Ш->"1(0]/Кад, i(*)-h(/)-mn (0J//DU0. (2.2.20) Если выполняется условие (18), то П. ft, Ц-М ί ^^ ■ flg,M^')L-L| 1.α>0. Ι ]/^(Ί) ι«ΐ)Λ>6(ω J и 1 -ι, жо. Предположим теперь, что \г^^ъ ί2) Ι = 1. Пусть, например, процессы ξ (/) и y\(t) вещественные и τξη (/ь ί2) = 1. Тогда Μ{[ί(/ι)-η (Ш = 2[1—rin ft, /2)] = 0. Но дисперсия равна нулю тогда и только тогда, когда с вероятностью единица рассматриваемая величина является постоянной, т. е. f ft) — ΤΙ ft) =» о = const. Отсюда следует, что η ft) и ξ ft) должны быть связаны линейной зависимостью. Аналогично если r$n ft, t2) = = — 1, то ξ ft) + η ft) = си, следовательно, остается справедливым тот же результат. 4. Всякая корреляционная функция R % ft, /2) обладает фундаментальным свойством неотрицательной определенности в следующем смысле. Пусть tu ..., tn — любое конечное число точек и zif ..., ζΛ — произвольные комплексные числа. Тогда эрмитова форма 2S **(*,,ωζ«ζί=Μ/ s ε<ωρ<ω*ι*ί)= = м/||]|(/,)г,П>0 (2.2.21) всегда вещественна и положительна. Здесь было принято, что математическое ожидание процесса ξ (/) равно нулю. Из (21) при η = 1, г = 1 имеем Ό % ft) - Л β ft, « - Μ {| ξ ft) I2} > 0. (2.2.22) Кроме того, из (21) следует частный результат формулы (14), а именно: #ift> «-ЯН'* Ί)· (2.2.23) Чтобы убедиться в этом, нужно в (21) положить η = 2, zt = г2 = 1 и я = 2, Zi = 1, г2 = j. После подстановки этих значений придем соответственно к равенствам Я g ft, к) + Я i ft, к) = 2Re /?ξ ft, /2), — j tfg ft, 4) + j R ι ft, Ο = - 2j Im /?8 ft, t%)9 122 г.Л
так как Μ {| ξ (tx) + ξ (t2) |2} = Μ {[ξ (« +1 («] [Ρ (/ι) + ξ* (Ш = = /?6 (<ι, /ι) + /?δ (<* 4) + 2Re /?ξ (iJf /2), Μ {| Ε (ω + J6 («|2} = /?ξ (ί* ί2) + /?β ('* ω -2j Im /?ξ (ib h). Из написанных равенств получаем Re /? ξ (/lf 4) = Re /? ι (f,, Μ. Im /? ξ (*lf t2) = - Im Λ ξ (4, 4), что и доказывает справедливость (23). 5. Приведенное свойство неотрицательной определенное™ является характеристическим свойством класса всех корреляционных функций. Это означает, что если какая-нибудь функция R% (tl9 t2) обладает этим свойством, то можно найти случайный процесс, для которого она будет корреляционной [181. Пусть процесс ξ (t) является вещественным. Согласно (23) корреляционная функция Ri (tlf t2) такого процесса вещественна и еиммет- рична. Квадратичная форма <Э= Σ Ri(ti>tk)ZiZk i. fe = l неотрицательна при всех вещественных zt. Поэтому из (2.5.7) следует, что ехр (— QI2) является характеристической функцией /г-мерной нормальной плотности вероятности о нулевыми математическими ожиданиями и корреляциями R* (tb tk). Семейство нормальных плотностей вероятностей при всевозможных значениях η и U удовлетворяет условиям симметрии и согласованности. Поэтому существует елучай- ный процесс с таким семейством конечномерных распределений, имеющий корреляционную функцию R^(tu t2). Этот результат остается в силе и для комплексных случайных процессов. Конкретизируем теперь свойства корреляционных функций применительно к вещественным стационарным в широком смысле случайным процессам ξ (t). Напомним, что для стационарного в широком смысле случайного процесса ξ (t) согласно (2.1.48) справедливы следующие соотношения: M{£(0}==ms==: const, Μ { [ ξ (/) — m§ J2 } = D ξ = σ| = const, (2.2.24) R s (τ) = Ό g r% (τ) = Μ { [ ξ (t) — m% ] ί ξ (ί + τ) — тг\ }, (2.2.25) ^W = M . ——γ- Ι γοχ уц где знаком « ~ » сверху обозначены нормированные величины (20). 1. Абсолютное значение корреляционной функции при любом τ не может превышать ее значение при % = 0, т. е. |/?s(T)|<Dfcp |г*(*)|<1. (2.2.27) Этот результат следует из (16), а также из очевидного неравенства, что математическое ожидание положительной функции не может быть 123 «Μ{ξ(0δ(< + τ)>, (2.2.26)
отрицательным: Μ {[f(/ + τ) ± ШП = 2 [ 1 ± η (τ)] > 0. 2. Корреляционная функция вещественного стационарного процесса ξ (/) является четной функцией своего аргумента: R ξ (τ) = Я ι (- τ), г δ (τ) = r ξ (- τ). (2.2.28) Этот результат следует из (23), а также из того, что значение корреляционной функции стационарного процесса не зависит от выбора начала отсчета времени. Поэтому /?ξ(τ)=»Μ{ξ(/)ξ(ί + τ)}-/π|=.Μ{ξ(/-τ)ξ(/)}-^|-/?ξ(-τ). 3. Если корреляционная функция непрерывна при τ = 0, то она непрерывна при всех других значениях τ. Доказательство этого свойства базируется на неравенстве Коши—Шварца, [Μ{|ξτ}]2<Μ{|2}Μ{ξ?}, ξ-ξ(/), ξτ=ξ(/ + τ). (2.2.29) Приведем доказательство этого неравенства. Рассмотрим функцию /(λ) = Μ{(ξ-λξτ)2}, где λ—действительная величина. Очевидно, что правая часть не может быть отрицательной величиной: /(λ) = Μ {ξ2} -2λΜ {ξξτ} + λ2 Μ {ξ*} > 0. Поэтому квадратическая функция / (λ) расположена или_ над осью λ, или может касаться сверху ogh λ лишь в единственной точке λ0 = = Μ { ξ ξτ}/ Μ { ξ| }, соответствующей минимуму функции. Нетрудно проверить, что даже в этой точке выполняется еоотношение (29), причем знак равенства имеет место только в том случае, когда / (λ0) = = 0. Ради упрощения записей будем оперировать о нормированными величинами и применим неравенство (29) к математическому ожиданию Μ{(Ιτ+/ι-!τ)Ι}: Ι Μ (gc+ft-ft) 1} I < [Μ {(Ιτ+Λ-Ιτ)2} Μ {f2}]1/*. Раскрывая левую и правую части этого неравенства, имеем |Γδ(τ + Λ)-Γδ(τ)| ОТП-г^Л)]1'2. Еоли нормированная корреляционная функция г%(х) непрерывна в точке τ = 0, то существует такое δ > 0, что | 1 — r% (h) | <c ε0 при \h\ < δ, где ε0 > 0—сколь угодно малое число. При этом | г ξ (τ -\-h) — — г ξ (τ) Ι < У2б0 = ε при | h | < δ для любого значения τ. Это и есть требуемый результат. 4. Для многих практически интересных стационарных случайных процессов справедливо соотношение lim #|(τ) = 0, (2.2.30) 124
заведомо гарантирующее эргодичность процесса (2.1.79) относительно математического* ожидания. Физически этот результат объясняется тем, что устойчиво работающие системы обычно имеют конечное время затухания (конечное время «памяти»). Поэтому для случайных процессов, наблюдаемых в стационарно и устойчиво работающих системах, последующее значение процесса оказывается практически независимым и некоррелированным с предыдущим значением, если они разделены достаточно большим' интервалом времени. 5. Преобразование Фурье от корреляционной функции есть неотрицательная функция (см. (2.3.10) ) оо f /?г(т)е-»"ш^т>0. (2.2.31) О _!_ тТ0 О +Т0 V б) Рис. 2.$5. Функции, которые не могут быть корреляционными функциями вещественных стационарных процессов Этим свойством можно воспользоваться для решения вопроса о том, может ли какая-либо функция R (τ), удовлетворяющая предыдущим условиям, представлять корреляционную функцию стационарного в широком смысле случайного процесса. При выполнении условия (30) выражение для нормированной корреляционной функции стационарного процесса с учетом (2.1.32) и (2.1.46) можно записать в следующем виде: Ί(τ) ^Αζ(τ)— /<ς(ο°) _ mn (τ) — mu (со) *ξ(0)—/Cg(oo) "~ mu(0)—/яи(оо) (2.2.32) где Κι (τ) — ковариационная функция случайного процесса. Таким образом, корреляционная функция стационарного случайного процесса является четной функцией аргумента τ, имеет максимум, равный дисперсии £>|, при τ = 0, непрерывна при всех τ, если только непрерывна при τ = 0, и, как правило, убывает до нуля при τ -> <х>. Примеры нормированных корреляционных функций (их аналитические выражения и графики) вещественных стационарных процессов приведены в табл. 5.2. Каждая из этих функций удовлетворяет всем перечисленным свойствам. Наоборот, три вида функций, изображенных на ри®. 2.6, не могут быть корреляционными функциями действительного стационарного процесса, поскольку для каждой из них не выполняется какое-либо одно из свойств. Перечисленные выше свойства корреляционной функции стационарного в широком смысле случайного процесса легко переносятся 125
на ковариационную функцию, поскольку, как следует из (3), между ними существует простая евязь /(δ(τ)-Яа(т) + т|. (2.2.33) Корреляционные функции однородных случайных полей удовлетворяют всем указанным ранее условиям. В частности, корреляционная функция однородного двухмерного поля R s (Δ χ, Ay) является четной функцией своих аргументов /?ξ (Δ χ, Δ у) = /?ξ (— Δ χ, — Δ у); (2.2.34) α) >pJT)ws<u0(T) Рис. 2.7. Нормированные корреляционные функции стационарных процессов при Δχ = 0, Δ # = О ее значение максимально и равно дисперсии поля | #ξ (Δ χ, Δ у) |< /?β (0, 0) = D|; (2.2.35) для большинства встречающихся на практике полей выполняется соотношение lim R$(Ax, Δ#) = 0. (2.2.36) В большинстве радиотехнических задач встречаются нормированные корреляционные функции двух типов: в виде монотонно убывающих функций аргумента τ (рис 2.7, а) и в виде осциллирующих зату-ν хающих функций (рив. 2.7, б). Будем обозначать нормированную корреляционную функцию первого типа через г6 (τ) = ρδ (τ). Одним из примеров нормированной корреляционной функции первого типа может служить функция р$ (τ) = ехр (— α τ2), где α — постоянная положительная величина, а примером второго типа 'ξ(τ) = = ρ g (x)cos ω0 τ, где α < ω0. В инженерной практике вместо точного аналитического задания вида нормированной корреляционной функции часто ограничиваются указанием лишь интервала или «времени корреляции» xfe, которое дает ориентировочное представление о том, на каком интервале времени в среднем имеет место заметная коррелированность между значениями случайного процесса, существенная для решаемой задачи. Аналогично тому, как оценивается длительность импульса, вре- 126
мя корреляции можно определить по-разному. Так, можно условиться для коэффициентов корреляции обоих типов под временем корреляции τκ понимать величину 00 00 τ. = -j J IPs (τ) \άτ=j* | ρξ (τ) | άτ. (2.2.37) — οο Ο Геометрически τκ равно основанию прямоугольника с высотой ρ ς (0) = = 1, имеющего ту же площадь, что и площадь, заключенная между кривой Ι Ρ ξ (τ) I при τ > 0 и осью абсцисс (рис. 2.7, а). Время корреляции тод можно определить иначе: как длительность функции | ρ ξ (т) \ при τ>0 на уровне 0,1. Иногда время корреляции целесообразно характеризовать величиной τκ, определяемой формулой т2 где ОО I ОО = f (τ—τ)2ρ|(τ)ί?τ / f ρ|(τ)ίίτ, (2.2.38) ОО / — ОО ОО f ОО τ = Г тр| (τ) άτ f pf (τ) άτ. ta-OO Ι —ОО При таком определении τκ аналогично среднему квадратическому отклонению относительно «среднего времени» τ. Таким же образом можно определить интервал корреляции для однородного поля. Так, если ориентироваться на выражение (37), то ОО Δ«·κ=— f ΙΡ|(Δγ)Μ(Δγ), (2.2.39) 2" J — οο где ρ ξ ( Δ г) — нормированная корреляционная функция, и HHTei^H- рование выполняется по Аг-мерному объему. Для двумерного однородного поля ξ (χ, у) интервалом корреляции является площадь ОО ОО (AxAy)K = -L·- j* j |ρξ(Δχ, Ay)\d(Ax)d(Ay). (2.2.40) _ οο -~οο Левую часть этого равенства можно представить в виде произведения (Δ χ Δ #)к = Δχκ Аую где ΔχΗ и Δ#κ — интервалы корреляции вдоль координатных осей χ и у, определяемые по формулам вида (37). Отметим, что взаимная корреляционная функция двух совместно стационарных в широком смысле вещественных случайных процессов ζ (0 и η (ί) является вещественной и не обладает свойством симметрии: если ξ и т) поменять местами, то /?ξη(τ) = /?η|(-τ), Γξη(τ) = Γ^(-τ). (2.2.41) Полезно иметь в виду неравенства, ограничивающие абсолютное значение взаимной корреляционной функции: /??п (τ) < /?ξ (0) /?η (0) =* D| £>η, 21 /?ξΤ) (τ) | < £ξ + £>η. (2.2.42) 127
Эти соотношения следуют из очевидного неравенства, аналогичного приведенному на с. 124 : Μ {[ξ (0 + λη (t + τ)]2} = #ξ (0) + 2λ/?ξη (τ) + λ2 #η (0) > 0, где λ — произвольная вещественная переменная, и принято, что математические ожидания процессов ξ (t) и η (t) равны нулю. Укажем некоторые простые свойства .корреляционных (ковариационных) функций. Ковариационная функция суммы двух стационарных и стационарно связанных в широком смысле случайных процессов ξ (t) и η (t) ζ (t) - g (t) + η (0 (2.2.43) на основании определения (7) равна Κι (τ) = Μ {[ξ (0 + η (/)] [ξ* (ί + τ) + η* (ί + τ)]} « = Κξ (τ) + Κη (τ) + ΚιΆ (τ) + Κηδ (τ). (2.2.44) Если процессы ξ (t) и η (/). ортогональны (10), то Κι (τ) = Κ * (τ) + Κη (τ). (2.2.45) Приняв математические ожидания процессов ξ (*) и η (t) нулевыми, получим, что формула (44) будет справедливой и для корреляционной функции. Ковариационная функция произведения двух указанных процессов не может быть выражена через двумерные моменты этих процессов. Однако еали процессы ξ (/) и η (t) независимы, то случайные величины ξ (t) и ξ (t Η- τ) будут независимы g η (ί) и η (ί + т). Поэтому для независимых процессов Κζ (τ) = Μ { [ξ (ί)η (01 15* (t + τ)+η* (ί + τ)|> = = Μ {ξ (/)ξ· « + τ)}Μ {η «)η* (ί + τ)} = /Cs (τ)*, (τ), (2.2.46) ζ(0 = 6(0η(0· Если ζ (t) = a (t)l (t)t где a (t) — детерминированная функция, то Кг (tlf tj = α (Μα* (tt)K* (τ). (2.2.47) Отметим, что в задачах оптимального приема импульсных сигналов s (t) на фоне помех приходится иметь дело а операцией τ R9 (τ) = k j* s (f)s* (< — x)di (2.2.48) о или для сигналов s (ί), являющихся вещественными функциями времени, τ Rs (τ) = k \ s (/) s (/ —τ) Λ. (2,2.49) Здесь Τ — интервал времени, на котором наблюдается сигнал, k — постоянный коэффициент, τ — временной сдвиг сигнала. Функция R$ (τ) характеризует степень ^ьязи (корреляции) сигнала со своей копией, сдвинутой по времени на τ, и обладает некото- 128
рыми свойствами корреляционной функции (она имеет наибольшее значение при τ = 0 и убывает g увеличением τ). Поэтому функцию Rs (τ) часто называют корреляционной функцией детерминированного сигнала. Аналогично можно определить взаимную корреляционную функцию между двумя детерминированными сигналами sx (t) и s2 (0: τ Λβ1*.(τ) = *|Μ0*2(<—τ)Λ. (2.2.50) о Рассмотрим несколько примеров вычисления корреляционных (ковариационных) функций 117, 20, 21]. Пример 2.2.1. Корреляционные характеристики пуассонозского процесса (см. § 2.7). Пусть в случайные моменты времени /д происходят некоторые события, число которых в интервале времени ί определяется законом Пуассона pk(t) = (Xt)ke-U/k\ £ = 0, 1,2,...5 t > 0, (2.2.51) причем число событий в неперекрывающихся интервалах времени независимо* Определим целочисленный пуассоновский процесс N (/) следующим образом: N (0) = 0 и N (t2) — Ν (ίχ) равно числу событий (точек) в полуинтервале (tlf t2], Реализации такого процесса представляют собой ступенчатые кривые (рис* 2*8, а) с единичными скачками в точках /&» Для двух заданных моментов времени ta и tb, ία > tbf приращение процесса N (ta)— N (tb) имеет пуассоновский закон распределения Ρ {Ν (ta)-N (tb) =k} =[λ (ta-tb))k e ^ (ίβ^ν/Λ» (2.2.52) В соответавии с характеристиками закона Пуассона имеем Μ {Λ/ {tj—N (tb)}=l (ta-tb)f (2.2.53) Μ {[Ν (ta)-N (tb)]*} =λ* (/β_*5)* + λ (ta-tb). (2.2.54) Если ta> tb > tc> td, то случайные приращения N (ta) — N (tb) и N (tc) — — Ν (id) независимы и, следовательно, Μ {[Л/ (ta)-N (tb)\ \N (tc)-N (td)\}=X* (ta-tb) (tc-td). (2.2.55) Если же ta> tc> tb > td* то интервалы {tbt ta) и (td, tc) перекрываются и выражение (55) оказывается несправедливым. Используя записи N (ta) -Ν (tb) =[JV (ta) -Λ/ (tc)\ +{N (tQ) -N (tb)l, N (tc)-N (td)«[N (tc)-N (tb)\ + [N (tb)-N (td)), из (54) и (55) получаем M{[N(ta)—N (tb)\ {Ν (/c)-yV (td)]}=X* (ta-tb) (te-td)+X «e-fb)f (2.2.56) где (Ut — tb) — длина перекрывающихся частей интервалов (tbt ta), (/d, tc). Таким образом, случайные приращения пуассоновскоро процесса стационарны и независимы (на неперекрывающихся интервалах). Положив в (53) 1а = /, tb = 0, находим математическое ожидание целочисленного пуассоновского процесса Μ {Ν (/)} =λ/, (2.2.57) Аналогично из (56) при ta = t%, tc = t2, tb *= td = 0 получаем выражение ковариационной функции 5 Зак. 956 129
Приведенные выше рассуждения применимы и к неоднородному пуассонов- скому процессу (когда плотность точек λ (t) зависит от времени) с той лишь разницей, что вместо λ (/2 — t%) нужно подставлять J λ (t)dt. При этом формулы (57) и (58) примут вид Μ {Л/(*)}=/λ (τ) 4τ, о K(tut2)Jfx(t)dt\l+fx(t)dt], t, >U. h ^к\1 t 1 (2.2.59) (2.2.60) 7* Рис. 2.9. Случайный двоичный сигнал 2/е 7/е "» n(t): •i[ms)~mj} ППГ ΊΠ Рис. 2.8. Целочисленный пуассонов- ский процесс (а) и приращение про* цесса (б) Ю При ti < ί2 здесь нужно поменять местами ίΛ и tv Можно показать [5], что для фиксированного е > 0 приращение пуассонов- ского процесса (рис 2,8, б) η (/) = [Ν (t + е) — N (flj/e имеет следующие характеристики: « \п (t)\ — λ, (2.2.61) Kn(tt,h)-\ λ2+(λ/ε)-.(λ|ίι^2|)/ε2§ „,_,,, <,· <2·2'62> Пример 2.2.2. Ковариационная функция случайного двоичного сигнала. Вычислим ковариационную функцию случайного двоичного сигнала ξ (/), сформированного на основе простого пуассоновского потока упорядоченных времен* ных точек {tk, k = 0, 1, 2 ,*.} следующим образом: ξ (ή = 1, если число точен в интервале (0, 0 четное, и ξ (0 = —1, если число точен в интервале (0, ή нечетное (рис. 2»9). Так как события \k точек в (0, 0} при различных к = 0, 1, 2, ... несовместны, то вероятность наличия четного числа точек в интервале (0, t) согласно (51| равна М0+Р2<0- ....-е-"[ -" 1 + (Kty 2! ■J- А'сгШ. Аналогично вероятность получения нечетного числа точек в интервале (0, ή равна 130
Следовательно, Ρ {ξ (t) =1} =β-λ' ch λί, Ρ {ξ (0 = —1} =ee?u sh λ*. По этим вероятностям находим математическое ожидание Μ {ξ (t)} = ЬР {ξ ft =1} —LP {ξ (Ο =-ΐ}=β~λ' (ch λί-sh λΟ =θΓ2λί. (2.2.63) Для вычисления ковариационной функции К% ft, i2) = Μ {ξ ft)i ft)} нужно знать совместные вероятности случайных величин ξ ft) и 5 (У· Распишем их* Пусть ti — t2 = τ > 0. При заданном значении g ft) = I случайная величина 6 ft ) = 1# если в интервале ft, ^) имеется четное число точен. Поэтому ρ {I ft) = И ξ (W - U =^λτ ch λτ. Умножив это выражение на Ρ [ξ ft) = I}, получим Ρ{ς(Ί) = 1, U^ = i}=e^uchXTe^*cM*2. Аналогично находим Ρ {Ι ft) = —1. ξ ft) = —1} =e-u ch λιβ"*· sh λ*„ ^ft)-lUft)==-l}==e-*ushXiJ, Ρ {ξ ft) = l, ξ ft) = —1} =β~λτ sh λτβ~λίί sh λί29 Ρ {ξ (*t) = — l, ξ p2) = 1} =β-λτ sh λτθ-λί* ch %t2. Записав развернутое выражение для ковариационной функции и подставив в него найденные вероятности, получим К^ ft, t2) β ехр ί—2λ ft — t2)]. Поменяв ролями t% и t2 (т. е. полагая tx < t2)t придем к окончательной формуле /С^ (я?) = ехр (—2λ 11? |), v^b—tx. (2.2.64) Из (63) видно, что процесс ξ (t) нестационарен, Это объясняется тем, что начало отсчета времени было выбрано вполне определенным образом (на положительном импульсе). Чтобы «начальное условие» было случайно выбранным, рассмотрим случайный двоичный сигнал η ft = ΑΙ ft, (2,2.65) где А — независимая от ξ (0 случайная величина, принимающая лишь два значения + 1 и —1 о одинаковыми вероятностями: Ρ {А = 1} = Ρ {А =—1}= 1/2» При этом Μ {А} = О, Μ {Л2> — 1, Нетрудно убедиться, что процесс η ft стационарен, так как Μ {η (0} - Μ {Α} Μ {ξ ft} - 0, *η ft» h) = Μ {А*} Ш {I (tt) ξ (ύ2)} =exp (-2λ I Ц-t21). (2.2.66) Процессы ξ (0 и η ft асимптотически (при t -* оо) имеют одинаковые вероятностные характеристики* Отметим, что если случайный двоичный сигнал ξ ft принимает два произвольных значения Ζχ и г2, то его можно выразить через симметричный двоичный сигнал ξ ft с двумя значениями ±1 о помощью следующего линейного преобразования: CW—J- (*ι+*ύ + γ(ζ*-*ύΙΦ* (2.2.67) Поэтому математическое ожидание и корреляционная функция случайного несимметричного двоичного сигнала ξ ft равны Μ {S ft} = (zn +г2)/2+ (zt-z2) е^ш/2, 5* 131
* «ε (tu « =(*ι-*2)2 exp (—2λ | ίχ-ί31). (2.2.68) Интересно отметить, что линейная оценка (1.3.74) значения χ (t2) реализации симметричного двоичного сигнала ξ (t) при известном значении χ (^) в стационарном состоянии (Μ {ξ (ή| = 0, *-*оо) принимает вид χ (t2) =ехр (— 2λ | fa—fx |) * (^. Отсюда получаем, что i (t2) ~ * (/t) при 2λ | ί2 — ^ | < 1 и ϊ (t2) к; 0 при 2λ| t2—1\ I > 1* Последний результат оказывается бесполезным, так как сигнал \ (t) может принимать лишь значения ±1. Поэтому значимость линейной опенки существенно зависит от величины временного интервала | t2 — tt \* Укажем, что если число нулей случайного двоичного сигнала (рис. 2*9) определяется не законом Пуассона (51), а законом распределения pk у) *= (λΟ2* sech Ul (Щ\ k = 0, 1, 2, ..., (2.2.69) *" I I ξω r «V L-I— r2 ι £-2 fLf tQ ( ff tz 't-$ ^4 *5 ^5" ty Рис. 2.10. Квазислучайный фототелеграфный сигнал то корреляционная функция будет равна /?е (τ) = sech λτ cos λτ. (2.2.70) При больших λύ закон распределения (69) переходит в закон Пуассона. Пример 2*2.3. Вычислим ковариационную функцию случайного фототелеграфного сигнала ξ (/), сформированного на базе пуассоновского потока упорядоченных временных точек {*&, k = 0, ±1, ±2, ...} следующим образом, В интервалах между соседними точками ξ (t) есть постоянная величина, равная 1 или 0 с вероятностями ρ и 1 — ρ соответственно. Значения ξ (t) в разных интервалах независимы. Типичная реализация процесса показана на рис» 2.10. Для произвольно выбранного момента времени t математическое ожидание процесса Μ {ξ <*)} - i . Ρ {ξ {t) - 1} Η- 0 . Ρ {ξ (/) = 0} - ρ. Запишем выражение для ковариационной функции Ка (К t + τ) Μ \\ (/)ξ (t + τ)} - Ρ {ξ (t) - ι, ξ (/ + τ) - 1}. Фигурирующая здесь совместная плотность вероятности зависит от того, находятся ли моменты времени / и / + τ в одном и том же интервале или в разных: Ρ {Б (0-1. £<*+*) ->-{;. если * и ί-(-τ в одном интервале, если I и ί+ι? в разных интервалах. Вероятность того, что t и t Η- τ находятся в одном интервале, как следует из формулы (51), равна р0 (| τ |) = е β--λ|ι| независимо от tt а вероятность того, что % и t + τ находятся в разных интервалах, равна 1 — р0 (| τ |j. Следовательно, ^(τ)=/?θ-λ,τ|+^(ΐ-β-λ,τ,)=ρ(1-/7)6~λ,τ'+^. (2.2.71) Пример 2.2.4. Корреляционная функция квазислучайного телеграфного сигнала [17]. Пусть дискретный случайный процесс ξ (ή в любой момент времени может иметь одно из двух значений хг = а и х2 = 0 с одинаковыми вероятностями рг = Ρ {ξ (0 = αγχ} = /?2 = Ρ {ξ (f) = дс2} = 1/2 (рис. 2.11), причем смена состояний (значений) возможна в фиксированные моменты времени tm = 132
= Δ ± тТ, где Τ = const, m = 0, 1, 2, «.. — целое положительное число, Δ — случайная величина, не зависящая от ξ (t) и равномерно распределенная на отрезке (О, Т\. Известны вероятности смены состояний Ρ {xt -* х2) = — Ρ {*2 ~> χι} β Я и сохранения прежнего состояния {Р xt ~* xt} = — Ρ {*2 ""* *г} я Ρ = 1 — 0* Получающийся видеосигнал назван квачислу- чайным телеграфным сигналом в отличие от случайного двоичного сигнала (рис. 2.9), у которого смена состояний может осуществляться в произвольные моменты времени, Нужно найти ковариационную функцию и спектральную плотность такого квазислучайного телеграфного сигнала в стационарном состоянии. Вычислим сначала ковариационную функцию сигнала g (t)> считая случайную величину Δ фиксированной: /(ξ (τ Ι Δ) - Μ {ξ (0)| (τ) | Δ}, mJuS ΓΓΗ~Ί Π tf tz t3 tif r ~ШГ t/rj t 0) Рис. 2.11. Случайный телеграфный сигнал (α) и его корреляционная функция (б) Пусть на отрезке τ лежит пг возможных точек перехода (рис* 2,11). Если сигнал имеет лишь два значения α и 0, то произведение £ (0)| (t) будет отлично οι нуля и равно я2, если оба конца τ-отрезка находятся на импульсах; в противном случае это произведение равно нулю. Поэтому можем написать «Λ(τ|Α)-*Ρ{ξ(0)-α. ξ (τ)-α}-* Ρ {ξ (0) =α}Ρ{ς (τ) =α| ; (0) =α} = =^α2Ρ{ξ(τ)==α|ξ(0)=α}. Можно показать, что Ρ {Ι (τ) = α\ % (0) - α) = (1/2) П + (Ρ - q)ml Km (τ Ι Δ) « (aVA) [1 + <ρ - Λ (2.2.72) Поэтому Пусть (πι — 1)Τ< τ < тГ, где т = I, 2, 3, ·.· Тогда возможны два случая: I) если Δ < гпТ — τ, то отрезок τ содержит (т — 1) разрешенную точку перехода и, следовательно, Km~i (τ I A) = (aV4) [l +(p-^-»]| 2) если Δ > тГ τ, то на отрезке находится m точек перехода и /(m(T|^)=(aV4)[l+(/7~^r]· Так как случайная величина Δ не фиксирована, а может принимать любые значения на отрезке [0, Л, то нужно осреднить выражения Km -ι (τ | Δ) и Кт (ι Ι Δ) с учетом указанных двух условий по Δ с плотностью вероятности ρ (Δ) = l/T при 0 < Δ < Т. В результате для τ > 0 получим [wT—τ 7" -ι f Km_1(T|A)dA+ j Кт(т|Д)ЙД L 133
= ^(т-у)Г1+(/7^Г-Ч+^[^-(т-1)][1+(/7-7Гь (т — 1)Г<т<т7\ По условию четности ковариационной функции стационарного вещественного процесса такое же выражение применимо и для τ ^ 0, нужно лишь заменить τ на м. Окончательная формула для интересующей нас ковариационной функции квазислучайного телеграфного сигнала следующая: (m — 1)Г < | τ | < m7\ m = 1, 2, 3,... (2.2.73) или иначе ^Μ^γ+Τ'^^^^Ιτ"411! (2·2'74) где ί — целая часть дроби τ/Τ, В частном случае ρ = </ = 1/2 значения процесса ξ (/) и ξ (t + τ), принадлежащие разным интервалам Г, независимы. При этом формула (74) упрощается: (2.2.75) ^(τ)-(α2/4)+(αν4)(1-|τ|/Γ), |τ|<7\ Отметим, что если полагать начало отсчета времени совпадающим с моментом возможного изменения значения процесса (Δ = 0), то такой квазислучайный телеграфный сигнал ξ (i) будет нестационарным, В результате введения случайного равномерно распределенного смещения Δ случайный сигнал ξ (t) становится стационарным, &Ю &Ю , ft® < >|<——>f*- Рис. 2.12. Способ получения (а) и составной сигнал r\{(t) (б) Пример 2.2.5. Вычислим математические ожидания и ковариационные функции трех видов составного (манипулированного) сигнала (рис, 2Л2): ηί (ή - (1/2) |1 + λ (0]ξ, (*) + (1/2) [1 - λ (018, (/), (2,2,76a) η2 W « λ (/)ξ, (ή + f 1 - λ W]|2 (ή, (2.2,766) Пз (0 - λ (f — Δ)Κι (^ — Δ) -Η 11 — λ </ — Δ)]ξ2 (/ - Δ), (2.2.76BJ или η3 (ί) - λ (/ - Δ)ξί (0 + [1 —λ (/ — Δ)]ξ2 (ή, где £j (0 и ξ2 (0 — не зависящие от λ (ή стационарные, не коррелированные между собой случайные процессы с ковариационными функциями К\ (τ) и /С2 (τ). В составном сигнале (76а) λ (t) — «переключающий» стационарный случайный двоичный сигнал (например, вида, указанного в примере (2,2.2)), с ковариационной функцией Κλ (τ), принимающий лишь два значения +1 и —1, При этом сигнал ^ (/) = ξι (t) при λ (t) = 1 и цх (t) = ξ2 (/) при λ = — lt т. е» случайный 134
процесс ^ (О представляет собой случайный манипулировавши двоичный сигнал, состоящий из последовательности случайно чередующихся двух «элементарных» сигналов 1ι (0 и ξ2 (ή. В сигнале (766) λ (ί) есть периодическая с периодом Τ (синхронная) последовательность детерминированных прямоугольных импульсов длительностью 7\ (рис. 2ЛЗ) λ (I при kT^t<kT+Tti *«0, ±1, ±2,..., ( О при других ί. В (76в) λ (ί — Δ) — периодическая (несинхронная) последовательность тех же прямоугольных импульсов со случайным смещением Δ относительно начала отсчета времени. Случайная величина Δ считается равномерно распределенной в интервале [О, Т\. Используя независимость λ (t0) от ξ/ (ff) и ξ2 (t2) при различных *0, tt и t2, для математического ожидания и ковариационной функции сигнала щ (t) имеем Μ {rh (0} - (1/2) li + Μ {λ (*)}]Μ {6t (0) -h (1/2) И - Μ {λ (0}]Χ ΧΜ {ξ2 (0}, Κηι (τ) -Μ {ηι (0 ηχ (t +τ)} -(1 /4) [1 +Κλ (τ)] [/^ (τ) + /<2 (τ)| + +(1/2)[1-Κλ(τ)]Κΐ2(τ). (2.2.7) Когда элементарные сигналы ξι (0 и £а (0 н* коррелированы между собой (Κΐ2 (τ) = 0), из последней формулы получаем Ч (τ> =(1/4) Ι1 + *λ W] l*i W +** <«)l· (2.2.78) Задавая различные элементарные сигналы, можно получить разнообразные ковариационные функции. Простой способ получения сигналов вида (76) можно использовать для формирования разнообразных ковариационных функций. Такая необходимость может возникнуть при моделировании ал у чайных процессов с заранее заданными ковариационными (корреляционными) функциями* Для сигнала q2 (Q находим Μ{η2(θ} = Μ{λ(0}Μ{ξ1(0}+[1-Μ{λ(0>|Μ(ξ2(0}, 4^»ί+τ) = ,νΐ^(Οη2(^ + β)} = λ(0λ^+^)/(ί(τ) + +[1 -λ (/)] [1 -λ (t+u)l Κ2 (τ) +{λ (0 [1 -λ (t +%)\ + +λ(ί+*Η1-λ(*)]} MftiiOlMfe (0}· (2.2.79) В силу периодичности λ (/) сигнал η2 (0 является периодически стационарным, так как М{гъ(*+ЛНМ{г,2(*)}, *η%«+7\ ΐ+τ+D-^e, ί+χ). Наконец, математическое ожидание и ковариационная функция сигнала η8 (0 Равны т т Μ(«|(/)}-Μ{ξ1(0}γ|λ(ϊ-Δ)£ίΔ+Μ{ξ1(0}γ ffl—λ(ί—A)JdA- -PVO Μ {ξχ (0} +Ρ·«/Ό Μ {ξ2 (0), Κη8(τ)=^^(τ)/(1(τ)+{^-^[1^(τ)]}/(2(τ) + +2Μ {Ь (0> Μ {ξ2 (0} -^- f I -* W1· (2.2.80) 135
где q (τ) «■ --. f λ (t)% (t + x)dU Периодическая функция q (τ) показана ва Г о рие. 2,14, Сигнал η$ (/) является втационарным в широком смысле, Пример 2.2.6. Корреляционная функция одиночного импульса. В некою· рых системах радио· и гидролокации применяются импульсные сигналы с большой скважностью. Поскольку отражающая поверхность цели и ее дальность заранее неизвестны, то «амплитуда» и время прихода отраженного импульса могут рассматриваться как случайные величины и его можно записать в виде ξ (0 - As (ί — Δ), Ι ΐ — ΔΙ < ти/2, (2.2.8П где ти —> постоянная длительность импульса, А и Δ — независимые случайные величины о плотностями вероятности ρχ (А) и ρ (Δ) соответственно. ш \ * J Ul rf ι Г ZLE V*) /\ . /\ ■ 2Г J/· i 7"/ Г IT Рис. 2.13. Периодическая переключающая функция λ (О Рис 2.14. Периодическая функция ?(т) Математическое ожидание и корреляционная функция отраженного сигнала по определению равны Щ (0 = Μ {ξ (t)} = Μ {Л} Μ {s (ί-Δ)} = mA Г(0, зМ {Л54; j s (*—Δ) 5 (t -f-τ—Δ) ρ (Δ) dA—m^ (0 m* (t +τ), (2.2.32) где Μ {Ak} « J Л Vt (4)<Mt МО — ί $ U — Δ)/? (ΔΜΔ. — 00 —О* Ясно, что рассматриваемый процесс нестационарен. Если время* прихода сигнала известно точно и равно Δ «з Δ,„ то ρ (Δ) « δ (Δ — Δ0), Тогда m£(t) = mAs(t—A0)t Ri(*· *+*> =M {A*}s (t— A,,) s <*+*—Δη)—m, (0 m? ρ +τ). Вели принять плотность вероятности ρ(Δ) постоянной в интервале | Δ | ^ Г/2, ю if» «ξ(0-— Ι β(ί—A)dA. Γ/2 /?6 (*·*+*) -Μ {Л2} у· Г s(t—A)s (/+τ—Δ) dA-m* (0 m5 (t+τ). — Г/2 Пример 2.2.7. Корреляционная функция периодического процесса· Рае- смотрим сначала случайный гармонический сигнал 6 W- s(0- decos(<M+<p)t (2,2.83) 136
у которого амплитуда А0 и частота ос0 постоянны, а начальная фаза φ случайна и равномерно распределена в интервале [—л, и], ?» е. имеет ялотность вероятности ρ (φ) « 1/2π при | φ | < п. Несколько реализаций случайного сигнала s(t) изображены на рис. 2*15» Математическое ожидание сигнала д (ί) равно нулю. Находим корреляии· онную функцию **W«Mte(0e(f+T)}-· 2л л ί cos (ω0 ί+φ) cos (ω01 -j-uxc -f-ψ) **φ = *S cosu)0i;. (2.2.84) $#д Рис. 2.15. Три реализации сигнала s(t) случайного Рис. 2.16. Корреляционные функции гармонического сигнала, помехи и их суммы В данном случае корреляционная функция оказывается периодической и имеет тот же период Т0 = 2π/ω0, что и исходный сигнал. В отличие от часто встречающихся стационарных случайных процессов, для которых выполняется условие (30), в данном случае корреляционная функция при τ~* οο не стремится к нулю* Этот факт можно использовать для обнаружения и выделения достаточно длинного, но слабого сигнала & (t) на фоне интенсивной помехи, представляющей собой случайный процесс. Действительно, пусть сигнал s (ί) принимается на фоне стационарной поме- ки η (/), т. е. наблюдению доступен лишь суммарный процесс 6 (0 = * (0 + я М- (2.2.85) Если сигнал и помеха независимы, то корреляционная функция суммарного процесса ξ (/) равна сумме корреляционных функций слагаемых (рис. 2.16): Λε W^MO+RnW. (2.2.86) Пусть корреляционная функция помехи Rn (τ) удовлетворяет условию (30): ее практически можно считать равной нулю при τ > τ0. Тогда R^ (τ) ~ Rs (т) при τ > τ0. Следовательно, ответ на вопрос о наличии или отсутствии в принятом колебании ξ (t) гармонического сигнала s (/) часто можно получить из анализа корреляционной функции R^ (τ). Если при достаточно больших τ она является периодической функцией, то это признак того, что в ξ (t) присутствует сигнал s (0, и наоборот. Позже мы убедимся, что корреляционный прием сигналов, основанный на формировании корреляционной функции и регистрации ее значения, в некоторых случаях оказывается оптимальным. Предположим теперь, что имеется случайный сигнал s(0= 2 AkSin (®ь1+Уь)> (2·2.87) в котором случайны лишь начальные фазы φ&, причем щ и <pw при k Φ m независимы и равномерно распределены в интервале шириной 2я. 137
Повторив внчисления, найдем, что корреляционная функция сигнала (87) дается выражением 1 п Если ω& = fc®o» то сигнал (87) является периодически стационарным в широком смысле с оериодом Τ0 » 2π/ω0* Пример 2.2.8. Нетрудно доказать, что случайный процесо 6(0-2 Ckei(*h\ (2.2.89) где случайные величины Съ не коррелированы с нулевыми математическими ожиданиями и дисперсиями D^=M {| Си |2}, является стационарным в широком смысле, имеет нулевое математическое ожидание и коррелиционную функцию #|(τ) = Μ{ξ(0ξ*(/+τ)}= 2 Dk^h^ (2.2.90) Аналогично если 2п вещественных случайных величин аи и Ьи не коррелированы, имеют нулевые математические ожидания и одинаковые дисперсии Μ {а\} β Μ {^>|} = Dkt то случайный процесо η £(0га2 (вк cos e>ki+ftk sin 0fc0 (2.2.91) ы стационарен в широком смысле с нулевым математическим ожиданием и корреляционной функцией η *ξ(τ)-Μ{ξ(0ξ(/+τ)}- 2 Dftcoscofei7. (2.2.92) 2.3. СПЕКТРАЛЬНЫЙ АНАЛИЗ При изучении детерминированных сигналов и реакции на них линейных систем g постоянными параметрами широко используются спектральные представления, базирующиеся на возможности представления (при определенных условиях) сигналов рядом или интегралом Фурье. При этом математически сранительно просто и физически наглядно можно найти сигнал на выходе линейной системы простым пересчетом отдельных спектральных составляющих входного сигнала через комплексную частотную характеристику системы о последующим применением принципа суперпозиции. Представляется естественным желание распространить гармонический анализ на случайные процессы для решения в принципе однотипных задач, хотя физический смысл результатов будет при этом несколько другим. Наиболее просто эта задача решается для стационарных случайных процессов введением спектральной плотности процесса. Ниже приведено определение спектральной плотности и перечислены ее основные свойства. Затем спектральный анализ будет обобщен на нестационарные процессы. 138
Спектральная плотность Определим спектральную плотность S (/) стационарного в широком смысле случайного процесса \ (ί) как преобразование Фурье от ковариационной функции: со S(/)= j K(T)e-i2*l*dx. (2.3.1) fee OO На основании обратного преобразования Фурье можем написать со К (τ)— j" S(J)e№Uf. (2.3.2) *— оо Таким образом, спектральная плотность и ковариационная функция стационарного процесса представляют собой пару взаимных преобразований Фурье. Аналогичным образом связаны между собой спектральная плотность S0 (/) и корреляционная функция R (τ) стационарного в широком смысле центрированного случайного процесса |0 (0 = I (0 — т- оо S0(/) = j R(x)e-M*dt, (2.3.3) — оо оо tf(*)= J S0(f)e)Wdf, (2.3.4) — оо где m = Μ {ξ (t)} — математическое ожидание процесса. Подставив в (1)'выражение (2.2.33) ковариационной функции через корреляционную и воспользовавшись формулой (1-19), получим S(f)~S0(f) + тЧ (/). (2.3.5) Видно, что спектральная плотность стационарного процесса с не равным нулю математическим ожиданием отличается от спектральной плотности соответствующего центрированного процесса лишь наличием дискретной линии на нулевой частоте. Имея это в виду, можно сказать, что формулы (1), (2) и (3), (4) являются равнозначными. Эти формулы были получены независимо советским ученым А. Я. Хинчи- ным и американским ученым Н. Винером и поэтому называются формулами Винера—Хинчина. Укажем, что спектральную плотность S (/) стационарного в узком смысле случайного процесса ξ (/) можно выразить непосредственно через двумерную плотность вероятности р2 (хи х2\ τ). Для этого введем преобразование Фурье от этой плотности относительно τ: 00 1st 00 139
По определению К (τ) = f J* хгх^р2 (*ъ *2Ϊ ^)dx1dx2, Подстэбив зто —-оо —оо выражение в (1) и изменив порядок интегрирования, получим ОО 00 00 S (/) = j J лгхлг2 J р2 (Хи Хъ t) е - ΐ2π'τ dxdx^ dx2= оо оо — 00 — ОО Поясним теперь физический смысл спектральной плотности. Если понимать под i (t) случайный (флюктуационный) ток или напряжение, то величины S (/) и S0 (/) в формулах (1) и (3) будут иметь размерность энергии*» Полагая в формуле (4) τ = 0, имеем ν 00 D = R(0)= J S0(f)df. (2.3.6) — оо Эта формула показывает, что дисперсия («полная энергия») стационарного центрированного случайного процесса равна площади под кривой спектральной плотности. Величину S0(f)df можно трактовать как долю «энергии», сосредоточенную в малом интервале частот от / — (df/2) до / + (df/2). Правомерность такой интерпретации будет дополнительно оправдана на с. 492 результатом (5.2.19): если на вход стационарной линейной системы с безразмерной комплексной частотной характеристикой К (jo) воздействует стационарный в широком смысле случайный процесс ξ (/) со спектральной плотностью S^ (/), то спектральная плотность δη (/) процесса η (/) на выходе системы в стационарном режиме определяется формулой δ„(0=^(0|/(ϋ2π/)Ρ. (2.3.7) Эта формула показывает целесообразность введения в рассмотрение спектральной плотности случайного процесса. Аналогичная формула справедлива и для детерминированных процессов. Допустим, что линейной системой является идеальный полосовой фильтр с безразмерной комплексной частотной характеристикой, изображенной на рис. 2.17. Тогда дисперсия процесса на выходе такого фильтра с учетом -(6) равна /• + Δ//2 £>η= f 5η Μ =2 j Sg(/)d/>0. (2.3.8) ~oo f.-Af/2 Если рассматриваемый фильтр узкополосный (Δ/ < /0) и спектральная плотность Si (J) внутри полосы Δ/ непрерывна, то DO~SS(/)A/. (2.3.9) *Во многих случаях зто не так, например, когда ξ (ή описывает случайные колебания коэффициента усиления, случайное время запаздывания отраженно· го сигнала, частотные или фазовые флюктуации сигнала и ts д* 140
\K(j2*f)\ \Af 1 j_ \Jf -to 0 t0 Ψ Рис. 217. Амплитудно-частотная характеристика идеального полосового филыра Перечислим основные свойства спектральной плотности. 1. Спектральная плотность стационарного процесса (вещественного или комплексного*)-неотрицательная величина: S(/)>0. (2.3.10) Это свойство непосредственно еледует из выражений (8) и (9). Если допустить, что S (/) < 0 в некоторой полосе частот, то дисперсия выходного процесса будет отрицательной, что невозможно. Свойство неотрицательной определенности спектральной плотности, как и аналогичное свойство (2.2.21) корреляционной функции, является характеристическим или определяющим. Его значение базируется на следующей теореме (ее можно назвать теоремой существования случайного процесса с заданной спектральной плотностью). Пусть задана неотрицательная функция «S (/) или, что эквивалентно, неотрицательно определенная функция R (τ). Существует стационарный случайный процесс ξ (t)> имеющий спектральную плотность S (/) или корреляционную функцию R (τ). Одно из доказательств этой теоремы путем построения гауссов- ского процесса с заданной корреляционной функцией было приведено на с. 123. Два других доказательства будут даны в примере 2.3.1. 2. Спектральная плотность стационарного в широком смысле случайного процесса есть всегда вещественная функция (поскольку К (—τ) = л* (τ)), причем для вещественного процесса она является четной функцией частоты. Так как корреляционная функция R (τ) вещественного процесса есть четная функция аргумента, то оо 50(-/)= J R(x)ei2^dx = S0{f). (2.3.11) Учитывая четность спектральной плотности, формулы (3) и (4) можно записать так: оо оо S0(/)= Г /?(T)cos2jt/T<k = 2f R(%)cos2nfxd%, (2.3Л2) * Именно этим свойством оправдываются определения корреляционной и ко* вариационной функции комплексных процессов формулами (2,2*2) и (2*2,3). 141
со оо R (τ) = j S0 φ cos 2nfrdf = 2 f 50 (/) cos 2π/τ#. (2.3.13) ••со 8 Следовательно, спектральная плотность и корреляционная функция вещественного стационарного в широком смысле случайного процесса связаны друг с другом взаимными косинус-преобразованиями Фурье. Поскольку корреляционная функция вещественного процесса есть вещественная функция аргумента, то из (12) видно, что спектральная плотность является также вещественной функцией частоты. /?(г)=Ле~ат S0CfJ- a2HZrrf)z / ar<az (χ7<α'ζ / Рис. 2.18. Иллюстрация зависимости между длительностью корреляционной функции и шириной спектральной плотности 3. Корреляционная функция R (τ) и спектральная плотность S0 (f) стационарного в широком смысле случайного процесса обладают всеми свойствами, характерными для пары взаимных преобразований Фурье. В частности, чем «шире» спектр S0 (/), тем «уже» корреляционная функция R (τ) и наоборот (рис. 2.18). Этот результат количественно выражается в виде принципа или соотношения неопределенности. Поскольку соотношение неопределенности носит весьма общий характер, то докажем его в общем виде, не связывая пока с корреляционной функцией и спектральной плотностью. Пусть s (() — некоторая абсолютно интегрируемая вещественная функция времени вместе со своей производной s' (i) = ds (t)/dt% причем s (f) достаточно быстро убывает на бесконечности (по крайней мере δ*(0-» 0 при t-* ±оо быстрее, чем возрастает | 11). Обозначим через F* (/ω) преобразование Фурье функции s (t): оо оо Μ/»)- J β (/)β-'ω'Λ. *ω-~ f МА»)е**</в>. (2.3.14) Известно, что для двух взаимных преобразований Фурье справедливо равенство Парсеваля w «о (2.3.15) где Ε — энергия сигнала s (i)> Условимся, как и в (2*2.38), характеризовать «длительность» вещественной функции s (/) величиной % > 0, определяемой формулой *I=JJ'~^2S2(W ί/«Λ*7- ί '*«<*/ J *<0*. (2.3.16)
Аналогично определим «пр01Яженность» функции Fs (/ω) по частоте величиной Δω* ОО I 00 Δω* = | (ω—ω)21 Fs (j<o) Ι2 dco / J | Fs (j<o) p */ω, ω=0. (2.3.17) «00 / ..00 Здесь~со = Ов силу того, что для вещественных функций (сигналов) спектраль* на я функция Fs (j<o) симметрична относительно начала координат* Поскольку модуль | Fs (ja>) | не зависит от смещения во времени, то в (16) можно положить 7=* 0. Имеет место следующее соотношение неопределенности? *s Δ/δ > 1/4π, Δ/5 = Δωδ/2π. (2.3.18) Докажем его· Полагая в выражениях (16) и (17)Т = о и "ω = 0, имеем | » оо Ί1/2 У » \—1 τ,Δω„- [ t*s*(t)di j ω* | Fs (ja>) |2 dw\ (J* \Fs(j(i>)\*d(u\ .(2.3.19) |_ —» ОО «вОО J \nOO / Известно, что 00 J s* (t)e~i(utdt = }(uFs(j(u). oo Согласно равенству Парсеваля можем написать ОО 00 J Is' (t)]*dt= J tf\Fs(jo>)\*d<o. *—00 β—00 С учетом этого равенства выражение (19) принимает вид [ОО оо ΤΙ/2 / оо \ —1 | t* s* (0 d/ | [s' (OP dt\ Μ Ι ^ Ο») Ι2^ω) · — оо — оо I \ — оо / Применим к первому сомножителю в правой части, заключенному в квадратные скобки, неравенство Шварца — Буняковского (ΙΙ-8), положив f (/) = s' (t), g (t) - ts(t): oo I / oo \ —1 | ts (t) s' (Ο Λ I \FS (jo)) \*dw) * (2.3.20) — OO I \ ta_ OO / Если здесь выполнить интегрирование по частям (и = t, dv = s (ήε* (f)dt), учесть при этом указанную выше быстроту убывания s2 (/) на бесконечности, а также равенство (15), то получим требуемый результат (18): τ$Δω8 > 1/2» Из (II-9) следует, что в выражении (20) имеет место знак равенства, если $'(t) — ats (f), τ* е. при s (/) = С exp (<xt2/2), С « const, a = const < 0, (2*3,21) Безразмерную величину %s Δ/"8 иногда называют базой сигнала, Импульс гаус- совской формы (21) характерен тем, что для него база сигнала минимальна и рав на 1/4π« Для сигнала любой другой формы база может быть только больше этой величины. Повторив приведенные выше рассуждения, нетрудно убедичься, что соотношение неопределенности (18) применимо к корреляционной функции и спект· ральной плотности стационарного процесса, если выполняются сформулированные выше условия (в частности, R2 (τ) -* 0 при τ -» ± оо быстрее, чем возрастает | τ |). Оно примет вид νκ'Δ^>1/4π« (2.3.22) где тк — время корреляции процесса (2,2.38): 143 τ* Δω* >
{ (τ-l)2 tf2 (τ)άτ J τφ(τ)άτ ^ = - (2.3.23) J /?2(τ)^ \ №(х)а\ —mOO — OO Δ/э — эффективная ширина спектральной плотности: OO OO Δ/Ϊ — /=- | 5?(/)^ (2.3.24) Sl(f)d) Для вещественных случайных процессов / = 0 в силу равенства (11), §o(f) У г\ Рис. 2.19. Соотношение между односторонней 5(|(/) и двусторонней S0(f) спектральными плотностями Рис. 2.20. Эффективная ширина Д/э и ширина спектральной плотности на уровне 0,55Л/) Заметим, что во всех предыдущих формулах спектральная плотность S0 (J) определена для положительных и отрицательных значений частоты, причем согласно (11) для вещественных случайных процессов S0 (0 = S0 (—/). В отличие от такого двустороннего «математического» спектра введем односторонний «физический» спектр SJ (/), отличный от нуля лишь при положительных частотах / ^ 0 (рис. 2.19); SJ (/) = S0 (f) + S0 (-/) = 2S0 (/). (2.3.25) Тогда из (12) и (13) получим следующие окончательные формулы Винера—Хинчина: ■ί S+ (/) = 4 \ К (τ) cos 2φάχ, /> 0, 1 К (τ) = f S+ (/) cos 2nf%df9 / > 0. (2.3.26) (2.3.27) Формулами (1), (2) и (12), (13) целесообразно пользоваться при выполнении вычислений, так как интегралы в бесконечных пределах, как правило, находятся проще, чем интегралы хотя бы g одним конечным пределом. При физическом рассмотрении и проведении экспериментов следует оперировать с формулами (26) и (27). 144
В инженерной практике «протяженность» спектральной плотности· по оси частот часто характеризуют эффективной шириной'спектра». Ее можно определить по-разному. Одно из определений дается формулой (24). В качестве другого используемого определения укажем следующее: Δ/*=ί S0(f)dflS0{f0), (2.3.28> r° где S0 (/о) — значение спектральной плотности при некоторой характерной частоте /0 (рис. 2.20). Обычно за S0 (/0) берут максимум спектральной плотности или ординату, соответствующую точке симметрии. Иногда указывают ширину Δ/0,5 спектральной плотности· на уровне 0,55ί (/0)· При качественном рассмотрении характера спектральных плотностей (например, приведенных в табл. 5.2) можно выделить два класса: 1) спектры, значения которых заметно отличны от нуля только в уз· кой полосе частот Δ/, тесно сконцентрированной около частоты /0 ^> > Δ/, и 2) спектры, не удовлетворяющие этому условию. Стационарный случайный процесс, спектральная плотность которого сконцентрирована в узкой полосе Δ/ около частоты /о » Δ/, (2.3.29) принято называть узкополосным случайным процессом. Если это неравенство не выполняется, то процесс не является узкополосным. Количественную меру узкополосности процесса можно определить по-разному, в зависимости от рассматриваемой задачи. В некоторых случаях степень узкополосности можно характеризовать просто величиной Δ/9//0, а иногда целесообразно оперировать с другими критериями узкополосности. При вычислении спектральных плотностей узкополосных случайных процессов часто бывает полезной формула, следующая из (12). Если корреляционной функции /?ξ(τ) соответствует спектральная плотность S0ξ (/), то спектральная плотность 50η (/) для корреляционной функции #η (χ) = /? г (Т) cos 2π/0 τ (2.3.30) равна 5οη(/) = -γ[5οι(/ + /ο) + δ0|(/-/ο)]. (2.3.31) В дальнейшем для краткости будет использоваться следующая запись основных формул Винера—Хинчина (1)—(4): оо оо S(<o)= f /С(т)е-^Мт, Κ(τ) = -~ Γ S (ω) el* dm, (2.3.32> ·— ΟΟ f — ΟΟ t CO ΟΟ S0(co)= Γ ВДе-^Мт, tf(*) = -^- Γ 50(ω)β^Μω. (2.3.33) 14&
При этом нулевой индекс будем часто опускать, помня при этом очевидное соотношение S (со) = S0 (ω) + 2лт2б (ω), (2.3.34) которое следует из (5) и (1-25)· Вместо спектральной плотности S0 (ω) можно рассматривать нор· жированную к единице спектральную плотность s0 (со) « S0 (co)/D, (2.3.35) где D — дисперсия рассматриваемого процесса. Разделив правые и левые чавти формул (33) HaD, получим, что нормированная спектральная плотность и нормированная корреляционная функция стационарного в широком смысле процесса связаны парой взаимных преобразований Фурье: 00 00 60(ω)= Γ Γ(τ)ε-ΐωτ«ίτ, г (τ) = -— Г s„ (ω) е*»* do> (2.3.36) или согласно (26) и (27) 00 ОО s0+(/) = 4 fr(x)cos2^Tdx, r(x) = f sf if)cos2nfrdf, f > 0. (2.3.37) Заметим, что нормированная спектральная плотность удовлетворяет тем же условием (1.2.4), что и плотность вероятности: 00 s0 (со) > О, ^ δ0(ω)Λο=1. —оо При этом нормированная корреляционная функция связана с нормированной спектральной плотностью соотношением (36), совпадающим с точностью до постоянного множителя 1/2π с выражением (1.2.15). Этот факт позволяет рассматривать нормированную спектральную плотность в качестве аналога плотности вероятности, а нормированную корреляционную функцию — в качестве аналога характеристической функции. Поэтому выражения нормированных спектральных плотностей (см. табл. 5.2) по крайней мере формально можно использовать в качестве плотностей вероятностей. Наоборот, некоторые из выражений для плотностей вероятностей (например, приведенных в табл. 1.1), удовлетворяющих условию (11), можно рассматривать в качестве нормированных спектральных плотностей и соответственно выражения характеристических функций — в качестве нормированных корреляционных функций. Пользуясь подмеченной аналогией, можно ввести начальные и центральные моменты двусторонней и односторонней спектральной плотности, определив их формулами, аналогичными (1.3.11) и (1.3.12). В отличие от спектрального анализа детерминированных сигналов спектральная плотность случайного процесса не дает возможности восстановить какую-либо реализацию процесса, так как она есть осред- ненная характеристика и не содержит сведений о фазах отдельных 146
спектральных составляющих. Можно указать несколько различных по характеру случайных процессов, имеющих одинаковую спектральную плотность и корреляционную функцию. Поэтому эти две характеристики описывают случайный процесс явно неполно. В задачах практического определения спектральной плотности стационарного случайного процесса приведенные определения спектра (1) или (3) во многих случаях нельзя признать простыми и экономичными. Они предполагают предварительное определение ковариационной или корреляционной функции, что само по себе сопряжено с трудоемкими вычислениями или измерениями, особенно для быстроосцил- лирующих корреляционных функций (см. табл. 5.2), которые часто встречаются в радиотехнике. В этом отношении представляются естественными два предложения: 1) попытка определить спектральную плотность по одной реализации достаточно большой длительности и 2) определение (измерение) спектральной плотности с помощью соответствующих спектро- анализаторов, т. е. путем «пропускания» стационарного случайного процесса через чаетотно селективные устройства («спектральные окна») с последующим измерением нужных выходных величин (см. § 5.4). Рассмотрим здесь только первое предложение и сразу оговоримся, что оно оказывается неоправданным. Введем для реализации ξ (ΐ)> О <; t <; Т9 стационарного случайного процесса ξ (t) с нулевым математическим ожиданием (т^ = 0) текущий спектр (спектральную функцию) FT№ = \We~Mdtt (2.3.38) о а также периодограмму, определяемую формулой St(<o) = \Ft(](u)\VT. (2.3.39) Записи (38) и (39) носят формальный характер. Текущий спектр и периодограмма являются случайными функциями частоты: для разных реализаций одного и того же стационарного процесса ξ (t) конечной длительности Τ они изменяются случайно от одной реализации к другой. Некоторый физический смысл .и значение периодограмме придает следующее утверждение: если выполняется условие 00 j |T#(T)|dx<oo, (2.3.40) «·— оо го справедлива формула S0 (ω) = Hm -1 Μ {| FT (]ω) ?). (2.3.41) Г-*ео / Докажем это· Запишем правую часть выражения (39) в виде двойного интеграла: τ τ St (ω) «-1 ί Б (**) *~ίωτ* Λ, f ξ (xjj e'«* d%t - 147
τ\τ β τ ί ίι (Τι) ξ (Τ2) β~ίω (τ*~Τι) dT2 dTl' Возьмем математическое ожидание от обеих частей этого равенства и учтем, что, во-первых, в данном случае допустима перестановка местами операций математического ожидания и интегрирования и, во-вторых, корреляционная функция стационарного процесса удовлетворяет условию (2.2.25), т. е. R (tu i2) = R (t2 — к). В результате получим τ τ M{Sr(<o)} = -i- f f Rfrz— xjje-^^^^dxadx!. о о Сделаем в интеграле справа замену переменных (рис. 2.21) τ = τ2 — xlf t0 = (τχ + τ2)/2, (τ2 = t0 + τ/2, τχ = ί0 — τ/2). Учитывая четность корреляционной функции (2.2.28) и выполнив интегрирование по t0> получим Τ Γ*-(|τ)/2) M{Sr(<o)} = -l Г Я (τ) е-*" А Г Л0 = —г I X 1/2 = Г (ί — -ψ·)#(τ)β-ΐ«>τίίτ = Γ ^(τ)β-1ωΜτ— —7" —Τ Ί ψ Γ |т|Д(х)е-*«А. (2.3.42) <7 г О -г i cV \ Г/2 Д>, Рис. 2.21. Область интегрирования 148 При Г-> со первый интеграл стремится к спектральной плотности (3), а второй к нулю, так как согласно (40) подынтегральное выражение ограничено. Этим завершается доказательство формулы (41). Отметим попутно, что из (41) следует свойство неотрицательности (10) спектральной плотности. Так как St (ω) неотрицательная величина, то ее математическое ожидание также не может быть отрицательным. Формулой (41) часто пользуются при вычислении- спектральной плотности различных импульсных случайных процессов. Следует иметь в виду, что в ней нельзя менять местами операции интегрирования и перехода к пределу. Отметим, что если для корреляционной функции стационарного процесса выполняется условие эргодичности, то для спектральной плотности эргодическое
свойство не имеет места* При увеличении длительноети реализации Τ периодограмма Sj (ω), являющаяся случайной величиной, ни в каком вероятностном смысле не сходится к какому-либо определенному пределам поэтому не может быть использована в качестве оценки спектральной плотности. Пользуясь формулой (3.2.2), можно показать, что для гауссовского стационарного процесса £ (() (см. § 2»5) предельная плотность вероятности (при Τ -» оо) случайной величины ηω «= S^ (ω) является экспоненциальной Ρηω (У) =ехр [—y/S0 (ω)]/50 (ω), у > О, причем математическое ожидание и дисперсия равны соответственно т~ = = S0 (ω), Οη = S$ (ω). Отсюда следует, что увеличение длительности реализации не позволяет уменьшить дисперсию, она всегда остается конечной при любой частоте, для которой S0 (ω) Φ 0. Поэтому сама величина ST (ω) не может служить разумной оценкой спектральной плотности. Аналогично спектральной плотности S|(co) одного процесса ξ (t) определяется взаимная спектральная плотность двух стационарно связанных случайных процессов ξ (t) и r\ (t) как прямое преобразование Фурье от взаимных корреляционных функций оо δξη(ω)= J /Ci4(T)e-i«>TiiT:=s*|((u) (2.з.43) — оо На основании обратного преобразования Фурье можем написать оо Κ|η (τ) = -^ j δ6η (ω) eJ««άω. (2.3.44) — оо Полагая здесь τ = 0, имеем оо JL j S^ (ω) da> = Κξη (0) = Μ {ξ (/) η* (t)}. (2.3.45) — 00 Если ξ (0 есть случайное напряжение на каком-либо элементе устройства и η (0 — ток, протекающий через этот элемент, то величина /(ξη (Ο) равна средней мощности, выделяемой на данном элементе. Если процессы ξ (/) и η (t) ортогональны (2.2.10), то S^ (ω) = 0 и наоборот. В этом случае согласно (2.2.45) имеем S^+η (ω) = St (ω) + δη (ω). (2.3.46) Отметим, что в отличие от спектральной плотности одного случайного процесса, которая является действительной функцией частоты, взаимная спектральная плотность двух стационарно связанных процессов является обычно комплексной функцией частоты. Рассматривая спектральные плотности S| (ω) и Sn (ω) стационарных центрированных процессов ξ0 (t) и r\0 (t) на выходе идеального узкополосного фильтра (см. рио· 2.17) и пользуясь частным случаем неравенства (2.2.16), а именно \R^ (0)р < /?g (0)/?η (0), нетрудно доказать, что взаимная спектральная плотность при каждой частоте удовлетворяет неравенству |5ξη(ω)|2<5ξ((ο)5η(ω). (2.3.47) 149
Если спектральные плотности S| (ω) и S^ (ω) отличны от нуля и не содержат дельта-функций, то иногда вводят в рассмотрение функцию частотной когерентности между процессами ξ0 (Ο и у)0 (0 122]: Vfn N - 15|η (ω) l2/SE (ω) S4 (ω), 0< ν£η (ω) < 1. (2.3.48) Функция частотной когерентности аналогична квадрату нормированной взаимной корреляционной функции стационарно связанных процессов Если процессы |0 (0 и Но (0 не коррелированы, то функция коге" рентности равна нулю; при линейной связи между процессами она рав" на единице. Действительно, пусть стационарный в широком смысле процесс |о И) есть процесс на входе линейной системы с постоянными параметрами, а η (t) — процесс на выходе линейной системы. Для стационарного состояния, когда справедлива формула (7), получим γ| ((0) = S = 1. Следовательно, функция частотной когерентности может принимать промежуточные значения между нулем и единицей, когда процессы ξ0 (/) и т]0 (0 связаны нелинейной зависимостью или когда выходной процесс floiO определяется не только входным процессом ξ0(0» но и какими-либо другими воздействиями. В случае линейных систем величина [1—Vffji^)] служит мерой той части дисперсии процесса (По (/), которая на частоте ω не зависит от входного процесса £0 (t). Примеры определения спектральных плотностей Рассмотрим несколько примеров вычисления спектральных плотностей. Если корреляционная (ковариационная) функция стационарного процесса известна, то нахождение спектральной плотности процесса сводится к формальному вычислению прямого преобразования Фурье по формулам (1), (3) или (32), (33). Так, например, воспользовавшись формулой (33), находим спектральные плотности случайных процессов с корреляционными функциями (2.2.66), (2.2.70), (2.2.75) и (2.2.84): 00 S (со) = 2 f е-2λ* cos ωτάτ = 4λ [(2λ)2 + ω»Γ\ (2.3.49) οο S (ω) = 2 I sech λτ cos λτ cos ωτάτ = Τ S(co)=2 (7l- γ^ο$ωτάτ=Τ[$ιη(ωΤ/2)/(ωΤ/2)]\ (2.3.51) 150
S(«)--f J cos ω0 τ cos max = π Л J [δ (ω+ω0)+δ (ω~ω0)1. (2.3.52) При записи последнего выражения была использована формула (1-24). На рив. 2.22 изображена корреляционная функция (2.2.70) и спектральная плотновть (50). Она имеет при ω = λ один максимум, равный 5юах (λ) = (π/2λ) (1 + sech π) « lj/λ. Высота максимума обратно пропорциональна его положению. Одно- параметрической спектральной плотноетью (50) или суммой таких плотностей можно моделировать спектр речи [23]. Рис. 2.22. Корреляционная функция (а) и спектральная плотность (б) Дополнительные примеры спектральных плотностей, соответствующих другим корреляционным функциям, будут приведены в § 2.9 и в табл. 5.2. Рассмотрим несколько самостоятельных примеров. Пример 2.3.1. Определение процесса с заданными спектральной плотностью и плотностью вероятности. Пусть задана неотрицательно определенная функция частоты 5 (ω). Нужно определить стационарный случайный процесс ξ (/), имеющий S (ω) в качестве спектральной плотности. Приведем два метода решения этой задачи. 1. Рассмотрим линейную стационарную систему с комплексной частотной характеристикой /C(J0)«yMS)eje(e)). Если спектральная плотность 5 (ω) удовлетворяет условию физической возможности вида (5.1.3), то при надлежащем выборе функции θ (ω) линейная система будет физически осуществима. Предположим, что на вход этой линейной системы воздействует белый шум η (/) с постоянной спектральной плотностью Sn (ω) = ~ 1 (см. § 2.5). Тогда спектральная плотность 5| (ω) стационарного процесса 6 (0 па выходе системы по формуле (7) равна S^ (ω) = Sn (ω) | Κ (ja>) |2==5 (ω). Таким образом, получен стационарный процесс ξ (0, имеющий спектральную плошость S (ω). 2. Рассмотрим квазидетерминированный процесс вида ξ (t) — m, + A cos (ω/ + φ), (2.3.53) где т~ — детерминированная функция времени; Л, ω и φ — независимые слу чайные величины с заданными плотностями вероятности рА (А)> А > 0, ρω (ω) «■ = ри (—αχ), ρφ (φ) β 1/2π, φ £ (—π, π]· Данный процесс является более 151
обшим, чем в примере* 2*1.1 и 2*1*3. Найдем математическое ожидание и корреляционную функцию процесса | (f)t Очевидво, что математическое ожидание равно т^ независимо οι вида плотное*! ей вероятностей А и §и, тек как ■п -т— 1 cos (ω/+φ)^φ=0· β-Я Рассматривая центрированный процесс £0 (0 » 6 (t) — m^, находим выражение для корреляционной функции R^ (с) «= Μ { И cos (ωί + φ) i4 cos (ω/ Η-ωτ+φ)} = οο Л *= -— Μ {И2} I J [cos ωτ+cos (2ωί +ωτ+2cp)J ρω (ω) d(ud<p = «-οο —.ffi οο (ω) cosωτί/ω. (2.3.54) Это выражение показывает, что рассматриваемый процесс (53) стационарен в широком смысле, если только т^ не вависит от времени. Можно показать [24], что етот процесс стационарен в в узком смысле» Учитывая, что плотность вероятности ρ(Λ (ω) является по условию четной функцией, и сравнивая выражение (54) с формулой (33), получаем, что спектральная плотное?ь процесса £0 (0 определяется равенством S(o)= πΜ{Α*}ρω(ω). Следовательно, если веять ρω (ω) - 5 (ω)/πΜ {Λ2}, (2.3.55) то случайный процесс |0 (0 будет иметь заданную спектральную плотность 5 (ω). Кроме этого, случайный процесс ξ0 (Ο может иметь также и требуемую одномерную плотность вероятности* Покажем эю* По определению (1-2.15) находим карактеристическую функцию Ф (j#) = M{exp (MOcos(u>/-f<p))} = * οο л J йА \ m~2n J ехРиМсов(ш+У»РА(А)Р<А®)а<Р= О —οο —л ΟΟ ΟΟ ΟΟ =) άλ J ./ο (Αϋ) рА (Α) ρω (ω) ufG)=J* J0 (АЬ) pA (A) dA, (2.3.56) 0 —-oo 0 где */0 (x) — функция Бесселя первого реда нулевого порядка» Зная хараклерис- тическую функцию, по формуле (1.2*23) находим одномерную плотность вероятности процесса ОО ОС 00 Ρ W --JP J Φ (j<>) β"1*' άϋ = -^- Γ ρ^ (A) dA f y0 (A$) e^J«* «о. •«-00 О «»ΟΘ 1 Г РА (Л> ^ = — I ^y », \х\<А. ,(2.3.57) ftiV< 152
Заметим, что одномерная характеристическая функция С С Ра (л) Ф0Ф>-1 J.№)PA(A)dA = \ J9(A$)—— AdA представляет собой прямое преобразование Фурье—-Бесселя функции рА (Α)ί А. Обратное преобразование Фурье—Беоселя имеет вид Рл<А) = Г ΦΟθ) 0*У0 (Α&) db. (2.3.58) о Это соотношение позволяет определить плотность вероятности случайной «амплитуды» А по заданной плотности вероятности ρ (χ) исходного процесса. Для этого нужно предварительно найти характеристическую функцию, соответствующую ρ (χ), и загем результат подставить в (58)* Пример 2.3.2. Спектральная плотность произведения двух стационарных некоррелированных процессов. Пусть случайный процесс ξ (t) равен произведению двух стационарных в широком смысле некоррелированных процессов Si W и ξ, (t + τ0): ξ W *β> β к (OS, V + *ο). (2.3.59) где τ0 — фиксированная величина. Ковариационная функция процесса $)(t\ т0) равна /С'(т)« Ktf)K%(%)9 где Κι (τ) — ковариационная функция процесса |$ (0· По формуле (32) находим спектральную плотность о» 5 (ω) * J Kt № Кг (τ) θ"^ωχ Λ. —» οο Подставив сюда Κ2 (τ) =-i-- f S2 (ω') e'co' Wi и переменив порядок интегрирования, получим 5(ω)=-^- Г 5, (ω—ω')52(ω')<*ω'= 1 2π 00 Г ^(αΟ^ω—ω')ώο'. (2.3.60) В частности, спектральная плотность процесса η (ή » ξ3 (Q будет определяться формулой $η(ω)=-^ f S(<d')5(o>—ω')ώ»'. Интегралы, фигурирующие в формуле (60), называются интегралами свертки двух функций Si (ω) и S2 (ω) или просто сверткой двух функций Sf (ω) и S2 (a>). Таким образом, спектральная плотность произведения двух некоррелированных 153
стационарных в широком смысле случайных процессов равна интегралу свертки спектральных плотностей перемножаемых процессов. Вычисление интегралов свертки вида (О -/i (t) * /2 (t) = J /1 (τ) f2 (t-τ) άτ (2.3.61) часто упрощается, если воспользоваться следующим приемом* Образуем функцию /2 (—τ) и переместим ее вправо по оси τ на величину ί (рис. 2.23, а). Пло· щадь, полученная перемножением функций /ι (τ) и /2 (t — τ), дает функцию, определенную интегралом (61). € cfr bf йг. bz t f(t)=fr(t)*fz(t) bi t Cfi^So δ) bj+bz Рис. 2.23. К вычислению ишеграла свертки двух функций МО и МО Нетрудно убедиться, что если /t (t) и /2 (t) равны соответственно нулю вне интервалов {αχ, b\) и (α%, Ь2) (рис. 2*23, б), то функция / (t) равна нулю вне интервала (αχ + а2, &ι + Ь2). Если L (0 есть прямоугольный импульс: /2 (*) = 1 " ~ ' ί I > а, при |/|<α и /2 (ft « 0 при | /1 > я, то МО- 1 2а \ ίι(τ) /2Ρ—τ)ίίτ=— \ Ητ)^τ (2.3.62) представляет добой «скользящее среднее значение» функции / (f)t Пример 2*3.3. Текущий спектр стационарного процесса. Покажем, что спектральную плотность S (ω) стационарного в широком смысле процесса ξ (ή с ковариационной функцией К (τ) для достаточно больших Τ можно определить через текущий спектр (38): 5 (ω) ~ Μ {— | Fj (]ω) |«J. (2.3.63) Модуль текущего спектра согласно (38) равен гт \FT (jo) \2=Fr ϋω) F} (jo» =JJ ξ (0 ξ* (Г) e~J<"> «^'Utdt'. Отсюда находим г г ^|^αω)ρ=|ξ(0ξΜΌ6^ω<ί-Γ>^+|ξ(Γ)ξ^Γ)β-ίω^--^>ίί/'. 154
Взяв математическое ожидание от обеих частей этого равенства, получим о г —г г (2.3.64) Полагая здесь Т достаточно большим, приходим к формуле (63)· Пример 2.3.4. Спектральная плотность случайной последовательности взаимно независимых импульсов. Случайный процесс ξ (t) представляет собой последовательность импульсов в общем случае разной формы, следующих друг за -Т/1 tf tz tz t» t»+f tft T/Z t Рис. 2.24. Случайная последовательность неперекрывающихся импульсов другом через некоторые промежутки времени. Если форма импульсов известна, то случайными могут быть отдельные параметры импульсов: высота или «амплитуда» Av, длительность τν, время появления tv и др. (рис. 2.24)* Случайные импульсы могут быть неперекрывающимися и перекрывающимися. Под перекрытием импульсов понимается возможность полного или частичного наложения разных импульсов друг на друга* Если в случайной импульсной последовательности никакие два импульса не налагаются друр на друга, то это есть последовательность неперекрывающихся импульсов. В последовательности неперекрывающихся импульсов отдельные импульсы должны иметь конечную длительность τν. Условие отсутствия перекрытия импульсов можно определить неравенством <ν+*ν<*ν + ΐ· ν=0, 1,2,... (2.3.65) Очевидно, что если неперекрывающиеся импульсы воздействуют на какую- либо инерционную систему, то на выходе системы, как правило, получаются перекрывающиеся импульсы* В случайной последовательности перекрывающихся импульсов условие (65) не выполняется для всех или чаоти импульсов, т* е» Оказывается, что для ряда импульсных случайных процессов проще сразу вычислить спектральную плотность, а не корреляционную функцию. Наоборот, корреляционную функцию следует находить из обратного преобразования Фурье от спектральной плотности (20J, Вычислим спектральную плотность стационарной последовательности взаимно независимых неперекрывающихся импульсов, пользуясь формулой (41), в которой Г/2 fr(JG))= Г ξ(0β-]ω'$ (2.3.66) -Г/2 155
— спектральная функция уееченной реализации импульсного случайного про- цесса ξ (0, т. е. реализации на конечном временном интервале (—Г/2, 772) относительно произвольно взятого начала отсчета времени. Пусть усеченная реализация ξ (t) содержит η импульсов. Пронумеруем отдельные импульсы в порядке и* следования на оси времени. Если fv — момент времени начала v-ro импульса, то —Г/2 ^ t± <. t2 < t3 <3 «.. <ί tn-i < tn < <: Γ/2. Отметим, что длительность интервала Г зависит от я, т. е. Г = Гп. Если через ftv = /v^j — tv обозначить длительность интервала между двумя соседними импульсами, то Тп~ S *v. (2.3.67) Произвольный одиночный импульс последовательности обозначим через Ayfi(t— tv,xv)t где Предполагается, что функция s0 (t, τν) является детерминированной. Чтобы понятие «амплитуды» Ах? имело смысл, примем, что максимальное значение s0 (t, τν) равно единице. Следовательно, случайный характер рассматриваемого одиночного импульсе заключается в том, что его «амплитуда» Αν, длительность τν и момент появления iv являются случайными величинами. Сравнительно просто и математически корректно можно выполнить вычисления по формуле (41) при следующих предположениях относительно параметров импульсов и всей импульсной последовательности. 1. «Амплитуда» Av и длительность импульса τν не зависят от интервала Όν между соседними импульсами. Совместная плотность вероятности случайных величин i4v и τν, а также плотность вероятности Φν не зависят от времени и одинаковы для всех импульсов последовательности, т. е. р2 (Αν> τν) = р2 (Л, τ), Ρ №ν) β Ρ №) ПРИ разных значениях v. 2, Параметры разных импульсов Лу hxv, а также ΐ>ν взаимно независимы, т, е. случайные величины Λν, τν, Ό·ν, ν » 1, 2, ♦♦,, η, и Ла, τμ, Φμ, μ=1, 2 η, при μ Φ ν независимы. Ьо многих практических задачах параметры импульсов последовательности оказываются зависимыми. Спектральные плотности таких последовательностей импульсов часто можно вычислить с помощью теории марковских_проиессов [17). Представим рассматриваемую реализацию ξ (t) случайных неперекрывающихся импульсов в виде суммы ξ (0 =2 *vs(/-*v, τν). Подставив эго выражение в (66), имеем ?т 0<°) =2 AvFi 0*ω* τν) е""!"Ч (2.3.69) v=l где οο Λ(]ω. Μ= ί Μ'· τν)β~'ω/Λ (2.3.70) — οο — спектр типового импульса последовательности. Очевидно, что квадрат модуля спектральной функции равен \Ft(\<u)\* = Ft№) Ff(ja>)« 156
- Σ Σ ^Λ*0«· tv)/^(Jcd. тде,(°(^~Ч (2.3.71> μ = 1ν=1 где через F* обозначены комплексно-сопряженные функции. При вычислении математического ожидания выражения (71) необходима иметь в виду, что число импульсов η растет с увеличением длительности реализации Τ и, следовательно, нельзя независимо и произвольно задавать величины Тип. Если задаться постоянной длительностью реализаций Τ = const, то будет случайным образом изменяться число импульсов η в разных реализа* циях. Наоборот, если считать число импульсов η фиксированным, то при статистическом осреднении по полному ансамблю реализаций в общем случае нужно учитывать различные длительности Τ разных реализаций* Поступим следующим образом. Будем пока считать число импульсов η фиксированным и вычислим сначала условное математическое ожидание Μ {| FT (/ω) |2| η}. Тогда можем написать Μ (| FT (jco) |« J η} = 2 Σ Μ iAv \ Fi 0'ω· τν) П 0<»> *μ) *** ('μ~'ν)>· По предположению случайные параметры импульсов Αν, τν и uv для разных импульсов взаимно независимы. Если в двойной сумме выделить η одинаковых слагаемых с равными индексами (μ = ν) и η (η — 1) слагаемых с разными индексами (μ Φ ν), то с учетом ранее принятых допущений получим Μ {\FT () ω)\* \п}=п М{А* \Ft (]ω,τ)\*} + Μ (Λν/^(]ω, <νν )} χ χΜ{Λμ^0ω,τμ)} 2 2 M{eJG>( ίμ"'ν >}. (2.3.72) μ=1ν=1 Из рассмотрения рис* 2*24 находим βΙω( 'μ-'ν) ί βχΡ(ΐω(*μ +#μ_ι + ... + *ν+ΐ))» Ρ >ν> Ι «cp(—}ω(θν +^ν-ΐ +··· + ^.ι+ΐ))» Ρ* < ν· Если ввести характеристическую функцию интервалов между импульсами фф (jD) «м { ej^} =J е'°* ρ (#) Λ, (2.3.73) то с учетом взаимной независимости интервалов м { eJ<* ( «д - ίν)} ί [ФФ (Jto)lll-v, μ > ν, Ι Κ (jo» ]*-■*. μ < ν. Используя эти выражения, двойную сумму в (72) можно представить в следующем виде: Ншш 2 2 м {е,<0 < '» -<ν П - - Σ *Σ Κ α ω>Γ^μ + Σ Σ *>rv α ω)· ν=1μ=1 ν=1 μ==ν+1 Области значений индексов μ и ν для первой и второй сумм показаны на рис. 2.25. Меняя во второй сумме справа порядок суммирования по μ и ν и принимая во внимание, что сумма не зависит от того, как обозначены индексы, по которым производится суммирование, получаем 157
2 Σ φ{Γν««) - 2 μΣ φΓυ 0ω>- 2 2 φΓ" ο»)· ν=*1 μβνΗ-Ι μ—Ι ν = 1 ν = 1 u — 1 Следовательно, две суммы, стоящие в правой части, являются комплексно-сопряженными величинами и поэтому (]'ω) tf-2Re/ 2 *2 φΓμ \ (U,=*V) (μ=*ν) где Re z обозначает действительную часть комплексного числа г» Так как | Фф (\ω) | < 1, то, воспользовавшись формулой суммирования убывающей геометрической прогрессии, получим \& 1-Φ«(|ω) У 1-ФоО») 1 2φ·0ω)Ι" 1—Φϋ (\α>) v=l |ФЛ (ίω) Ι [1-Ф, ^Л'-^Н [.»*<>. (2.3.74) Это выражение неприменимо в тех случаях, когда характеристическая функция интервалов Ф^ (ju>) =» 1. Так как обычно Φ > 0, то в отсутствие каких-либо периодичности Ф^ (jo)) = 1 лишь при ω = 0, Подставив (74) в формулу (72), имеем Μ [\FT (ja))|2|n}=A М{ЛЧ/ч(]'о, τ)|2} + 2Μ^ν^(]ω, τν)} χ Φλ (]ω) X«Kf,(P,^))Re,.^w —2G, ω =£ 0, (2.3.75) где 0 = ΐνΐμν^(]ω, τν)}Μμα^(ία>, ти)}х Φ* (ίω) Χ Γ Φα (ίω) ) До подстановки выражения (75) в основную формулу (41) в нем необходимо выполнить осреднение -по случайному числу импульсов л, заключенному в интервале (—Г/2, Г/2)» что, как нетрудно видеть, равносильно замене в правой части случайной величины η ее математическим ожиданием. Учитывая одинаковое распределение всех интервалов и их взаимную независимость, применим и равенству (67) известное тождество Вальда Μ {Тп} = М {#} Μ {η} =m<> Μ {η}, (2.3.76) где о» Щ = м {*> =ί * Ρ (*) <* ♦ (2.3.77) о — математическое ожидание случайного интервала между импульсами. 158
Для многих практических случаев выполняются условия НтМ{Тп}/Т=>1> limG/r=0. /'-►00 Г-Ф-О» (2.3.78) Подставив осредненное выражение (75) в формулу (41) и считая при переходе к пределу выполняющимися условия (78), получим следующую окончательную формулу: S (ω)« — [Μ {Л* I Ft (jco, ν) Ρ} +2Μ {AFt (jco, τ)} Χ -Ι. ω=£0. (2.3.79) Рис 2.25. Области значений индексов суммирования П У Эта формула не позволяет получить интенсивность дискретной спектральной линии на нулевой частоте. Дискретная линия обусловлена возможным наличием в рассматриваемой случайной последовательности импульсов ξ (Щ постоянной составляющей, т* е. т- =* Μ {ξ (t)} Φ 0. Последнюю можно выразить через спектр типового импульса"(68), который входит в формулу (79). Действительно, если положить в выражении (66) ω = 0, взять математическое ожидание от обеих частей получающегося равенства и учесть при этом стационарность рассматриваемого процесса (m; = const), а также записать (69), то получим Μ 1 1 П <6WI*Hlim Τ" M/Fr(0)} = lim —У Μ{Λν^(0, τν} = TWoo Iх /Woo ' ^"", «Ит^-М{Л^ <0,«)}. У—У CO I Осреднение ио случайной величине /г с использованием (76) при условиях (78) дает Μ {ξ (/);- Μ {i4Fe <0, *)}. m (2.3.80) Очевидно, что дискретная спектральная линия на нулевой частоте равна s(0)—2гои| δ (ω), (2.3.81 где δ (ω) — дельта-функция. Формулы (79) и (81) охватывают много практически интересных импульсных случайных процессов* В частности, если в дополнение к ранее сделанным предложениям θ характере случайных импульсов считать, что «амплитуда» Αν и длительность τν одного а того же импульса есть также независимые влучайные ве· личины, т. е, ρ%{Α$τ) — ρ (Λ)ρ (τ), то формулы (79) и (81) упрощаются: 159
ι Γ φ* 0'ω) Ί эд - — М {Л*}+2 Μ» {Л} Re ^ Μ {| Fj (jo, τ)|*}, ω =£ О, (2.3.82) 2π S (0)==—τ- Μ* {Α} Μ2 (Fx (0, τ)} δ (ω). (2.3.83) Разнообразные примеры применения этих формул приведены в [20], Спектральная плотность нестационарных процессов. О спектральном анализе случайных процессов Предложено несколько разных определений спектральной плотности нестационарных случайных процессов [5, 22, 251. Все они исходят из необходимости сохранения основной формулы типа (7). При этом преследуется в основном цель определения спектральной плотности процесса на выходе линейной системы с заданной комплексной частотной характеристикой, когда на вход системы воздействует случайный процесс с известной спектральной плотностью. В § 5.2 будет показано, что задача определения отдельных характеристик случайного процесса (в частности, ковариационной и корреляционной функций) на выходе линейной системы может быть успешно решена путем их непосредственного «пересчета» через линейную систему. Поэтому g этой точки зрения небольшой необходимости вводить в рассмотрение спектральную плотность нестационарных процессов, поскольку ковариационная* функция и спектральная плотность в принципе содержат одинаковую информацию о процессе. Однако не исключено, что в некоторых практических задачах (например, при измерениях) может оказаться предпочтительным оперировать со спектральной плотностью. Приведем определения спектральной плотности нестационарного случайного процесса ξ (/), имеющего ковариационную функцию K(tu U) и корреляционную функцию R(tu t2). В качестве обобщенной спектральной плотности нестационарного процесса можно использовать двойное преобразование Фурье от ковариационной функции. Обозначим преобразование Фурье от К (tu t2) относительно аргумента t± через F (соь t2): со /=>!. *2)= j /С(*1,/«)е-1»·'!*»!. (2.3.84) — со Из обратного преобразования имеем оо К (*„ V = -^ Г F (ωχ, t2) eJ"« h άων (2.3.85) — oo Для функций К (ti> t2) и F (соь /2), связанных этими соотношениями, введем условное обозначение Κ(^ί2)^Ρ(ωΐ9ί2). 160
Запишем теперь преобразование Фурье Г (a>lf ω2) от F ((ou i2) отно- сительно аргумента t2. При этом целесообразно в определении Г (a>lf ω2) изменить знак в показателе экспоненты: 00 Г(ωι, соа) = J F(щ, у е+'«·'»dt%. (2.3.86) Из формулы обращения имеем оо F (©j, у=_L f Г (он, ω2) е~ ><■>«<· ώο* (2.3.87) *— оо Обозначим условно эти два соотношения h Из (86) и (84), а также из (85) и (87) получаем Г (ωχ, со2) ~ J J /С (tl9t2) e-J «* <— *>* Ί> ^ Λ* (2.3.88) ■•00 «■» Ο» ΟΟ tf (ib t2) β _J_ f f Γ(ωχ, co2)eJ «* ί.-ω. t.» ^ ащ. (2.3.89) (2π)2 J J •-00 »-βΟΟ С использованием предыдущих условных обозначений можем запи* сать K(tut2)tZT^b^)' Пользуясь свойствами преобразования Фурье, нетрудно показать, что справедливо соотношение Γη Κ, ω2) = Γξ <colf ω2)Κ (]ЧЖ* (ja>2), (2.3.90) где ξ (t) — процесс на входе стационарной системы с комплексной частотной характеристикой К (ja>) и я (<) — соответствующий процесс на выходе этой системы. Отметим, что функции Г (ωχ, ω2) являются комплексными. Перечислим основные свойства двойного преобразования Фурье Г (соь со2), считая, что К (tu t2) есть ковариационная функция комплексного случайного процесса. Удобно интерпретировать функцию Г (а>ь со2) как плотность комплексной спектральной массы на плоскости (ωχ, ω2). Из (88) и свойства ковариационной функции К (tu t2) = /С* (t2f t±) следует, что Г (colt ω2) =ι Γ* (ω2, ωι), (2.3.91) % е. в точках, расположенных симметрично относительно биссектри- т (ut ч со2, спектральные массы комплексно сопряжены, а на самой б'ДЗак. 956 161
Γη Κ, <ο2) = Γ to, (Oa) Κ (К) К* (J©*) = j1 биссектрисе вещественны. В том случае, когда К (<Ί, ?а) вещеотвенная функция, Г (—ω!, — <о2) = Г* («>!, щ). (2.3.92) Так как К (О, 0) = Μ {|| (0)|2} > 0, то из (89) имеем 00 ОО К(0, 0) · -J-- f f Г К, ag da* Ad, > 0. (2.3.93) Ч»00 — ν» Покажем, что полная спектральная мзсса в квадрате, расположенном на биссектрисе (рив· 2.26), положитель.. * ьь \ \ Г К, Оз) άωχ dco2 > 0. (2.3.94) а а Пусть на идеализированную линейную систему с частотной характеристикой К (j©) = 1 при a < со < &, /£ (jco) =* 0 при других ω воздействует процесс ξ (/). Для выходного процеева ц (t) по формуле (90) можно написать [Г(ωΐ9 ω2), α<ωΐ9 ω2<6, О при других щ9 ω2. Следовательно, «О ОО -Ч.О» ***00 b Ь a a Если ковариационная функция /С (tl9 t2) абсолютно интегрируема, т. е. 00 О» J j \K(ti,ti)\dt1dt2<oo, (2.3.95) — оо -=·οο то двойное преобразование Фурье Г (а>ь ω2) существует для всех ωΐ9 со2 и функция Г (ωΐ9 ω2) ограничена. В тех случаях, когда условие (95) не выполняется, например, когда существует не равный тождественно нулю предел τ /С (τ) - lim JL- f К (t + % t) dt = /C* (—τ), (2.3.96) двойное преобразование Фурье будет иметь особенности (сингулярности) в виде сосредоточенных масс на линии или в точках. Например, слагаемое в Г (ωΐ9 ω2) вида δ (ωχ — αω2 — b) представляет спектраль- 162
ную массу на линии ωχ = αω2 + Ъ с равномерной линейной плотностью, равной единице, а слагаемое δ (ωχ — α)δ (ω2 — b) — единичную массу в точке (а, Ь). Для пояснения рассмотрим важный, но частный случай стационарного процесса ξ (t) с ковариационной функцией К (τ) и спектральной плотностью S (со). Поскольку К (tx, t%) = К (h — <*), то в данном случае условие (95) не выполняется и двойное преобразование Фурье от ковариационной функции будет содержать сингулярности. Согласно формуле (1-19) имеем e!ai <-» 2πδ (ω — α). Поэтому К (ti—ί2) ^ е-** '* S (ω2) ^ 2πδ Κ) δ (ω2—ω^. Здесь в первом соотношении ί2 есть постоянный сдвиг, а S (ωΑ) во втором соотношении есть постоянная величина и преобразование Фурье берется относительно — ί2. Таким образом, Г (ωχ, ω2) - 2nS (ωχ)δ (ω2 — ωχ) (2.3.97) состоит из массы, распределенной на биссектрисе ω2 =* ωχ (рис. 2.26) с линейной плотностью 2nS (ωχ). Наоборот, если Г (a>lf ω2) имеет вид (97), то К (tXt t2) согласно формуле обращения (89) есть функция разности tx и t2 и, следовательно, процесс ξ (t) стационарен в широком смысле. Предположим, что стационарный процесс ξ (t) воздействует на вход линейной системы. Тогда согласно (90) имеем Γη (a>lf ω2) - 2nS (ωχ)δ (ω2 - ωχ)Κ <К)К* (ja>2) -. = 2π8(ωχ)\Κ(\ωχ)\4(ω2-ωχ), так как δ (ω2 — ωχ) = 0 при ω2 Φ щ. Отсюда следует, что ковариационная функция выходного процесса является функцией разности tx — t2t а ее преобразование Фурье равно S (ω)\Κ (](ο)\\ что совпадает β основной формулой (7). Q Пусть ковариационная функция К (τ) Ч является периодической! ZQo\ /=3—00 Тогда δ(ω)=:2π 2 щ6((д—ίω0). Двойное преобразование Фурье имеет вид 00 Г (соь ω2)=:(2π)2 ^αηδ (ωχ—ίω0) 6 (ω2—ω^ рис. 2.26. Двойное пре- /=—οο образование Фурье от и состоит из эквидистантных точечных масв, ПерИционной°фунщииР * расположенных на биссектрисе ω2 « tot (рис. 2.26). _ Назовем предельное значение К (τ) в выражении (96) овредненной (по времени) ковариационной функцией процесса ξ (t)9 а ее преобра- 6* 163
зование Фурье S (со) — осредненной спектральной плотностью. Эта спектральная плотность является вещественной функцией, удовлетворяющей условию Г со О < lim — Г Μ {| ξ (t) \2}dt =~K (0) = — Γ s (ω) Λο. (2.3.98) г->оо 2Г J 2л J Если процесс ξ (ί) стационарен, то К (t + τ, t) = /( (τ) и #~(τ) = = /( (τ), как это следует из (96). В данном случае осредненная спектральная плотность совпадает о обычной спектральной плотностью, определенной формулой (32). Установим соотношение между S (со) и Г (соь со2), т. е. докажем, что если Г (ων ω2) представляет собой сумму регулярной и сингулярной масс Г (со1э ω2) π Гр (colt ω2) + 2πΛ (ωχ)δ (ωχ — ω2), (2.3.99) где 2πΛ (ωχ) — плотность линейной массы на биссектрисе сох = ω2, и Гг (ωχ, ω2) не имеет линейной массы на биссектрисе о^ =а ω2, то S(co) = Л (ω). (2.3.100) Положив в формуле (89) tx = t + τ, ί2 = ί, имеем ΟΟ 00 Κ (t+Ъ t) = -—■ Γ J Γ (соь ω2) ei»· * e» «■>- <>*>< Λ^ d(o2. Поэтому 7* 00 00 JL J /C(i + τ, <)# --JL· J j r(cDlf co^e'i^ χ «Γ «7? Следовательно, 2Т J ΟΟ ΟΟ K(T) = lim-i- f f Г(«ьЮа)е^ Jili^z^ZL^^ IWoo (2π)2 J J (ωυ—ω2) Τ 900, «BOO Но j. sjnfof—щ)Т _fl при ω! = ω2, r-ί-οο (ωχ—ω2)Τ (Ο при ω1=^:ω2. Поэтому вклад слагаемого Гг в предельное значение интеграла равен нулю и остается только сингулярное слагаемое Г, соответствующее интегрированию вдоль прямой ω1 = ω2: ΟΟ K(t) = -j J. Λ (α»,) el*'Λ»!. 164
Таким образом, S (ω) = Л (ω). Отсюда следует, что К (τ) однозначно определяется линейной массой на биссектрисе ωχ = ω2. Если эта масса равна нул^, что KJr) = 0. Пусть S ς (ω) и S η (ω) есть овредненные спектральные плотности процессов на входе и выходе линейной системы с частотной характеристикой К (jco). Тогда 5η(ω) = 5ι(ω)|^(}ω)|2. (2.3.101) Это следует из формулы (90), поскольку линейная масса Γη (соь со2) при ωχ = to2 равна соответствующей линейной массе Γδ (соь ω2), ум. ноженной на \К (j<°)|> Отсюда и из (98) следует, что 5"(со)>0. (2.3.102) Таким образом, осредненная спектральная плотность обладает всеми свойствами обычной спектральной плотности S (со) етационарных процессов. Аналогично тому, как выше были введены осредненная ковариационная функция и осредненная спектральная плотность, можно определить осредненную взаимную ковариационную функцию и осреднен- ную взаимную спектральную плотность. Коснемся кратко возможностей спектрального анализа самих случайных процессов. Для случайных процессов о конечной мощностью τ 0<lim-L Г ||(012^<оо ч (2.3Л03) в общем случае не существует преобразования Фурье. Однако, если условие (103) выполняется почти для всех реализаций процесса i (t)9 то такие процессы можно анализировать при' помощи так называемого обобщенного преобразования. Обобщенное преобразование G (ω) случайного процесаа ξ (t) определяется выражением 00 β(ω1)—0(ω2)= - * l(t)dt. (2.3.104) «о* ""** Видно, что G (ω) есть случайный процесс, определённый о точностью до произвольной постоянной. Положив в (104) ωχ = ω + ε, ω2 =* ω — 8, получим e.i(of -e 1(f) dt. SO© Поскольку exp (±}h) = cos fe ± j sin is, то G (ω + ε) — G (ω — ε) всть обычное преобразование Фурье процесса 2| (t) sin гШ. На осно- еании формулы обращения имеем 165
sine* efflss_L f e^ G(o)+e)-0(o>-8) rffff 2e Левая часть этого равенства стремится к ξ (/) при ε -> 0. Поскольку процесс G (со) не дифференцируем, то предельное соотношение можно записать в виде интеграла Стильтьеса: «о ξ(0=— f eWdGW. (2.3.105) ξ® ρ > 1" η J 6»2 «/" Ι Ι— » ΓΠ , Ot «> I f/« Й» Рис. 2.27. Две линейные системы Обобщенному преобразованию G (ω) можно дать наглядную интерпретацию. Рассмотрим идеализированную линейную систему с частотной характеристикой καω)=/2ππρΗω8<ω<ωι· (2.3.10О I 0 при других ω. Такая система имеет импульсную характеристику Hf) __ 2л С 2я J d**dtt 5 ω2 Если на вход такой системы воздействует случайный процесс ξ (t), то процесс на выходе системы определяется выражением ч<0 "1 Отсюда получаем jWl (ί—τ)_ p](ug (*«Τ) J ('—*> -ξ(τ)Λ. 4(0)- j — JT ξ (τ) dx=G (ωχ)—G (ω2). (2.3.107) Укажем основные свойства обобщенного преобразования G (со) для стационарного в широком смысле случайного процесса i (t) со спектральной плотностью S (ω). 166
1. Если ωχ > ω2, то ©ι Μ {| G (ω,)—G (ω2) |2} = 2π J 5 (ω) dco. (2.3.108) ω2 Действительно, пусть процесс ξ (/) воздействует на линейную систему (106). Тогда спектральная плотность стационарного процесса η (/) на выходе равна S (ω)\Κ (jco)|2 «= (2n)2S (ω) при ω2 < ω < ωχ и нулю при других значениях ω. Поэтому ωι ,21 _ (2π)« Μ{|η(0)|3> = -ί^>1 J S(co)dco. 0)a Но согласно (107) имеем M{l4(0)|2} = M{|G(Wl)-G(W2)|2}, откуда и следует равенство (108). Положив в нем ω2 = ω, ω1 = ω + ε, получим S (со) = ifan Μ{|0(ωι) -°(^Ί. (2.3.109) е-»0 2πβ 2. Приращения процесса G (со), отвечающие двум непересекающимся частотным интервалам, ортогональны, т. е. если ωχ > ω2 > ω8 > ω4, то Μ {[G (%)—G (ω2)] IG* (ω8) — G* (ω4)]} = 0. (2.3.110) Приведем доказательство этого результата. Предположим, что процесс ξ (t) воздействует на входы двух линейных систем с частотными характеристиками (рис. 2.27) (0 при других ω, (0 при других ω. Как показывает формула (44), стационарно связанные процессы на выходе линейных систем с неперекрывающимися частотными характеристиками всегда ортогональны, т. е. Μ {4l (0)η2 (0)} = Μ { [G (ωχ) -G (ω2)] [G* (ω3) - G* (ω4)]} = 0. 3. Математическое ожидание приращения процесса G (ω) определяется выражением M{GK)-GK)> = PM<^» "Ρ" <**<°«*> (2.3.111) I 0 при других ωΐ9 ω2. Это выражение следует из основной формулы (104): оо - =-? dt^ — J* :2М{Ш f 8*П<»''-8*П(**' dt, t 167
если учесть известный интеграл (* sin (ax) j к J-X2.rfx-_.egne. О Соотношения (ПО) и (111) показывают, что приращения процесса G (ω) на непересекающихся интервалах не только ортогональны, но и не коррелированы. Из (111) также видно, что математическое ожидание Μ {G (ω)} непрерывно при ω Φ О и Μ {G (0+) — G (0"")} = -= 2πΜ {I (t)}. 4. Перечисленные свойства обобщенного преобразования G (ω) были установлены для стационарного в широком смысле процесса ξ (f). Можно доказать обратное утверждение: процесс ξ (t) является стационарным в широком смысле, если и только если его обобщенное преобразование G (ω) есть процесс с ортогональными приращениями и математическое ожидание Μ {G (ω)} непрерывно при ωφΟ. 2.4. СПЕКТРАЛЬНЫЙ АНАЛИЗ ДЕТЕРМИНИРОВАННЫХ И СЛУЧАЙНЫХ ПОЛЕЙ Рассмотрим пока двумерное детерминированное поле ξ (я, у). Если функция ξ (xf у) периодична и удовлетворяет по обеим координатам условиям Дирихле, то ее можно представить двумерным рядом Фурье. Условие периодичности имеет вид I (*, У) = 1(х + kTXf у + ITV\ (2.4.1) где kt I — целые числа; Тх — пространственный период по координате х\ Tv — пространственный период по координате у. Двумерный ряд Фурье записывается в такой же форме, что и одномерный ряд, а именно: Ι (χ, у) = 2 Σ см ехР 0 (ku*x+luv у))· (2·4·2) Здесь их = 2п/ТХ9 иу = 2nlTy (2.4.3) представляют собой первые гармоники пространственных частот или волновые числа вдоль координат χ и у соответственно; chl — комплексный коэффициент Фурье: ТХТУ Cki^'Y^r- J J I (х* У)ехр (—j (kuxx + luyy)) dxdy. (2.4.4) 168
Ряд (2) можно также представить в вещественной форме 1(х, */) = я<х>+ 2 Σ 1аы™*(кихх + 1иуУ) + + bhl sin (kuxχ + luy y)]9 (2.4.5) из которой непосредственно видно, что двумерный ряд Фурье представляет собой разложение по пространственным гармоникам cos (kuxx + luyy) и sin (kuxx + Шуу). На рис. 2.28 показан вид одной из пространственных гармоник. Первое слагаемое а00 является постоянной составляющей или средним значением поля и определяется формулой τ τ 'χ 'у Αγ- f J К** У) dxdy- Яоо : (2.4.6) о о Рис. 2.28. Вид пространственной гармоники Коэффициенты аы и bhl определяются через интегралы τ τ 1 χ 'ν a>ki· ТХТУ Ьы = ' Г Г I (х* У)cos (kux x + luv У) dxdy> (2.4.7) о о ТХТУ V" f Г 6 <^» У)sin (*м** + 1иУ y)dxdy (2.4.8) β7* i/ If и представляют собой амплитуды соответствующих пространственных гармоник. Для непериодического по обеим координатам двумерного поля предельным переходом можно получить интеграл Фурье. С этой целью в выражение (2) подставим значение сы из (4). Тогда т„т„ ,fc*-J..,_S^vfiffe·' X X ехр (—j (kux x + luy у)) dxdy exp (j (kux χ + luy y)).
Сделаем в соответствии g (3) замену Тх = 2л/их, Ту = 2л/иу, после чего получим τ τ X exp (j (&их л: + /Wj, #)) ц* uy. Для непериодических полей ΤΛ -** оо, Ту -> оо, в силу чего иЛ -> duxt иу -► di/y, суммирование заменяется интегрированием, а дискретные ряды пространственных частот kux и /иу преобразуются в текущие частоты их и иу. В результате будем иметь оо оо ρ оо оо «I 1{х'у)=-&&- ί ί J" ί δ(*.id β-(*-*+·»·)Λ4ί χ fr-OO β— ΟΟ L — ΟΟ *— ΟΟ J χ ej (u* x+uv y) dux duy. Здесь внутренний интеграл представляет собой прямое преобразование Фурье (пространственный спектр) S(uxtuy)= J J Ux,y)t-](u*x+uvyUxdyy (2.4.9) ^ оо е— оо а внешний — обратное преобразование Фурье ОО 00 11*. У) щг J J S ("*, «,) e' <"* **■"» *> dux duv. (2.4.10) fc- ОО *—· ОО Приведенный анализ справедлив для полей любой мерности. В общем случае, если задано поле ξ (г), где г — я-мерный вектор, то пару преобразований Фурье можно записать следующим образом: оо S(u)= J i(r)e-J»'dr, (2.4.11) fc— ОО 00 |(r)=—!— Г S(u)eJ»'du, (2.4.12) (2π)η J — оо где интегрирование ведется по η-мерному объему; и = их> иуу ..., ип — вектор волновых чисел; г = ху у, ..., η — вектор n-мерного пространства; и · г = ихх + иуу +... + ипп — скалярное ч произведение векторов и и г. В частности, если задано поле вида ξ (χ, у, t)y то его пространственно-временной спектр определяется выражением S(uX9Uy,<o)= $ J J l{x,y,t)wv(—}(uxx + uyy-\-<s>f))x •β оо esoo ssoo Xdxdydt. (2.4.13) 170
Обратное преобразование Фурье в этом елучае имеет вид t(x, У, Ъ = -£-)Г J J J S ("*' uv> ω)χ ■ь-00 *■ 00 ««00 X exp (j (uxx-\-uyy + со*)) dux duy άω. (2.4.14) Укажем на одно важное свойство многомерного преобразования Фурье. Если поле, например ξ (х9 у, /), может быть представлено произведением 1(х.У^)=1г(х)12№ъа), (2.4.15) то, как нетрудно убедиться прямым вычислением, S (uxt иу, ω) = Sx (ux)S% (uy)Ss (ω). (2.4.16) V" \8(Ue,i!g)\ Рис. 2.29. Пространственная дельта-функция (α) и ее амплитудно-частотный спектр (б) Справедливо и обратное утверждение, т. е. если спектр поля представляется произведением S± (ux)S2 (uy)S3 (со), то поле также имеет вид произведения одномерных функций по соответствующим координатным осям Ει(*)ξι(?)ξ8(0· Для иллюстрации применения многомерного преобразования Фурье приведем пример. Пример 2.4.1. Спектр пространственной дельта-функции. Цель на экране радиолокатора с разверткой по координатным осям χ и у фиксируется в виде ярко светящейся точки. Требуется найти спектр пространственных частот отметки цели* Двумерный сигнал в виде яркостной отметки удобно аппроксимировать пространственной дельта-функцией (рис, 2*29, а) l(x9 y)=6bx—x0f у—Уо)=\ оо при х=х09 у=Уо* О при хфх0 уфуо. (2.4.17) Воспользовавшись прямым преобразованием Фурье (9) и учтя свойство пространственной дельта-функции (1-39), получим оо ео S («*, иу) = J J δ (*—*0, у-Уо) e_i (*"«+*"») dxdy -. - j (χ, αχ+^ в ) (2.4.18) 171
Отсюда видно, что амплитудно-частотный спектр | S (иХ9 иу)"\ = 1 является сплошным и равномерным на всей плоскости волновых чисел (рис* 2.29, б)» В том случае, когда поле задается не в прямоугольной, а в другой системе координат, его спектр имеет составляющие волнового числа в соответствующих координатных осях. Например, если поле ξ (ρ, φ) задано в полярных координатах ρ и φ, то спектр можно представить в виде S (ft, Θ) = f f Ι (ρ, φ) e^i <*ο+θ<ϊ» dpdtp. (2.4.19) Очень часто для решения различных практических задач требуется рассматривать спектр конкретного поля в разных системах координат. Например, если изучение морской поверхности ведется при помощи радиолокационной станции с радиально-круговой разверткой, то удобно пользоваться полярными координатами. Напротив, применение РЛС бокового обзора предполагает использование прямоугольных координат. Как известно, переход от прямоугольных координат к полярным и обратно выполняется в соответствии с формулами χ *= ρ eos φ, у = ρ sin φ, (2.4.20) ρ = VFT72, φ = arctg (ylx). (2.4.21) Для аргументов спектральных функций (9) и (19) можно написать аналогичные зависимости их = ft cos θ, Uy^k sin θ, (2.4.22) ft =Yu2x + u2y, θ = arctg (tiy/tix). (2.4.23) В случае двумерного поля его спектр в прямоугольных координатах связан со спектром в полярных координатах зависимостью S(tt»a*)-S(M)|Jt|f (2.4.24) где J2 — якобиан преобразования (3.2.46). Подставив новые переменные (20) и (22) в интеграл Фурье (9), имеем оо 2π ' S (ft, θ) s= f f S (ρ, φ) exp (— jpft (cos θ cos φ + sin θ sin φ)) pdpdcp. Если функцию ξ (ρ, φ) предетавить в виде ξ (ρ, φ) = j~"g (p)e^, то со 2π s (k, θ) = jen J С g (p) exp (— jpft cos (φ—Θ) + j/ιφ) pdpdcp. Обозначим φ — θ » α и запишем спектр в комплексной форме S (ft, θ) г= S (ft) e*e. Тогда оо 2π S(ft) = j*n f f g(p)exp(— jpftcosa + jwx)pdpda. 172
Учтем, что 2π /n(pft)==-L— I exp(~]pkcosa + ]na)da есть функция Бесселя п-го порядка. Поэтому оо S (ft) = 2jx j PJn (pft) g (p) dp. (2.4.25) Полученный интеграл дает связь между спектром в полярных координатах и функцией g (ρ) и называется преобразованием Ганкеля (Хан- келя). Существует обратное преобразование Ганкеля со g(9)=[bJn(pk)S{k)dk. (2.4.26) Если поле ξ (ρ, φ) обладает вращательной симметрией, то η = О, g (ρ) = ξ (ρ) и пара преобразований Ганкеля принимает вид оо S(k) = 2n\pJ0(pk)l(p)dp, (2.4.27) | (ρ) = f kJ0(p k) S (k) dk. (2.4.28). ■f Преобразования Ганкеля обладают рядом свойств, аналогичных свойствам преобразований Фурье [26]. Таким образом, для полей, обладающих свойством вращательной симметрии, целесообразно пользоваться полярными координатами (ρ, φ). Преобразование Фурье (19) в этом случае целесообразно заменить преобразованием Ганкеля, что позволит перейти от двумерной задачи к одномерной. В том случае, когда поле, заданное в полярных координатах, можно представить произведением I (Р. Θ) = ξχ (ρ)ξ, (θ), спектр так же, как и в (16), выражается произведением S (ft, θ) - Sx (k)S% (θ). Перейдем к определению спектральной плотности случайного поля. Подобно тому, как в случае детерминированного поля существует однозначная связь между спектром пространственных частот «S (их> иу) и полем I (х, у), для случайных полей имеет место аналогичная взаимосвязь между пространственной ковариационной (корреляционной) функцией и спектральной плотностью. Пространственно-частотную спектральную плотность S (и) однородного случайного поля ξ (г) определим как преобразование Фурье от ковариационной функции К(Аг) 173
S(u)= Τ /C(Ar)e-J°-riiAr, (2.4.29) где u — вектор волновых чисел; и ♦ Δγ — скалярное произведение векторов. Обратное преобразование Фурье в данном случае имеет следующий вид: #(Дг) = —— f S(u)eJ"-A'du. (2.4.30) (2π)" J Ш^· 00 Формулы, аналогичные (2.3.33), для случайных полей имеют вид S0 (u) = If R (Δ r) e-J · ·» dAt, (2.4.31) «to 00 00 #(Δγ)=-±— Γ S0(u)eiwrrfu, (2.4.32) (2π)Λ jJ^ 1где /? (Δγ) — корреляционная функция однородного случайного поля. Из (32) непосредственно следует связь между дисперсией поля и его пространственной спектральной плотностью D = R (0) = —!— f 50 (u) dn. (2.4.33) (2π)" J„ Необходимо иметь в виду, что интегралы, входящие в написанные формулы, /г-мерные. Для двумерного поля (η ~ 2) можно записать оо оо S0(ux,uy)= J J Л(Дх, A^e-'C-4*-··"»**) dAxdAy, (2.4.34) -—оо to» оо оо оо R (Ax, Ay) = -Л- j" f S0 («„ «,) e} <°*д*+и* Δρ) d«* du„, (2.4.35) to- OO Sto-OO OO OO D = /?(0, 0) = -Λ-. j J 50 («„, «,) rfa, </«„. (2.4.36) 9 OO tee OO Спектральные плотности S (u) и S0 (u) характеризуют распределение «энергии» поля по спектру пространственных частот. В дальнейшем мы не будем делать принципиального различия между S (и) и S0 (u), имея в виду очевидное соотношение между ними типа (2.3.34). Используя свойство четности корреляционной функции, формулы (31) и (32) можно записать в вещественной форме: оо S (и) = 2 f R (Δγ) cos (u .Δγ) d A r, (2.4.37) 174
00 R (Δ r) β w ίs (и) cos (α*Δ r) άη' (2,4·38) или для двумерного поля оо оо s (u>x> Uy) — 2 f \ R (Δ*» &У) cos (««. Ax + tiy Ay)dAxdAyf (2.4.39) 00 ОО R (Ax, Ay) = —2— Γ f S (ux, uy) ©os (ux Ax+uy Ay) dux duy. (2.4.40) (2я)2 J J о о Рис. 2.30. Спектральная плотность двумерного поля По аналогии с одномерным спектром можно ввести эффективную ширину спектра Ди8, определив ее формулой Δ uft=» u*~ £ 4fse(u)*. (Щп sm $ (2.4.41) Если для двумерного поля выполняется условие S (их, иу) = = S (ux)S (иу)> то говорят об эффективной ширине спектра пространственных частот вдоль соответствующих координатных осей. Например, 00 ОО *"*=TS5" ί S°{Ux) du*'Ыу="5δ~ ί 5°{Uy) dUy' {2AA2) где Sm — максимальное или какое-либо другое характерное значение спектральной плотности. На рис. 2.30 приведен пример двумерной спектральной плотности S0 (иХ9 иу) и показана эффективная ширина спектра. Когда заданы два однородных и однородно связанных поля ξ (χ, у) и Т1 (*» У) с известными взаимными корреляционными (ковариационными) функциями /?|η (Αχ, Ау) и /?η| (Αχ, Ay)t то применение к последним преобразования Фурье дает взаимные спектральные плотности 00 00 S*i ("*> и9) = | | #|η (Δα;, Δ у) e~J <u* д*+и» Δ*> d^rfAy, (2.4.43) №00 fee 00 175
S* («*, «») -J J ** ^ Δ#> e ' J(°* Дж+""M dA*dA#· (2·4·44) flt» CO SsOO На основании обратного преобразования Фурье имеем 00 00 #|η (Δ*. Δί/) = -^Γ j J 5|η («*,«,) e i(uxA*+V*) dux du„, (2.4.45) =—oo ~— oo OS OO .^(Δχ,Δί,)--^- J j S4li«*,K,)e3("*A*+"H'>dM"i,. «йвОО «00 (2.4.46) Так как взаимная корреляционная функция не обладает свойствами корреляционных функций и не обязательно должна быть четной, то не всегда ее можно представить в вещественной форме. Пример 2.4.2. Спектральная плотность суммы двух полей. Пусть заданы . два однородных и однородно связанных поля ξ (χ, у) и η (χ, у) со своими прост· ранственными корреляционными функциями R^, R^, R^, Rn^* В результате наложения полей образуется новое поле «*. У) - 6 (*. Ю + η (*. Vh (2.4.4?) Нужно найти связь корреляционной функции R^ (Αχ, Ay) и спектра 5ς (их, uy) с заданными. Корреляционная функция суммарного поля равна «ς (Δ*> АЙ-Л| (Δ** Δ0 +#η (Δ*· АЙ+Л6ч (Δ*, Ау) + +Ληδ (Δα:, Ay). (2.4.48) По формуле (34) находим спектральную плотность 5ζ (κ«· «»)-»S6 (*a, %) +5η (иа, Wy) +5ξη (ux, йу) +δη| (и*, «у). (2.4.49) Если поля ξ (#, у) и η (я, у) не коррелированы между собой, то R^ (Ax, Ay) «■ - R^ (Ах, Ау)=Оы Rz (Ax, Ay)=Rl (Ax, Ay) + «η (Αχ, Ау), (2.4.50) 5ζ («я» Яу)—^ («^ «9)+3η (m^i My). Эти формулы справедливы для суммы любого числа некоррелированных между собой полей произвольной мерности* Частным случаем однородных полей является изотропное однородное поле. Однородное случайное поле ξ (г) является изотропным, еели корреляционная функция R $ (Δτ) этого поля завиеит только от модуля |Δγ| и не зависит от его направления, т. е. еели R ι (Δγ) « R (га — rt) - R (Δγ). (2.4.51) Если условие (51) не выполняется, поле называется анизотропным. Графики корреляционной функции и спектральной плотности изотропных полей обладают вращательной симметрией. Поэтому двумер- 176
ные изотропные поля удобно задавать в полярных координатах, а трехмерные — в сферических. В этих случаях и корреляционная функция, и спектральная плотность становятся функциями одной переменной. , Для случайного двумерного поля спектральная плотность выражается через корреляционную функцию формулой (34). Переходя в ней к полярным координатам и учитывая, что якобиан преобразования равен р, получаем спектральную плотность оо 2Л S {k9 θ) = j* f R (Δρ, Δφ) exp (—j Δρ k (cos θ cos Δφ + мп θ sin Δφ)) ρ^Δρ^Δφ, Выполнив ь ~ ^ования, аналогичные сделанным при получении формулы (2Л для изотропного поля получим следующее выражение спектральной плотности: 00 S(k) = 2nj ApJ0(Apk)R(Af>)dbp. (2.4.52) Обратное преобразование Ганкеля будет иметь вид . 00 R (Δρ) = Γ kJ0(Ap k) S (k) dk. (2.4.53) Jo Если поле анизотропное, то желательно иметь количественную оценку степени отличия поля от изотропного. С этой целью вводится понятие коэффициента анизотропности поля Л. Для уяснения его смысла обратимся к рис. 2.31, на котором показаны угловые спектры поля S (Θ) для изотропного и анизотропного полей. В случае изотропного поля вероятностные характеристики не зависят от направления, и угловой спектр SH (θ) предотавляет собой прямую линию. Для анизотропного поля его свойства зависят от направления, и угловой спектр Sa (θ), показывающий распределение энергии поля по направлениям, выражается некоторой кривой. Формально функция*Sa (θ) может рассматриваться как некоторый процесс, состоящий из «постоянной составляющей» S (Θ) и «переменной составляющей». Интенсивность переменной составляющей будем оценивать средним квадратич- ческим отклонением Sa (θ) от S (θ): -а 2π 2 σ$ ~ 1/ USa (θ)~5 (8)1 αθ . (2.4.54) Коэффициент анизотропности поля представляет собой отношение А - as/S (θ), Α > 0. (2.4.55) Для изотропного поля переменная составляющая процесса Sa (θ) οτ· вутетвует, а$ = 0 и А = 0. Чем больше величина коэффициента анизотропное™, тем сильнее зависят вероятностные характеристики поля от направления. 177
Пример 2.4.3. Случайное поле с экспоненциальной корреляционной функцией. Пусть задано поле ξ (χ, у) с экспоненциальной корреляционной функцией {рис. 2.32) Вычислим спектральную плотность такого поля· 8W (2.4.56) M&#tyJ Рис. 2.31. Угловой спектр изотропного 5я(6) и анизотропного £а(6) полей Рис. 2.32. Экспоненциальная корреляционная функция (а) и соответствующая спектральная плотность (б) поля Для этого воспользуемся формулой (34): S(ux,uy)=D J J β*<β'Δ*Ι+ΗΔιτΙ)β-Ι(»χΔ*+^^)έίΔΛίΔ!ί8!β выполнив интегрирование, получим 4Ζ)αβ" (ο^+α»)(Ρ·+«·) (2.4.57) График спектральной плотности приведен на рис» 2*32. Предположим, что рассматриваемое двумерное поле с экспоненциальной корреляционной функцией является изотропным. В этом случае удобно поле задавать в полярных координатах ξ (ρ, φ). Корреляционная функция в силу изотропности поля является функцией одного переменного: Я(Ар)в/)ева|Д<Ч (2.4.58) Знак модуля в показателе экспоненты можно опустить, так как в полярных координатах Δρ не может быть отрицательным. Найдем спектральную плотность 5 (&), для чего воспользуемся преобразованием Ганкеля (27): 5 (k) = 2nD Г ДрУ0 (Δρ k) еваДр d (Δρ). 178
После интегрирования получим 4Ζ)ΐ/πΓ (3/2) (а2+^2)3/2 где Г (3/2)— гамма-функция. Видно, что каждая из функций R и S зависит от одного аргумента и симметрична относительно оси ординат. Таким образом, изучение корреляционных или спектральных свойств изотропных случайных полей сводится к анализу одномерных функций, являющихся более простыми по сравнению с многомерными. Пример 2.4*4. Спектральная плотность случайного поля с гауссовской корреляционной функцией. Если задано поле ξ (χ, у) о корреляционной функцией R (Ах, Ау) = Ое-{(хЛх2+*а1'2К (2.4.60) то вычисление спектральной функции дает следующий результат: woo мое nD 4 \ α β / Τ/αβ Видно, что случайное поле с гауссовской корреляционной функцией имеет так· же гауссовскую спектральную плотность* 2.6. ГАУССОВСКИЕ СЛУЧАЙНЫЕ ПРОЦЕССЫ В дополнение к принципу классификации случайных процессов, изложенному в начале § 2.1, укажем другой подход к классификации, из которого будет ясно, какое место занимают гауссовские процессы Среди других случайных процессов. После этого приведем определение гауссовского процесса и перечислим его характерные свойства. О классификации случайных процессов При перечислении методов описания случайных процессов указывалось (с. 98), что последовательность функций распределения Fn (*ъ —. *пш, tu ..., ίη) или плотностей вероятностей рп (xl9 ..., хп; *ъ ···! ^п)> я= 1, 2, 3, ..., представляет собой своеобразную лестницу: с ростом η они описывают случайный процесс последовательно все более детально. Однако многие физические процессы оказываются не столь сложными, чтобы для получения исчерпывающей информации о них требовалось знание всех рп; часто бывает достаточно знать лишь одномерную рх (х; t) или двумерную р2 fa, х2\ tly /2) плотность вероятности. Если эти плотности вероятности содержат все сведения о процессе, то по ним можно найти многомерные плотности вероятности. Отметим, что ι при решении мнргих научно-прикладных задач вообще не возникает необходимости обращаться к многомерным плотностям вероятности. Сложность описания случайных процессов, т. е. наибольший порядок м-мерной плотности вероятности, дающей достаточно полное описание случайного процесса, можно положить в основу классифи- 179
кации случайных процессов. По-видимому, простейшим классом являются случайные процессы, полное описание которых достигается указанием одномерной плотности вероятности рг (х; t), следующим классом являются процессы, описание которых дается двумерной плотностью вероятности р2 (*ι, х2\ к* t2) и т. д. Приведем несколько примеров, когда для полного описания случайного процесса достаточно задать одномерную плотность вероятности. Предварительно укажем, что многомерная плотность вероятности детерминированного процесса s (t) = / (t) дается выражением η Рп (*ι> .··. *п\ к> ..· Лп)= Π б (xi—f(ti)) , (2.5.1) а случайной величины λ с плотностью вероятности ρ (λ) — выражением Рп (К ... ,К) = Р (КШ δ (λ,—λ/+1). (2.5.2) Рассмотрим частный вид квазидетерминированного процесса θ одним случайным параметром s (t) = / (ί, λ), где / (t, λ) — детерминированная функция своих аргументов и λ — случайная величина. Укажем, что по определению квазадетерминированным называется процесс, реализации которого описываются функциями времени заданного вида s (t, %u λ2, ..., λη), содержащими один или несколько параметров λ = {λχ,..., λΛ}, не зависящих от времени. Ясно, что исчерпывающее описание процесса s (t) = / (t9 λ) дается плотностью вероятности ρ (λ) случайного параметра λ. Действительно, при фиксированном значении параметра λ функция / (ty λ) является неслучайной, и согласно (1) записываем условную плотность вероятности In Рп (Хи ..., хп\ h, ..., tn I λ) = Π δ (Xt—f (ίι, λ)). Безусловная плотность вероятности равна 00 Рп (х1* — у хп> ίΐ* — > ^л)== J Рп (ХЪ ··· » хп\ hf — tn Ι λ) Ρ (λ) <ίλ = в»00 -= f Ρ (λ) Π δ (*,—/ (tit λ)) d λ. (2.5.3) Имеется несколько моделей случайных процессов, значения реализаций которых в несовпадающие моменты времени ily t2t ..., tn считаются независимыми, и, следовательно, для таких процессов многомерная плотность вероятности равна произведению одномерной плотности вероятности: η Рп (*ι, ♦..» *п\ tu ..., t J =f Π Ρ (Xu h)- (2.5.4) Конкретным примером такого процесса может служить белый шум, описанный ниже. В пределе (при ti+l — tt -»- об) равенство (4) выпол- 180
няется для большинства реальных процессов. В частности, оно обычно выполняется для процессов на выходе физических систем с конечной постоянной времени те, если ^+1 — t% >тс, i = 1, 2, ..., η —1. Более широкий класс случайных процессов определяется двумерной плотностью вероятности р2 (#ъ х2; tly /2). Здесь можно привести несколько примеров (например, квазидетерминированный процесс о двумя зависимыми параметрами s (t) = / (ί, λχ, λ2) и др.). Однако мы укажем два типа случайных процессов из этого класса: гауссовские и марковские. Они наиболее хорошо изучены и широко используются при решении радиотехнических задач. Марковские процессы будут рассмотрены в § 2.6. Приведем определение гауссовских процессов. Гауссовские процессы и их основные свойства Вещественный случайный процесс ξ (t) называется гауссовским, если для любого конечного множества моментов времени flf ί2> ··» tn случайные величины ξχ = ξ (tt)t ..., ln = ξ (tn) имеют совместную нормальную плотность вероятности 0.4.40), (1.4.42) или характеристическую функцию (1.4.41), (1.4.40). Поскольку теперь случайные величины ξ μ = i (ίμ) зависят от выбранного момента времени *μ, то левые части указанных формул целесообразно обозначить Рп (*ъ ♦.. · *п> h, - , in) и Фп (/dlf..., /θη; flf..., ϊη), а математические ожидания дисперсии, и корреляционные функции *μ-ιΜίμ)«Μ{|(ίμ)}, ^-^«D!(^) = M{[i(^)-m^)]2}, #μν=#νμ=#^μ, <ν ) = Μ {[ξ (/μ ) — Iff* (<μ )] [ξ (<ν ) — ΑΙξ (<ν )]} = (2#5.5) = У D|(^)D|(?V) Γ|(ίμ, ίν), μ, ν=ΪΤη7 После такого уточнения обозначений применительно к гауссовским случайным процессам формулы (1.4.40)—(1.4.43) сохранят свой вид. Для примера перепишем формулу (1.4.43) = ехр Μ J ^('μ ) *μ 5" 2 «ξ ('μ . ίν ) Κ *ν ) . (2.5.6) \ μ«1 μ, ν=1 / Отметим, что фигурирующая в показателе квадратичная форма Q (&ь ···» *п) является неотрицательной*, т. е. *Если для всех действительных значений переменных xi9 IMf xn η Q(*ii.·.· *λ)« 2 anvxnxv>°> %v — av\xy μ, ν = 1 то форма Q называется неотрицательной квадратичной формой· Если знак равенства имеет место только тогда, когда все *μ равны нулю, то форма Q называется положительно определенной. 181
Q(^! Or,)= J) /?6(/μ,/ν)*μθν>0. (2.5.7) μ,ν=1 Это следует из того, что для любых вещественных Фь ..., ФЛ математическое ожидание неотрицательной величины не может быть отрицательным: Q (О* -. θα) = Μ J J В (/μ)- т (ίμ)] θμ j2> 0. Если принять математическое ожидание процесса нулевым (Ш| (ί) = 0), то, воспользовавшись обратным преобразованием Фурье (1.2.38), можно показать [8], что квадратичная форма в показателе формулы (1.4.42) является также неотрицательной: Для положительно определенной квадратичной формы Q этот результат следует из того факта, что квадратичная форма Q0 является обратной форме Q. Известно, что если Q — положительно определенная форма, то и Q0 также положительно определенная и наоборот. Формула (6), а также (1.4.42) позволяют указать несколько важных свойств гауссовских процессов. 1. Гауссовский случайный процесс исчерпывающим образом определяется указанием математического ожидания mi(t) и корреляционной функции R ι (iu t2). Действительно, в выражения для характеристической функции и плотности вероятности входят только математическое ожидание и корреляционная функция. Если на основании каких-либо соображений известно, что случайный процесс является гауссовским, то его я-мерные плотности вероятности и характеристические функции однозначно определяются математическим ожиданием и корреляционной функцией. Для гауссовских процессов все высшие кумулянты в формулах (1.3.49) и (1.3.58), начиная с κ3 и х11Ь равны нулю. Поэтому гауссовские процессы могут отличаться друг от друга только характером математического ожидания и видом корреляционной функции (спектральной плотности). Следовательно, корреляционная теория дает полное описание гауссовских процессов. 2. Для гауссовских процессов некоррелированность значений процесса тождественна их независимости. Пусть значения гауссовского процесса ξ (t) в моменты времени tlf /2, ..., tn некоррелированы, т. е. Rl(t»>tv) = 0 при μφν и /?ξ(ίμ, ^«Οξίίμ), μ,ν, = 1,Λ. В данном случае формула (1.4.42) с учетом введенных обозначений (5) примет вид Рп (*ι. ..., хп\ hf - >tn) = p (хг\ /χ)... ρ (χη\ /Λ) = 182
= (2n)-^[Dl(/1)...Dl(in)r^2expj—L V [*»n ?}[μ)]%\- (2.5.9) Следовательно, если рассматриваемые значения гауссовского процесса некоррелированы, то они и независимы. Нетрудно убедиться в обратном: если значения независимы, т. е. справедлива формула (9), то эти значения некоррелированы, поскольку Rl (/μ, Μ-Μ {[ξ (/μ)—m* (*μ)] [ξ (Μ—m* (ίν)]} -0, μ φ ν. 3. Для гауссовских процессов понятия стационарности в широком и узком смысле совпадают. Предположим, что выполняются условия W|(0 = m| =COnst, /?|(/μ,<ν)-=£ξ(|/μ — Μ) β #1 (%ν ) *= «Ζ)δ/Ί(τμν), μ, ν= ίΤ^Τ т. е. математическое ожидание не зависит от выбора момента времени и является постоянным, а корреляционная функция зависит лишь от абсолютного значения интервала между рассматриваемыми моментами времени. Тогда по определению гауссовский процесс является стационарным в широком смысле. Однако он будет одновременно стационарным и в узком смысле, так как при этом характеристические функции (6) и плотности вероятности (1.4.42) не будут изменяться при любом сдвиге всей группы точек tl9 t%, ..., tn вдоль оси времени на произвольную постоянную величину. При этом л-мерная плотность вероятности или характеристическая функция гауссовского стационарного процесса зависит только от η — 1 интервалов времени τμν =» |ίμ — tv\t поскольку один из рассматриваемых моментов времени tLt t29 ..., tn можно принять за начало отсчета времени. Для гауссовского стационарного процесса формулы (1.4.42) и (1.4.43) несколько упрощаются и их можно записать так: Р»(^....*п)-(2яО|)-»/«|г|-^ X х ехР on1. . Έ а^ (** ~т1> <*v ~~ m* > · (2.5.10) L 2^|ΓΙμ^1ΐ J Фп (J *ι, ... , J β») = exp (j «ξ 2 *μ — ~TDl Σ ПЬт )%**)- (2-5Л1) Здесь |г| — определитель матрицы, составленной из нормированных корреляционных функций, 183
K=' 1 П (τι2) П (Tsa) l r\ (τ2η) if I (*ш) '"i (τη2) ··. 1 r\ fruv ) — Γ\ (τνμ )> ''μμ — 1 > (2.5.12) °«ν — алгебраическое дополнение элемента Γ|(τμν) в- определителе |r|. Приведем явные выражения для одномерных и двумерных плот- новтей вероятностей и характеристических функций гауссовского стационарного процесса, которые легко получаются из основных формул (10) и (11): />(*) = - Уъф. •ехр Г (*-™ξ)2 1 I Щ У Φ (j Ъ) =.ехр (j щ * —Х- Dx &\, 1 (2.5.13) (2.5.14) X хехр (2.5.15) 2«Dg Vl~r|(x) (хг — т% )2—2Γξ (τ) (*х—т% )(*2—/κξ ) + (*2—^ξ )2 2^[1-г|(т)] Ф2 0*ь J*2;T) = exp{jml(^1 + u2)-^Dl[uf + 2rl(T)u1^2+^]j. / (2.5.16) Применительно к стационарному процессу \ (t) выражения для моментов (1.4.46) примут вид Μ [ζ (/,) I (h) I (Q l {Щ =7?! (τη) Я* (τ43) + #ξ (τ31) *ξ (τ42) + + Rl Ы #s (τ4ι) + IRi Ш + Ri (τ«) + #1 (%) + Rl fo2) + + #ξ (τ82) + #ΐ (τ*)] m|+mft (2.5.17) откуда при τ21 = τ48 = 0 (т. е. хп = τ32 = τ^ = τ42 = τ) получим Μ {ξ2(0ξ2(ί + τ)}=/)| + 2Λ|(τ) + 2[β| + 2£ξ(τ)] mf+m|. (2.5.17') Характеристическая функция (6) позволяет сравнительно просто вычислять многомерные моменты гауссовского стационарного процесса. Предположим, что математическое ожидание процесса равное нулю (/7Ζξ = 0), т. е. будем рассматривать центрированный процесс I (0 == 1о (0· Для Центрального n-мерного момента ν = (νχ + ν2 + 4-... + vn)-ro порядка согласно определению (1.3.57) можем написать М{6?(/,)6?(/|)...6>»п)}- - (- 1Г dv d$vi 0 φη α*ι j*») ι bee <►$= 0 * (2.5.18) №
где φ» ο*ι ю=фп ϋ<Μ)=.βχρ[—i-^ 2 ^ω^Ο. (2.5.19) oo На основании известного разложения е~* = 2 (—\)тхт1т\ выраже- ние (19) для характеристической функции можно представить в виде бесконечного ряда ф- °β;,,-ί^[,1!,*!,*·*)Η*· ** 20) Таким образом, характеристическая функция представляет собой ряд, каждый член которого содержит переменные Φ в разных комбинациях и с разными степенями. Если fy входит в степени меньше vu то в результате выполнения дифференцирования по Ф| (18) член g $t будет равен нулю. Если же показатель степени ϋ^ больше ν?·, то соответствующий член будет также равен нулю, поскольку после дифференцирования нужно полагать 4г= 0. Следовательно, в выражении характеристической функции Фп (j#; t) интересующий нас центральный момент определяет слагаемые ряда (20), которые содержат сомножитель d^Oj* ... $1пФ Из (20) видно, что это может иметь место только при m= v/2. Даже в этом случае имеются слагаемые, которые не влияют на вычисляемый момент. Кроме того, если ν — нечетное число, то соответствующий момент для гауссовского процесса равен нулю. Поэтому при вычислении нашего момента нужно учитывать только члены с т = ν/2: χ д- [α η -|ν/2ι 2 Σ «е <*») *ι θ J . (2.5.21) ί=1*=1 J |все«4=0 Рассмотрим частный случай, когда η = 4 и все vt = 1: X #| (TU) ftt fl>ft fy ftj |BOe ^.o. Отличными от нуля будут только члены, для которых гфкф1Ф /. Всего будет 24 таких члена, вклад каждого из которых равен #ξ(τιΛ)#ξ(τζι)/8. Так как R^ (xik) = R$ (xki), то можно показать, что 185
= Rl (τ2ι) Ri (*4s)+Rt (τ8ι) Ri (τ42)+/?ΐ (τ32) Ri (τ4ι). (2.5.22) Это выражение, как и следовало ожидать, совпадает с (17) при тх = 0. 4. Условные плотности вероятности значений гауссовского случайного процесса являются нормальными. Для гауссовского процесса из очевидного соотношения ph (х19..., xh\ Xk+u ..., хп)=*Рп (*ъ - > Xn)/Pn-k (Xk+\,..., xn) (2.5.23) следует, что в правой части стоит отношение двух показательных функций, причем показатели этих функций есть квадратичные формы относительно х%. Это отношение является показательной функцией; показатель есть полином второй степени относительно хг, ..., xk. Следовательно, выражение (23) представляет собой нормальную плотность вероятности (1.4.63), которая определяется k + (M2)k (k + 1) параметрами: Μ {ξ| \Xk+U ... > Xn], M {It 5j|** + b ...» Xn)> h /= Ь ... , k. Эти параметры зависят от xft+1, ..., χη. 5. В результате линейных преобразований гауссовских случайных процессов получается также гауссовский процесс. Если на вход линейной системы с импульсной характеристикой h (t, τ) воздействует гауссовекий случайный процесс ξ (t), то при выполнении надлежащих условий интегрируемости процесо t η(0=ΓΛ(*.τ)ξ(τ)Λ, (2.5.24) получающийся на выходе системы, будет также гауссовским (см. с.482). Справедливо и обратное утверждение: если каждый линейный функционал* от ξ (/) есть гауссова случайная величина η (t), то ξ (t) является гауссовским случайным процессом. Это важное свойство часто принимается за исходное определение гауссовского процесса ξ (t) [271. Можно сказать, что гауссовские процессы обладают свойством «устойчивости» по отношению к линейным преобразованиям [28]. 6. При нелинейных преобразованиях свойство гауссовости утрачивается. Если гауссовский процесс ξ (/) подвергается нелинейному преобразованию, например, вида η (/) = / (ί, ξ (t)), где / — нелинейная функция относительно ξ, то процесс η (t) будет негауссовским. В частности, в результате перемножения двух гауссовских процессов получается негауссовский процесс (см. (3.3.17)). Однако если негаус- совекий случайный процесс с временем корреляции τκ воздействует на инерционную линейную систему (с постоянной времени тс), то процесс на выходе такой системы приближается к гауссовскому (плотность вероятности стремится к нормальной). Это приближение тем лучше, чем сильнее выполняется неравенство тс > τκ (см. §5.10). Укажем, что при рассмотрении функциональных преобразований гауссовских стационарных процессов и необходимости получения ко- ♦Функционалом называется математический закон, в силу которого каждой функции соответствует значение числового параметра. 186
личественных результатов в дополнение к разложению (1.4.36), во многих случаях оказывается полезным следующее разложение двумерной нормальной плотности вероятности: Λ(*ι. *2)=*σ-2 2 ^Φ(η+!)(^)Φ(Λ+!)(τ')Γδ (τ)· (2·5'25) Здесь математическое ожидание процесса принято нулевым, Φ (χ) — интеграл вероятности (1.4.5); Ф(,1> (х)— производные η-го порядка от интеграла вероятности, которые табулированы до η — 20 [11). Это выражение легко получается из (1.4.36), если, учесть, что производные от интеграла вероятности просто выражаются через полиномы Чебы- шева—Эрмита (1.4.37): ф(п-Ы) (χ) = (_ \)п φ' (χ) нп (χ). (2.5.26) 7. С помощью линейного преобразования коррелированные значения гауссовского случайного процесса можно привести к некоррелированным. Заметим, что если корреляционная матрица (1.4.39) является диагональной, т. е. все /?μν = 0 при μ Φ ν, то совместно гауссов- ские случайные величины являются некоррелированными. Поэтому линейное преобразование, в результате которого корреляционная матрица для преобразованных величин будет диагональной, приводит к совместно гауссовским некоррелированным величинам. Методика приведения матрицы к диагональной форме о помощью линейного преобразования известна [371. 8. Оптимальной оценкой значения гауссовского случайного процесса (по критерию минимума среднего квадрата ошибки) через предыдущие значения процесса является линейная оценка, как и в случае совместно гауссовских случайных величин. При этом для случайного процесса остаются справедливыми формулы (1.4.56) и (1.4.57). Отметим, что этим свойством обладают также сферически инвариантные случайные процессы η (/), представимые в виде [29] а it) - А % (t), (2.5.27) где ξ (t) — гауссовский случайный процесо о нулевым математическим ожиданием; А — не зависящая от ξ (t) случайная величина. Если Ρ {А = 0} = 0, то реализации случайного процесса rj (t) обладают многими свойствами гауссовских процессов. 9. Гауссовские случайные процессы с дробно-рациональной спектральной плотностью являются одновременно марковскими [171. Гауссовские случайные процессы наиболее часто встречаются на практике и поэтому занимают особое место среди других случайных процессов. Большинство встречающихся на практике электрических случайных процессов, таких, например, как дробовой шум, тепловые флюктуации, собственный шум типового радиоприемника до детектора, атмосферные и космические шумы, представляют собой суммарный эффект большого числа сравнительно слабых элементарных импульсов, возникающих в случайные моменты времени. Согласно центральной предельной теореме теории вероятностей плотность вероятности 187
суммы неограниченно приближается к нормальной с увеличением числа слагаемых независимо от того, какие плотности вероятности имеют отдельные слагаемые. При этом важно лишь, чтобы влияние отдельных слагаемых на сумму было равномерно малым (приблизительно одинаковым). Рассмотрим два примера, представляющих самостоятельный интерес. Пример 2.5.1· Оптимальная экстраполяция гауссовского стационарного процесса. Требуется получить оптимальную экстраполяционную оценку гауссовского стационарного процесса ξ (t + λ) в момент времени t + λ, предполагая известным статистическое поведение процесса при —оо <. t' ^.t. Примем для простоты математическое ожидание процесса нулевым (//и = 0). Поскольку для гауссовского процесса оптимадьная оценка (по минимуму среднего квадрата ошибки) является линейной, то будем искать оценку в виде процесса на выходе стационарного линейного фильтра с импульсной характеристикой h (t)t удовлетворяющей условию физической возможности (h (i) = 0 при t < 0): оо t l(t+\)=\l(t-x)h(x)dx= I l(y)h(t-y)dy. (2.5.28) О —«оо Оптимальная характеристика h (t) по аналогии с (1.4.56) определяется из условия ортогональности ошибки располагаемым данным: M<\i(t+b)-]l(t--x)h(x)dx U(oJ = 0, f <t. Отсюда для определения h (t) получаем интегральное уравнение Винера—Хоп- фа: R%(t+b—0 = f RtV— х — t')h (x)dxt Г<£, (2.5.29) или ?ξ(*+λ—0=|#ξ('— x— t')h (x)dxt Г<* 00 Λδ(¥+λ) — J #ξ(υ—x) h(x)dxf τ—t—t' >0. (2.5.30) Если импульсная характеристика линейного экстраполирующего фильтра определена из этого уравнения, то согласно (1*4*57) минимальное значение сред·· него квадрата ошибки дается формулой eSiin=M ξ (*+λ)-| \ (t-x) h (x)dx h (*+λ)} = оо = #ξ (0)—J #ξ (—λ—*) h (x) dx. (2.5.31) Формулы (30) и (31) остаются в силе и для случая текущей фильтрации, т. е, при λ = 0. Заметим, что уравнение Винера—Хопфа (30) допускает следующую интерпретацию; Интеграл справа представляет собой реакцию линейного фильтра h (τ) на входной сигнал R% (τ) (рис* 2,33), Как следует из уравнения (30), эта реакция равна R* (t + λ) и получается сдвигом R~ (τ) на λ, Это справедливо толь· ко при τ > Oj при τ < 0 выходной сигнал не равен R* (τ + λ), Очевидно, что в отсутствие наблюдения средний квадрат ошибки равен Μ{ξ2('+λ)}=*ξ(0>=Ζ)Ι· J88
Наличие наблюдения на интервале —оо «< V ^ t уменьшает средний квадрат ошибки на величину 00 ОО J #ξ(—b—x)h(x)dx=$ Rl(k+x)h(x)dxi (2.5.32) представляющую собой реакцию системы h (τ) при τ = —λ (рис. 2433)« Пример 2.5.2. Условные плотности вероятности и оптимальные оценки. Используем принцип получения оптимальных оценок гауссовского процесса для вычисления условных плотностей, вероятностей, Предположим, что гауссовский процесс ξ (t) имеет нулевое математическое ожидание (т^ (ή = 0) и заданную корреляционную функцию Я- fa, t2). Получим выражение условной плотности вероятности ρ (χ, 11 | fa) = хг). i ί J ^ с ь > λ ^ 3* τ" hit) > у j ■ и r ,^— *, -3r -Я i 7 Τ Рис. 2.33. Иллюстрация оптимальной экстраполяции гауссовского стационарного процесса Согласно (L4.52) условное математическое ожидание Μ {§ (t)\ ξ (fy)} пропорционально ς (*χ): Μ {ξ (ή | ξ (*ι)}= 6ξ fa). Эта условное.математическое ожи- дание является оптимальной оценкой ξ (*) при заданном ξ (fy). Поэтому в соответствии с формулой (1.4.56) разность ξ (t) — b\ fa) ортогональна (а при m& =» = 0 и независима) о ξ (^): M{i6(0-^(«I6(«}-Of /?g(Mi)-№s<ijfft). (2.5.33) Кроме этого, условная диспероия ξ (t) при заданном ξ (*j) совпадает о минимумом среднего квадрата ошибки, определяемого формулой (1*4*57): *Siin =М {β Ю -« (Ί)]2} - Μ {[ξ (О -6ξ («J ξ (0} - =#ξ(ί* t) —Щ V* к). (2.5.34) При найденных значениях Ь и втш записываем интересующую нас условную плотность вероятности 9{х% ί 16 (« —«£) —(2пв*|1ц)-1/2 ехр [—(л—6)2/28^ιη]. (2.5.35) При нахождении условной плотности вероятности для % (t) при фиксированных значениях ξ fa) н £j(*2) поступаем аналогично. При этом придем к фор· муле (1.4*59). Воспользовавшись формулами (33) и (34), применительно к стационарному процессу ζ (Ϊ) получим Μ {ξ (t +λ) Ι g (0} -ξ (<) R% (λ)/^ (0) f Di «+λ> ί δ (0 βΜ {[5 <' +λ> -^ Ю % (λ>//?& (°>]2} - -Λξ(0)—Λ|(λ)//?6(0). 189
Если рассматривать только те реализации стационарного гауссовского процесса ξ (/) с нулевым математическим ожиданием, которые в заданный момент времени t имеют одно и то же фиксированное значение (рис» 2.34k то их математическое ожидание в момент времени t + λ пропорционально /?. (λ)· Для малых значений λ имеем 2 -Г* «|(Ч)- w—/?|(0)λ», ί?| (0) Λξ \»Ι ί. - ί\ξ | τ, е. условное математическое ожидание в зависимости от λ изменяется по пара· боле, а диспереия пропорциональна λ2. Аналогичные результаты можно полу· чить и для случая, когда фиксировано не одно, а несколько значений случайно· го процесса. \1%#+аЛ?С0 t+λ /ftf(W\№} Рис. 2.34. Поведение условного математического ожидания и условной дисперсии гауссовского стационарного процесса Наконец, получим плотность вероятности экстраполированного на λ значения гауссовского процесса | (t + λ), предполагая известным статистическое поведение процесса до момента t> т. е. при —оо < V < L При этом гауссовский процесо ξ (0 по-прежнему считаем стационарным g нулевым математическим ожиданием· Докажем, что Μ{5(*+λ)|ξ(*'). *'<*}-J ξ </-*)* (*)<**, (2.5.36) о где h (0 — решение уравнения Винера—Хопфа (30). Действительно, интеграл справа представляет собой наилучшую оценку | (t + λ) в зависимости от предыдущих наблюдений ξ (*')» ? < U Поэтому разность оо ξ(ί+λ) —f ξ(ί—x)h(x)dx ъ ортогональна располагаемым данным, т. е. | (*') при *' < £, Но по предположению математическое ожидание процесса равно нулю, При этом указанная разность не коррелирована и не зависима от ξ (£'): Mk(t+X)-jt(t-x)h(x)dx\l(t'),t'<t U = Mh(t+X)--]l(t-x)h(x)dx\ = 190
Кроме того, Mjf l(t—x)h(M)dx\l(r)· *'<t }-f t(t-x)h(x)dx, так как подынтегральное выражение зависит только от предыдущих значений» Отсюда и следует формула (36). Таким образом, плотность вероятности экстраполированного значения ξ (t + λ) гауссовского стационарного процесса в предположении, что известно поведение ξ (?) при ? ^ t, является нормальной с математическим ожиданием (36) и дисперсией 00 =/?ξ (0) —J /?δ (λ +*) Λ (a;) dx. (2.5.37) ο Последнее соотношение написано с учетом (31) и (32). Ясно, что импульсная характеристика h (t), условное математическое ожидание и дисперсия будут зависеть от λ. Некоторые дополнительные сведения о гауссовских процессах будут приведены в § 3.3. Белый шум и его модели Рассмотрим стационарный случайный процесо п0 (t)t корреляционная функция которого равна дельта-функции, умноженной на некоторую постоянную величину NJ2 (рис. 2.35): R W = Rn0 (τ) - Ν0 δ (т)/2. (2.5.38) Как известно (см. приложение I), дельта-функция равна нулю всюду, за исключением точки τ = О, где б (0) = со, причем интеграл от дельта-функции по любому интервалу, содержащему особую точку τ = О, равен единице. Отсюда следует, что рассматриваемый случайный процесс характеризуется тем, что значения п0 (t) в любые два несовпадающих, но сколь угодно близких момента времени не кор- релированы. Если считать процесо п0 (/) гауссовским, то они и независимы. Поэтому такой процесс nQ (t) условно можно назвать абсолютно елунайным процессом. По формулам (2.3.3) и (2.3.25) с учетом (1-6) находим спектральную плотность процесса се S0 (f) - J # («)е"i2m & - Τ - Gonst· $t if) = No> (2.5.39) ев 00 Таким образом, спектральная плотность постоянна при всех частотах (рис.-2.35). Величину N0 иногда называют интенсивностью процесса щ (t). Случайный процесс п0 (t)9 обладающий равномерным спектром в очень широком диапазоне частот, принято называть «белым шумом» по аналогии с белым светом, имеющим в видимой части равномерный сплошной спектр. 191 )-
Для белого шума формула (2.3.6) дает физидески неправдоподобный результат: дивперсия (средняя, мощность) такого шума D = оо и для него нельзя аналитически записать даже одномерную плотность вероятности. Этот результат объясняется тем, что белый шум следует рассматривать как математическую идеализацию, так как все реальные процессы всегда имеют спектральную плотность, убывающую при очень высоких частотах, и, следовательно, обладают конечным временем корреляции тк#0и ограниченной средней мощностью. Белый шум является полезной математической идеализацией, применяемой f№ 2 О а) \Νπ •st(f) Sa(f) f ю 0,8 0,6 0,4 0,1 О I % i" 7Г гЯ Θ Рис. 2.35. Корреляционная функция (а) и спектральная плотность (б) белого шума Рис. 2.36. Зависимость коэффициента частотной депрессии от угла пролета электронов в тех елучаях, когда в пределах амплитудно-частотной характеристики интересующей нас системы спектральную плотность внешнего воздействующего реального шума можно приближенно считать постоянной или, иначе, когда время корреляции шума много меньше всех существенных постоянных времени системы, на которую воздействует шум. Приведем два конкретных физических примера флюктуационных шумов, которые часто рассматривают как модели белого шума, и укажем правило замены реального случайного процесса на белый шум, когда в этом возникает необходимость. Дробовой шум электронных ламп. Спектральную плотность флюктуации анодного тока электронных ламп в ряде случаев можно представить формулой St (f) - 2eI8F*~ (θ), θ - 2π/τ0, (2.5.40) где β = 1,6 · ΙΟ""10 Κ — заряд электрона; τ0 — время пролета электрона в лампе; /8 — эквивалентный ток «насыщенного» диода. Можно показать, что при некоторых условиях справедлива приближенная формула (рис. 2.36). F? (θ) ^ 36Θ-6 [2 + (1/4)θ4 + (θ? — 2) cos θ — 2Θ είηθ]. (2.5.41) Если лампа работает при частотах /, для которых угол пролета электронов в лампе мал (ωτ0 = 2π/τ0 <ζ 1), то F% (θ) тъ 1 и при таких 192
углах пролета спектральную плотность можно считать равномерной: S$(f) = 2els (NQ = 2el8). (2.5.42) Так, при τ0 ~ 10~9с вплоть до частот в сотни мегагерц спектр будет постоянным. Однако, разложив cos9 и sin6 в ряды, из (40) и (41) получим конечное значение дисперсии флюктуации анодного тока: оо D = j S+ (f) df ~ 2е1я τ0-4 (2.5.43) о Следовательно, флюктуации анодного тока электронной лампы можно трактовать как белый шум лишь при частотах, для которых угол пролета электронов в лампе много меньше единицы. Тепловой шум. Известно, что спектральная плотность напряжения теплового шума резистора R определяется формулой Найквиота: SJ (f) = 4kTR (N0 = AkTR), (2.5.44) где k = 1,38 · 10""23 Дж/К — постоянная Больцмана; Τ — температура сопротивления в градусах Кельвина (при Τ = 290 К постоянная kT = 4 · Ю-21 Вт/Гц). Из формулы видно, что спектральная плотность теплового шума постоянна и, казалось бы, тепловой шум является идеальным примером белого шума. Однако следует иметь в виду, что формула (44) справедлива лишь при не очень высоких частотах. Она получается из точной формулы (рис. 2.37) S0+ (f) = 4kTR JL(WT-irK (2.5.45) где h = 6,62 * 10"34 Дж«о — постоянная Планка, при hflkT < 1. При нормальной комнатной температуре даже на миллиметровых волнах неравенство hflkT < 1 практически выполняется. Поэтому в радиотехнике оправдано применение приближенной формулы (44). Однако при вычислении дисперсии теплового шума необходимо пользоваться точной формулой (45): оо D = 4kTR Г -£jr (eh"kT — 1)-l df = = MTR — f xdx = — (kTf R. (2.5.46) h J e* —1 %h В радиотехнике часто встречаются задачи анализа воздействия шума с весьма широкой плавной сплошной спектральной плотностью на сравнительно инерционные («узкополосные») системы. Для упрощения решения подобных задач, не делая при этом большой ошибки, реальный воздействующий широкополосный процесс (шум) можно заменять на «эквивалентный» белый шум п0 (/). Отметим, кстати, что при оперировании с корреляционной функцией вида (38) во избежание 7 Зак. 956 193
tif/kT Рис. 2.37. Спектральная плотность теплового шума недоразумении следует всегда помнить, что дельта-функция δ (τ) имеет размерность, обратную размерности аргумента. Можно указать следующее приближенное условие и правило замены реального стационарного процесса (шума) на белый шум. Пусть рассматривается воздействие на некоторую систему с постоянной времени тс реального стационарного шума ξ (t) с корреляционной функцией /? ξ (τ) = Ζ)ξ Γξ (τ), характеризуемой достаточно широким сплошным спектром 50(/) и, следовательно, малым, но конечным временем корреляции τκ <^ тс. В данном случае реальный шум можно рассматривать как белый. За значение спектральной плотности NJ2 «эквивалентного» белого шума можно взять значение S0(0) = S0(/ = = 0), которое по формуле (2.3.3) равно оо оо Jh = S0 (0) = Г Rb (τ) dx = 2 Γ R% (τ) άτ. (2.5.47) Разумеется, что такая замена реального шума на белый допустима только в тех случаях, когда она не противоречит смыслу решаемой задачи и не приводит к физическим недоразумениям. Иногда поступают наоборот: предельный переход к белому шуму осуществляют не на начальной стадии анализа, а в конечных результатах. При этом можно предложить несколько моделей реальных процессов, позволяющих сравнительно просто выполнить вычисления и осуществить такой переход. Одним из примеров белого шума может служить случайная последовательность дельта-импулыюв Ak$(t — tk) вида (2.7.100), когда моменты появления импульсов tk распределены во времени по закону Пуассона (2.2.51). Если в формуле (2.7.105) положить /ι(ί) = δ(/), то получим, что корреляционная функция такой бесконечной импульсной последовательности имеет вид (38): оо R (τ) = λ Μ {Л2} f δ (t) δ (t + τ) at = λ Μ {Л2} δ (τ). (2.5.48) В качестве моделей гауссовского белого шума часто используют гауссовские стационарные процессы с двумя видами спектральных плотностей и соответствующих им корреляционных функций: 5|0 = { NJ2, |/| <Δ /, 0, |/| >Δ/, #gW = W0 sin (2πΔ/τ) 2πυ (2.5.49) 194
Из (49) видно, что, выбирая Δ/ достаточно большим, можно получить произвольно малую корреляцию между двумя значениями процесса g (tt) и ξ (t2), разделенными заданным интервалом \t2 — *il> > δ. Однако заметим, что для заданного Δ/ значения процесса в моменты времени tx и t2 в общем случае коррелированы, когда ί, и t% выбраны достаточно близко; они не коррелированы лишь при условии 1*2 — к\ = τμ — μ/2Δ/, μ = 1, 2, 3, ... Предел корреляционной функции (49) при Δ/ -> оо стремится к нулю для τ Φ О и R^ (0) = = Ν0 Δ/ стремится к бесконечности. Воспользовавшись формулами (1-7) и (1-14), можно убедиться, что lim /?ξ(τ) = Ν0δ(τ)/2. Предельные значения для выражений (50) g учетом правила (47) имеют вид lim Stf) = N0l29 lim Ri(x) = N0 δ(τ)/2. Отметим, что процесс η(/) = f(t)n0 (t), где f(t) — детерминированная функция, можно назвать нестационарным белым шумом, С учетом (38) корреляционная функция нестационарного белого шума равна R о (tu *■) = (NJtyVuPiWt* ~ Ί) - WJ2) \f ft)|2 δ (t2 - tx). (2.5.51) Наоборот, если η (t) — такой процесс, что /?„ (tl9 fQ) = /(^)δ(ί2 — ^ι), то процесс п0 (t) = η (t)/Vf (t) является стационарным белым шумом с корреляционной функцией R (τ) = δ (τ). Нетрудно убедиться, что корреляционная функция и спектральная плотность случайного процесса Я (0 β >*о (*Мо cos (ω0< + φ), (2.5.52) получающегося в результате перемножения белого шума nQ (t) и гармонического колебания со случайной фазой, равномерно распределенной в интервале (—π, π), равны #п (τ) = N0 At δ (τ)/4, S+ (/) = Ν0 АЦ% (2.5.53) Для этого нужно воспользоваться формулой (2.2.46) и учесть выражения (38) и (2.2.84). Определим пространственный белый шум. Пространственный белый шум есть однородное случайное поле п0 (х, у), имеющее корреляционную функцию R (Ах, Ау) = (Ы0/2ЩАх, Ау). (2.5.54) Такая запись означает, что рассматриваемое поле в двух сколь угодно близких точках пространства не коррелировано. Такие поля иногда называют абсолютно случайными или дельтакоррелированными.
По формуле (2.4.34) находим спектральную плотность белого шума S (их, иу) = ЛЬ. j ] δ (Δ*, Ay) е~'(Ах"*+ ^ d (Δ*, d {Ay). ^ со e»oo Используя свойство пространственной дельта-функции (1-39), получаем S («α, иу) = ЛГ0/2 = const. (2.5.55) Спектральная плотность постоянна для любых значений пространственных частот. Отметим, что при моделировании гауссовского белого шума на ЦВМ, а также при аналитическом рассмотрении разнообразных задач, связанных со случайными последовательностями (в частности, с предельным переходом от них к непрерывнозначным процессам), вводится понятие дискретного гауссовского белого шума. Под дискретным гауссовским белым шумом обычно понимают стационарную случайную последовательность независимых случайных величин, каждая из которых имеет одну и ту же нормальную плотность вероятности (как правило, о нулевым математическим ожиданием). Необходимая конкретизация этого понятия будет дана в последующем там, где это необходимо. 2.6. МАРКОВСКИЕ ПРОЦЕССЫ В радиотехнике и автоматике большую роль играют случайные процессы, получившие название процессов Маркова или процессов без последействия. Этот класс случайных процессов впервые систематически изучался известным русским математиком А. А. Марковым. Хотя наблюдаемые физические процессы обычно не являются в точности марковскими, однако в большинстве случаев их можно рассматривать как компоненты векторного марковского процесса, поскольку поведение большинства динамических систем в некоторый момент времени может быть описано конечным набором переменных состояния. Таким путем удается получить ряд конкретных результатов, применяя эффективные математические методы, хорошо разработанные для исследования марковских процессов. Методы теории марковских процессов подробно рассмотрены в [17]. В данном параграфе кратко изложены основные теоретические сведения и рассмотрены примеры, носящие иллюстративный характер и представляющие самостоятельный интерес. Как и при общей классификации елучайных процессов, в зависимости от того, непрерывное или дискретное множество есть область значений процесса ξ (/) и область определения параметра t, различают четыре основных вида марковских процессов: марковские цепи {марковский процесс, у которого область значений и область определения — дискретные множества), марковские последовательности (марковский процесс, у которого область значений — непрерывное множество, а область определения — дискретное), дискретный мар- 196
Классификация марковских процессов Таблица 2.1 Тафтца 1.1 \Ъначшя[ ирер- Значения процесса мента Дискретные Непрерыдныр ι ч a#i) si >ί S *J !yf tff tf tz ti t Цепь Марнобсг Марнобсная последовательность •о ! Bit) at" ВёЗё to t Дискретный марнойснии процесс* to t Непрерыднозначныи марнобснай процесс ковский процесс (марковский процесс, у которого область значений — дискретное, а область определения — непрерывное множество) и не- прерывнозначный марковский процесс (марковский процесс, область значений и область определения которого — непрерывные множества). Характер скалярных временных реализаций перечисленных процессов показан в табл. 2.1. Помимо четырех оеновных видов возможны другие, более сложные процессы марковского типа [17]. Марковским процессом называется случайный процесс, для которого при фиксированном ξ (и) случайные величины ξ (/), t> и не зависят от | (s)f s<Z и. Таким образом, определяющее свойство всех видов марковских процессов состоит в следующем. Случайный процесс ξ (ί) является марковским, если для любых η моментов времени ίλ<. t2<C ... < tn из отрезка [О, Т] условная функция распределения «последнего» значения ξ (tn) при фиксированных значениях ξ (ίχ), ξ (ί2), .··, i (*»-i) зависит только от ξ (ίΛ_ι), т. е. при заданных значениях ξΐ9 |а, ..., Ъп справедливо соотношение />ff(in)<6n|6(/1)«b...-.6tti-i)eb«-i}=» (2.6.1) 197
Для трех моментов времени tt > tj > tk формула (1) принимает вид Ρ {δ (tt) < ЫЕ (h) = 6fc, Ε (h) = Ы = Р {Ε tt) < Ει IE (tj) = = hi - (2.6.2) Поэтому часто говорят, что характерное свойство марковских процессов состоит в следующем: если точно известно состояние марковского процесса в настоящий момент времени (tj)t то будущее состояние (при ί|) не зависит от прошлого состояния (при tk). В качестве определения марковского процесса можно также принять следующее соотношение, имеющее симметричный вид относительно времени: P{l(ti)<L· E(^XEftIE(*/) = E;} = - Ρ {Ε (tt) < ΕιΙΕ (tj) = h)P {I dk) < U\l (tf) = ЕЛ- Такая запись означает, что при фиксированном состоянии процесса в настоящий момент времени tj будущее (при U) и прошлое (при tk) состояния марковского процесса независимы. Из приведенных определений следует, что для марковских процессов /г-мерная плотность вероятности (или функции распределения), которая дает наиболее полное описание любого случайного процесса, может быть представлена в виде Ρ (Ει, Ε2,.... Ε η) = Ρ (Ιύ *Π ρ (Ь+11 δι). (2.6.3) i=\ Это означает, что любое /г-мерное распределение марковского процесса может быть найдено по формуле (3), если известны одномерное распределение процесса и условные плотности вероятности (или вероятности) перехода. Укажем еще одно общее и важное свойство непрерывных во времени марковских процессов: для них эволюция вероятности перехода Ρ {Ι (ί) < EIE (t0) = Eo} описывается уравнением вида jjP = %P> (2.6.4) *де Χ — некоторый линейный оператор (матрица, дифференциальный оператор и др.). Это позволяет исследовать статистические характеристики подобных марковских процессов с помощью хорошо разработанных методов решения соответствующих дифференциальных уравнений. Характер начальных и граничных условий для уравнения (4) может быть различным и определяется существом решаемых физических задач. Рассмотрим способы описания и некоторые методы решения основных задач для указанных четырех видов марковских процессов. Цепи Маркова Пусть случайный процесс θ (t) может принимать конечное число К дискретных значений 0Ь θ2, ...9ϋ>κ. В некоторые дискретные моменты времени (t0 < tx < t2 < ...) значение процесса в зависимости от вме- 198
шательства случая скачкообразно изменяется, т. е. имеют место переходы θ0 ->· θχ -* θ2 ->- ..., где ΘΛ = θ (tn) τ— значение процесса через η шагов, а θ0 = θ (t0) — начальное значение. Предполагается, что вероятностные законы изменения значения случайного процесса на каждом шаге из любого состояния fy, i = 1, /С, в любое другое состояние θ;, / = 1, /(, известны. Характерное свойство простой цепи Маркова состоит в том, что вероятность значения процесса Qn в момент времени ta зависит лишь от того, какое значение имел процесс в непосредственно предшествующий момент времени tn_u и не зависит от значений процесса в более ранние моменты времени, т. е. Ρ {Θη |θ0, θχ, ..., Θ„_,} = Ρ {ΘΛ | βη_χ). (2.6.5) Можно также ввести определение сложной цепи Маркова порядка т (т> 1), если вероятность нового значения процесса зависит только от т значений, непосредственно ему предшествующих: ΡίθηΙθοΑ,..., Θ^-Ρ^ΙΘ^,.... θ^}. (2.6.6) Так как сложная цепь Маркова порядка т при помощи известной [17, 191 методики может быть сведена к простой цепи Маркова для /n-мерного вектора, далее ограничимся рассмотрением только простой цепи. Для простой цепи Маркова совместные конечномерные вероятности определяются формулой Р{%, 6b...f θη} = Ρ{θ0} Π Ρ{%.\%^} (2.6.7) Условные вероятности Ρ {θμ|θμ_ι } принято называть вероятно- стями перехода из состояния θμ_! в состояние θμΒ момент времени ίμ. Одна из основных задач в теории простых цепей Маркова заключается в следующем. Пусть задано начальное значение процесса при t0 и на каждом шаге по времени указан вероятностный закон смены значений процесса между всеми возможными состояниями (т. е. заданы соответствующие вероятности перехода). Каким образом можно найти вероятности различных значений процесса в момент времени tn > U и» в частности, при η ->> оо? Введем следующие обозначения для вектора-столбца безусловных и матрицы условных вероятностей: Р(п) = Шп)] = [Р{вп = Ък}]; Π (μ, η) = [nik (μ, п)\ = [Ρ {θη = $k Ι θ„ = Φ,}]; uk=\TK\ 0<μ<η; д = 07Ж (2.6.8) Величина Pk (p) есть безусловная вероятность значения 0^ на п-м шаге (т. е. в момент времени t = tn), а условная вероятность njh (μ, η) определяет вероятность значения bh при tn, если в более ранний момент времени ίμ < tn значение процесса было равно #/. Очевидно, что введенные вероятности неотрицательны и удовлетворяют условию нормировки 199
Ph (n) > О, 2 pft (η) - 1, η = О, УУ, ' (2.6.9) Щи (μ* η) > Ο, 2 πΛ (μ, η) = 1; / = ΓΚ. (2.6.10) На основании правила полной вероятности для введенных вероятностей (8) можем написать уравнения Маркова Ρ (η) = IP (μ, η) Ρ (μ), (2.6.11) Π (μ, η) = Π (μ, m) Π (m, /г), η > m > μ > 0. (2.6.12) Расписывая последовательно формулу (12), имеем Π(μ,Λ)=β"ΪΓ1Π(μ + ί,μ + ί+1). (2.6.13) Отсюда видно, что для определения матрицы Π(μ, η) при всех μ < η достаточно знать последовательность матриц одношаговых вероятностей перехода. С учетом соотношений (7) и (11)—(13) приходим к заключению, что полное вероятностное описание простой цепи Маркова достигается заданием вероятностей начального состояния и последовательности матриц вероятностей перехода. Среди простых цепей Маркова различают однородные и неоднородные. Однородная цепь характеризуется тем, что вероятности перехода Π (μ, η) зависят только от разности аргументов, т. е. Π (μ, η) = Ц (η — μ), η > μ > 0. (2.6.14) Обозначим матрицу одношаговых вероятностей перехода Π = ~П (1). Из (13) следует, что для простой однородной цепи Маркова матрица вероятностей перехода за η шагов равна η-Ά степени матрицы одношаговых вероятностей перехода Π (η) = Π", (2.6.15) а вектор-строка вероятностей различных значений процесса определяется уравнением Р* (п) = рт (0)1К (2.6.16) Однородная цепь Маркова, для которой вероятности Ρ (ή) = Ρ не зависят от я, называется стационарной, в противном случае цепь называется нестационарной. В общем случае вероятности Р, если они существуют, находятся в результате предельного перехода Р = ПтР(я) (2.6.17) и называются финальными вероятностями. Однако если начальные вероятности Ρ (0) совпадают с соответствующими финальными вероятностями Р, то цепь Маркова будет стационарной начиная с ΐ0. Финальные вероятности должны удовлетворять системе К линейных алгебраических уравнений (I — IF) P = 0, (2.6.18) 200
где I — единичная матрица, и дополнительному условию SA-1, Л>0. (2.6.19) fc=rl В еилу условия (10) К уравнений (18) являются линейно-зависимыми. Поэтому К финальных. вероятностей следует определять из К— 1 уравнений (18) и уравнения (19). Классификация состояний цепи Маркова производится в зависимости от того, может ли процесс из данного состояния попасть в другое данное состояние. Состояние $j называется невозвратным, если существует такое состояние ftk (k Φ /) и такое число шагов л, что π^ (η) > 0, но nkj (m) = = 0 для всех т. Все остальные состояния называются возвратными. Таким образом, из невозвратного состояния с некоторой вероятностью всегда можно за какое-то число шагов перейти в другое состояние, однако вернуться из этого другого состояния в первоначальное невозможно. Возвратные состояния предполагают возможность и обратного перехода, причем число шагов при прямом и обратном переходах может быть произвольным. Если существуют такие состояния fy и Фл, что для них при некоторых пит выполняются условия nJh (η) > 0 и nkj (m) > 0, то они называются сообщающимися. Очевидно, что если fy сообщается с $к, a#ftc fy, то fy сообщается с Ό^. Это обстоятельство позволяет разделить множество возвратных состояний на подмножества сообщающихся состояний. При этом состояния, принадлежащие различным подмножествам, не сообщаются между собой. Множество возвратных сообщающихся состояний называется эргодическим. Цепи, состоящие из единственного эргодического множества, называются эргодическими цепями. Если, начиная с некоторого достаточно большого п0, все элементы матрицы П" положительны для всех п>п0, то такая цепь называется регулярной эргодической цепью Маркова. Для такой цепи после достаточно большого количества шагов процесс может находиться в любом состоянии независимо от начального значения. Если никакая степень матрицы Π не является положительной матрицей (различные степени содержат нули на разных местах) и с увеличением степени расположение этих нулей циклически повторяется, то такая цепь называется циклической эргодической цепью Маркова. Для такой цепи можно перейти из каждого состояния в любое другое только при некоторых специальных значениях числа шагов п. Отметим, что для циклических цепей предел (17) не имеет места, так как последовательность П" не может сходиться. Однако в [301 показано, что в этом случае последовательность Ип суммируема по Эйлеру и финальные вероятности Ρ в этом смысле существуют. Если для любого η вероятность nfk (η) = δΜ, где 6ih — символ Кронекера, то состояние fy называется поглощающим. Наличие в цепи Маркова поглощающих состояний, после попадания в которые случайный процесс уже не меняет своих значений, радикальным образом изменяет характер процесса по сравнению ео случаем отсутствия 201
таких состояний. Если среди всех состояний цепи Маркова имеется хотя бы одно поглощающее и в него можно попасть из любого другого состояния, то такая цепь называется поглощающей. Предположим, что в цепи Маркова имеется L поглощающих и К — L невозвратных состояний. Пронумеруем сначала все поглощающие состояния (ϋί9 ...,ΰι), а затем все остальные (#ь+ь ···> ®κϊ· Тогда матрицу одношаговых вероятностей перехода можно представить в канонической форме я-Щ (2.6.20) где I — единичная матрица, порядок которой L X L определяется числом поглощающих состояний; 0 — матрица размером L X X (Д — L), все элементы которой равны нулю; Q — матрица размером (К — L) X (К — L), которая описывает поведение процесса в множестве невозвратных состояний до перехода в поглощающие состояния; R — матрица размером (К — L) X L, которая характеризует переход из невозвратных состояний в поглощающие. Следуя 1301, введем следующие обозначения: п7 — время, проведенное в состоянии ΰ^ до поглощения; Τ — полное число шагов до поглощения; bif — вероятность поглотиться в состоянии fy, исходя из fit при η -> оо; Нц — вероятность того, что процесс когда-нибудь побывает в Ф,, выходя из fy; m — полное число невозвратных состояний, в которых процесс побывал до поглощения; Мг {f} и Dt {[} — математическое ожидание и дисперсия функции / при условии, что начальное значение процесса равно fy; ξ— вектор-столбец, все элементы которого равны 1; A8q — матрица, полученная из А возведением в квадрат каждого элемента; Adg — матрица, полученная из А заменой всех элементов, не лежащих на главной диагонали, нулями. Можно показать [30], что в этих обозначениях основные статистические харатеристики поглощающей цепи определяются соотношениями Ν- ΙΛ1, {η7·}1 = (I-Q)-\ (2.6 21) N2 = lDt {nj}) = N (2Nd, - I) - Nsg, (2.6.22) B = [feu]= NR, ' (2.6.23) Η = Ihij) = (N — I)N#, (2.6.24) τχ - [Μι {Τ}] = N|, (2.6.25) τ* = ID, {T}) - (2N - 1)τ± - (xx)3q, (2.6.26) μ = ΙΛίι {m}] = (NNJ/)|. (2.6.27) Матрица Ν, определяемая формулой (21) и играющая важную роль при нахождении остальных характеристик процесса, в теории поглощающих цепей Маркова называется фундаментальной. Если Ρ (0) — начальное распределение для поглощающей цепи и Р' (0) состоит из 202
последних К — L компонент вектора Ρ (0), т. е. Р' (0) дает начальные вероятности среди невозвратных состояний, то lMp{f})^P,(0)lMi{f}l (2.6.28) Равенство (28) позволяет найти статистические характеристики (21), (22), (25)—(27) для произвольного начального распределения невозвратных состояний поглощающей цепи Маркова. Для эргодических цепей Маркова также можно ввести фундаментальную матрицу вида Z=(I- П + G)-1, (2.6.29) где G — матрица, каждая строка которой равна вектору Рф финальных вероятностей (17). Обозначим через Мг = [mt1\ и D = Ыи\ матрицы, элементы тц и dtj которых есть математическое* ожидание и дисперсия времени первого достижения состояния ftf из начального состояния *,· (все состояния предполагаются возвратными). Эти матрицы могут быть получены с помощью (29) по формулам [30]: MlS=(l-Z+EZd,)Gd„, (2.6.30) D = М1 <2Zd, Gdg— 1) + 2 Стг - Ε (ΖΜχ)^)- Μ, Mlf (2.6.31) где Е — матрица, у которой все элементы равны единице. Применение аппарата теории цепей Маркова оказалось весьма плодотворным при анализе работы устройств цифровой обработки радиолокационной информации [31], цифровых систем фазовой синхронизации [32], для описания помех в каналах связи [33], при синтезе оптимальных приемников систем передачи цифровой информации [34] и при решении других практически важных задач. Формулы (21)—(27) и (29)—(31) удобны для расчетов на ЦВМ. Получение аналитических результатов при больших значениях К — L по формулам (21)—(27) и больших значениях К по формулам (29)— (31) затруднительно, что связано с трудностями обращения матриц высокого порядка. При наличии в простой цепи Маркова одного или двух поглощающих состояний в случае, когда матрица вероятностей перехода имеет трехдиагональную ленточную структуру (у нее могут быть отличны от нуля только элементы, стоящие на главной и соседних с ней диагоналях), некоторые статистические характеристики поглощающей цепи можно получить аналитическими методами решения разностных уравнений с помощью производящей функции. Покажем это на примере решения задачи о случайных блужданиях между поглощающим и отражающим экранами [35]. Пример 2.6· 1. Одномерные случайные блуждания. Рассмотрим одномерные дискретные случайные блуждания частицы на некотором ограниченном отрезке [с, d] оси Θ, представляющие собой простую однородную цепь Маркова с конечным числом состояний дь .... дм (рис. 2.38), Пусть в некоторые дискретные моменты времени /*=* 1,2, ,„, я, ... возможны переходы из любого состояния #7 £ (с, d) в три ближайшие состояния #/+i» ®J> ®J-i с вероятностями я7·; j+± = = ρ, jtj j = 1 — ρ — q, я/, 7·_ϊ = q. Примем, что движение частицы ограничено в точке с поглощающим, а в точке d упругим жестким экранами [17J. Наличие 203
экранов означает, что если частица попадает в поглощающее состояние Ф|, то на этом движение заканчивается (вероятность перехода Пц = 1), а если она попадает в состояние ϋκ, то в следующий момент времени частица с вероятностью г попадает в состояние fl^_i (т. е* пк к_} = г) либо с вероятностью 1 — г остается в течке ά (τ* е* пк к = 1 — г), Требуется вычислить статистические характеристики поглощения из произвольного начального состояния Ф/ £ (с, d|, в частности вероятность поглощения ва η шагов: ff=P{Qi>c,...9 θη_ί>0, Θη=^|θ0=θ7·}# (2.6.32) Для вероятности поглощения (32) при η = О имеем очевидное равенство 1 при /=1, О при ]'ф\. Г={ (2.6.33) W///////////////////////////////////////////////////. о м κ-*ί а · · · · * ψ-ρ-ν · · «- '■ · ■ ш ■ ♦ ■ · · · т · ■ ·Α ι · · >■ > „1 I Ъ Ь 5 $ 7 8 $υη-1 η t 1 Рис 2.38. Дискретные случайные блуждания при наличии отражающего и поглощающего экранов Оно означает, что частица, находящаяся в положении с, поглощается в момент времени η = 0 с вероятностью единица» Матрица вероятностей перехода размером К X К в этом случае имеет вид Ί 0 0 0 п = q l~-p—q Я 0 1- г -Я Ρ l-'J Вероятнвсть (32) поглощения эа л шагов из начального состояния <Ь может быть вычислена с помощью соотношения (16), в котором нужно положить рт (0) = |*, где Щ ~ вектор, у которого равны нулю все элементы, кроме ξ, « = L Очевидно, что в данном случае /}п) = р% {п)„ Остальные характеристики поглощения могут быть получены по формулам (21)—(28)* Однако, как уже отмечалось, при больших значениях К эти вычисления становятся громоздкими и могут быть выполнены только на ЦВМ» Чтобы получить некоторые статистические характеристики поглощения аналитически, поступям следующим образом* Пусть Ап означает событие «по* глощение произошло в точке с в момент t = η». Тогда ΛΛ) « Ρ {Ап | θ0 « φ Л, Если на первом шаге частица перешла в состояние $j+j, то для осуществления события Ап необходимо, чтобы произошло событие An„t при начальном уело· вии θ0 *= ^j+i· Поэтому вероятность того, что частица перешла в состояние $Ш и событие Ап произошло, равна рР {Ап^ | θ0 — fy+l}· Учитывая все возможные на первом шаге переходы, получаем 204
ρ {Αη | θ0=#7·} = Ρρ {Лп-i Ι θ0 = 0/+ι} + (1 —Ρ—<0 Ρ {Αη-ι Ι θ0-#7·} + +<^{Λη-ιΙΘ..«θ*-ι>. Согласно (32) это означает, что искомая вероятность поглощения удовлетворяет разностному уравнению #e)«p/ftln+(l-P-f) /r~l)+<Lln, /=2, Л-1. (2.6.34) Для уравнения (34) согласно (32), (33) имеют место следующие начальные и гра· ничные условия: /^ = 1 при двО, /[Л)=0 при пф03 /£>«(!—г) fg-^+rfgZp при η ^ 0. (2.6.35) Решение разностного уравнения (34) с начальными и граничными условиями (35) можно получить с помощью производящей функции, По определению производящая функция вероятностей поглощения за η шагов равна оо л = 0 Умножив обе части уравнения (34) на ^ и просуммировав по всем я, для Fj (s) получим разностное уравнение . Pj^alpFj+t + Q—P—DPi+Qfj-ii. (2.6.37) Аналогично из (35) найдем граничные условия для уравнения (37) Fa«l, FK = s [(1—г) ^к + г^к-1]. (2.6.38) Введение производящей функции (35) позволяет свести разностное уравнение (34) от двух переменных η и / к разностному уравнению (37) только от одной переменной /. Этот прием аналогичен использованию преобразования Лапласа для решения дифференциальных уравнений в частных производных, а производящая функция является дискретным аналогом характеристической функции для непрерывных процессов. Общий метод решения однородных линейных разностных уравнений типа (37) состоит в подстановке Fj (s) = λ/, определении корней получающегося характеристического уравнения и постоянных общего решения из граничных условий (38). Проделав соответствующие выкладки, для производящей функции вероятностей поглощения получим /jgV-l (Xf-/- λ*-*) (i+sr-s)-sr (λΚ-/-ΐ- λ*-/-ΐ) FiiS)\p) (λΚ»1_λΚ-1)(1+5Γ_5)_,Γ(λΚ-2_λΚ-2) · (2.6.39) где корни характеристического уравнения даются выражением 42 (s) -0-* О-Р-0 ± Vfl—« О-Р-*)]1—4/**} (2ρβ)-1. Вероятности /jrt> могут быть получены разложением (39) по степеням s" с помощью довольно громоздских вычислений [17]. С использованием свойств производящей функции (35) могут быть просто найдены компоненты векторов математического ожидания (25) и дисперсии (26) времени до поглощения 205
Например, для среднего времени до поглощения из начального состояния. ■&j в рассматриваемом примере из (39) и (40) при г Φ 0 получим · Я (Р-д+г) 17 q у-к / я V-«l j-1 *- r(p-# L17J ~{Т) Г7=7* * С помощью (41) и (39) можно получить аналитическое выражение для дисперсии времени до поглощения, которое здесь не приводится из-за его громоздкости· Дискретные марковские процессы Пусть по-прежнему скалярный случайный процесс θ (/) может принимать только дискретные значения Ьг, Ф2,..., т}к, но смена этцх значений происходит не в фиксированные, а в любые случайные моменты времени (обобщение на многомерный случай будет дано в следующем разделе). Для вектора-столбца безусловных вероятностей и матрицы вероятностей перехода аналогично (8) введем обозначения Ρ (t) β [Pk (/)] « [Ρ {θ (t) = *k)l, Π (t0, t) = lnjk (t0, 01 = [Ρ {Θ (t) = τ>,|θ (ί0) = 0,}1, /, ft« 1, Κ, 0<f0<*. (2.6.42) Очевидно, что введенные вероятности неотрицательны и удовлетворяют условию нормировки А С» 0, 2 а (0=1. (2.6.43) π*(ίο, ϊ)>0, 2 "/fcCo, 0« 1, /= 1, К. (2.6.44) Кроме этого, для вероятностей перехода аналогично (12) справедливо уравнение Колмогорова—Чэпмена Π (t0, t + Δ/) = Π (f0, 0 Π (f, * + Δ/), Ο t0, Δ/ > 0. (2.6.45) Характерное свойство дискретных марковских процессов, для которых, смена состояния может происходить в любые случайные моменты времени, состоит в том, что для малых приращений времени At вероятность nkk того, что текущее значение не изменится, превышает вероятность изменения этого значения, т. е. nkk (t, t + At) = 1 + akk (t)At + о (At), nkj (t, t + At) - akj (t)At + о (At), (2.6.46) где символом о (At) обозначены члены выше первого порядка малости относительно Δ/, т. е. lim [о (Δ/)/Δ/1 = 0. Это свойство называется Δί-*0 свойством ординарности [17]. Согласно (44) из (46) следует, что аьъ (0 = - 2 flW (0 < 0, akj (t) > 0. (2.6?47) Ί+Ь 206
Кроме того, имеют место очевидные равенства Π <f0f t0) « I, (2.6.48) Π (/, / + Μ) = I + A (t)M + ο (Δ/), (2.6.49) где А (/) называется матрицей инфинитизимальных вероятностей перехода. Подставив (49) в правую часть уравнения (45) и перейдя к пределу при At ->- 0, получим уравнение Колмогорова JL Π (/0, t) = Π (/о, t) A (0, (2.6.50) ot общее решение которого с начальным условием (48) при А (/) = А = = const имеет вид матричной экспоненты Π (*ο,· t) = ехр ΙΑ (t — t0)l (2.6.51) Аналогично (51) решение уравнения (50) с помощью замены переменной по времени может быть также получено при A (t) = / (/)А, где / (f) — произвольная скалярная функция времени: Π (/0, 0 = ехр А|/(т)ст . Для произвольных матриц А (/) решение уравнения (50) в принципе можно отыскать методом последовательных приближений [37]. Дискретный марковский процесс остается марковским и в обратном направлении времени. При этом наряду с уравнением (50), часто называемым прямым, справедливо также обратное уравнение Колмогорова ^- И (t0, t) = — А (/0) Π (t0, 0, t > t0. (2.6.52) Для безусловных вероятностей состояния аналогично (11) справедливы соотношения Ρ (/) = Π- (t0i t)P (/0), (2.6.53) P(t + At) = Π* {U t + At) Ρ (/). (2.6.54) Из (54) и (49) для безусловных вероятностей состояния получим дифференциальное уравнение 4-Р(0 = А*(/)Р(0, (2*6·55) at решение которого при А (/) = А = const согласно (51), (53) имеет вид Ρ (t) = {ехр [А* (/ — /0)]}Р (*0). (2.6.56) Дискретный марковский процесс называется однородным, если матрица вероятностей перехода Π (/0, t) зависит только от разности τ = t — t0, т. е. Π (/0, t) = Π (t — t0) = Π (τ). (2.6,57) 207
Из (46) следует, что для однородного дискретного марковского процесса матрица инфинитизимальных вероятностей перехода А не зависит от времени и уравнения (50), (55) имеют решения (51), (56). Классификация состояний однородного дискретного марковского процесса полностью аналогична классификации состояний однородных цепей Маркова (нужно только вместо числа шагов η рассматривать интервал времени t — t0). Соответственно различают эргодичес· кие и поглощающие дискретные марковские процессы. Для эргодического дискретного марковского процесса существует стационарное (равновесное) распределение вероятностей состояний Р, которое определяется из К — 1 уравнения А*Р = 0 (2.6.58) и условия lift-1· (2.6.59) Если обозначить через G = ξ Рт матрицу, у которой каждая строка равна вектору ΡΊ вероятностей стационарного распределения4, то аналогично (29) можно ввести фундаментальную матрицу эргодического дискретного марковского процесса Ζ == (I — Π + G)-1 - (G -r A)-1. (2.6.60) Тогда для матриц математического ожидания [тц\ и дисперсии Idij] времени первого достижения состояния fy из Фг справедливы следующие соотношения [36]: Шг « Ыц\ = (ESdg - Ζ + G) Gdg, (2.6.61) D = idij] - 2 ΙΜΑ^ + SMX — Ε (SM^l — MJWi, (2.6.62) где S = Ζ — G. Для однородных дискретных марковских процессов с поглощением матрица вероятностей перехода (57) аналогично (20) может быть записана в канонической форме г ι ι о Ί [R(0 Q(0J (2.6.63) Π »I + lira [Π (0— !]/< -1 + A = —J— . (2.6.6,4) "Ш В этом случае элементы фундаментальной матрицы поглощающего процесса дают среднее время до поглощения, проведенное в состоянии dj при начальном состоянии Ф,-, а сама фундаментальная матрица аналогично (21) равна N = (I — Q)-4 (2.6.65) 208
Можно также показать [36], что для статистических характеристик поглощения справедливы выражения N2 = Ν (2Nd, - I) - N№ (2.6.66) B= NR, (2.6.67) τχ = Щ (2.6.68) τ2 « 2Ντχ — (τ^, (2.6.69) Q (t) = exp [(Q — I)fl, (2.6.70) R(/) = B— NQ(f)R. t (2.6.71) Очевидно, что такая аналогия однородных дискретных марковских процессов с цепями Маркова не случайна. Это объясняется тем, что согласно принятой классификации к дискретным марковским процессам относится, в частности, процесс в непрерывном времени с со* стояниями Фь ..., Фк, смена которых происходит в фиксированные моменты времени t = пТ (п = 0, 1, ...) , а на интервале I (п — 1)Т, пТ] значение процесса постоянно. Не претендуя на строгое математическое изложение, покажем, что такой дискретный процесс может быть исследован аппаратом теории цепей Маркова. Действительно, так как смена значений происходит в фиксированные моменты времени, то A (t) = Α δ (t — пТ)9 η = 0, 1, ..., А «= const. Для^ матрицы одношаговых вероятностей перехода соответствующей цепи Маркова аналогично (51) получим Π = Π (1) = exp (A). (2.6.72) Это означает, что если задана инфинитизимальная матрица А однородного дискретного процесса и моменты смены состояний точно известны, то такой процесс всегда может быть описан цепью Маркова с ма-. трицей вероятностей перехода (72). Отметим, что обратное, вообще говоря, неверно. Если задана цепь Маркова с матрицей вероятностей перехода П, то описать ее с помощью дискретного процесса с матрицей А можно не всегда. Это связано с тем, что А = In П, (2.6.73) а матричный логарифм определен только при условии |λ$— 1|< 1, i = 1, /С, где λ$ — собственные числа матрицы П. Дискретные марковские процессы находят широкое применение в теории массового обслуживания [38—40] и теории надежности [41— 43]. Они также используются в качестве моделей дискретных сообщений и помех в теории оптимальной нелинейной фильтрации [44]λ для математического моделирования систем связи с многостанционным доступом 145] и для решения многих других задач. Отметим, что если интересоваться статистическими характеристиками случайного времени между сменами состояний дискретного марковского процесса, то можно прийти к понятию точечного процесса 20$
(см. например, [17]), а соответствующие характеристики могут быть получены методами теории точечных процессов. Приведенные выше формулы удобны для вычислений на ЦВМ для конечных значений К и при небольших значениях К позволяют также получить аналитические результаты. Если число состояний дискретного марковского процесса бесконечно (но счетно!), то в некоторых случаях статистические характеристики для такого процесса удается получить решением соответствующих дифференциальных уравнений. Применение этих методов рассмотрим на простых примерах. ч Пример 2.6.2. Процесс рождения и гибели. Рассмотрим дискретный марковский процесс θ (t) со счетным числом состояний 0, 1, 2, iti> /, ii>9 который в случайные моменты времени может скачкообразно переходить в соседние состояния (т. е. значение процесса θ (t) может измениться на ± 1). Такой процесс называется процессом рождения и гибели, так как в частном случае он хорошо опи- сывае? статистическое поведение популяции бактерий [46]. Вероятности перехода процесса рождения и гибели удовлетворяют следующим соотношениям: Я/.у+ι (i, t + M) = Xj (0 At+o (At), пи , (tJ+At)~\- [λ,(0 + μ* <*)]Δ*+ο(ΔΟ, (2.6.74) , π/,/~1 0·' + Δ*)βμ> (0 Δ/+ο(Δ*). Из (49) следует, что инфинитизимальная матрица A (t) в данном случае имеет трехдиагональную ленточную структуру (такие матрицы часто называют кон- тину антами 146]) и элементы этой матрицы равны а* (°Н „ /а . . / (2.6.7.5) μ; (0» & = /-—1; 0 для остальных /, k > 0. Так как размерности соответствующих матриц и векторов в рассматриваемом примере не ограничены, получить вероятностные характеристики на основании (51), (56) не удается. Используя те же рассуждения, которые привели к уравнению (55), с учетом (74), (75) для безусловных вероятностей состояний получим ~ Pi (0=λ^! (t) />,_, (0-ίλ, (0+μ, № Pj (0 + + μ/+ΐ<«Ρ/ + ι (0. / = Ь 2...· (2.6.76) В рассматриваемом конкретном случае предполагается, что состояние / = 0 является поглощающим. Поэтому при /' = 0 в (76) нужно положить λ-ι (0 = λ0 (0 « μ0 (0 = 0, т. е. ^-Ρο(0=-μι(θΛ(0. (2.7.77) Если в начальный момент времени (/ = 0) значение процесса θ (0) = k9 то начальные условия для уравнений (76), (77) имеют вид " (0)=Ы={ I' }-*;> (2.6.78) Аналогично (76) для вероятностей перехода можно написать прямое уравнение Колмогорова 210
—πυ (Ο —λ,_! (Ο nit)^x (ή-[λ; (O+μ; (OJ Щ$ (0+μ/ + ι (0 «u+i (0 (2.6.79) с начальным условием я«(0)=в«. (2.6.80) В общем случае при произвольных функциях λ^ (f) и μ^ (ή решение уравнений (76), (77), оказывается затруднительным. Поэтому далее рассмотрим несколько частных случаев* Линейный процесс рождения к гибели. Для такого процесса интенсивности рождения и гибели (положительного и отрицательного приращения) являются линейными функциями состояния %j — /λ; μ7· = /μ, λ > 0, μ > 0, (2.6.81) Введем производящую функцию вероятностей состояния оо F(e, 0=2 Pj®8* · (2.6.82) Умножив обе части уравнения (76) на s/, из (76) и (77) суммированием по всем / получим уравнение в частных производных — F (β, 0 = [λ52-(λ+μ) s + μ] — F (s, 0. (2.6.83) которое согласно (78) и (82) следует решать с начальным условием F (s, 0) = Λ (2.6.84) Общее решение уравнения (83) имеет вид F(s,0 = /(-!i=^-e-^-«<), где f (·) — произвольная функция, для которой согласно (84) имеет место равенство sk В качестве такой функции можно взять, например, функцию Поэтому производящая функция вероятностей состояния при заданном начальном значении θ (0) = / дается соотношением Ρ и л Γ«Ρ)+[1-(λ + μ)φ(01« Υ F {s' t)={ Γ=ρ^1 j · <2·6·85> где обозначено α (0 = μφ (0, (2.6.86) β (0 - λφ (0, (2.6.87) fCTp (λ—μ) q —1 ψ ι ' λ |exp (λ —μ) ί]—μ V ' Из (82),' (85) следует, что вероятность поглощения, т* е. вырождения популяции, в данном случае равна р0 (0Н« (0J* = μ* [φ <*)]* · (2·6.89) 211
Вероятность того, что популяция когда-нибудь выродится, получается из (89) предельным переходом при *-»<х>, а именно: Ншр0(0=( , ' ft ΠΡΗί<μ' (2-6.90) t^oo \ (μ/λ)* при λ > μ. λ Из свойств производящей функции (40), (41) для математического ожидания и дисперсии случайного процесса θ (/) имеем Μ {θ (0 Ι θ (0) = *}=*4—j£J&e*e<wW '. (2.6.91) D {θ (0 | θ (0)*=k}=k _ β(λ-μ) * [ β(λ^μ) * ι]β (2.6.92) Разложив (85) в ряд по степеням s [46], для вероятностей перехода π&;(ί) получим ft «Л/ (0 = 2 Cg C£p7Ln_i α (*)J*~» fl-α (0-β v0f [β (0]/="n . / > Λ, (2.6.93) гДе c* - л! (/г — /г)! * Из (93), в частности, следует, что для начального состояния θ (0) = 1 бе· ^условные вероятности состоянии равны W(O«[l-a<0] [1-β (01 [β (О]''1· /=1э 2, ... , 2 б 9 Ро(0-«(0. Отметим, что при μ ξ 0 (такой процесс называется процессом чистого рождения или размножения) из (91)—(94) следуют соотношения: Pj (О-е-^О-е^)7*- !. ;«1. 2, ... , (2.6.95) A» (t) Ξ 0; ( С?*"/ e-*w(l-e-wy-*f />Л, «*/<*>«{ <2·6·96> 10, / < £; Μ{θ(0|θ(0) = *} = £βλί, (2.6.97) D {θ(01θ(0) = £}*=£βλ4βλ*— Ι]. (2.6.98) Распределение (95) называется распределением Юла—Фарри [46]. Неоднородный процесс рождения и гибели. Для такого процесса в отличие от (81) интенсивности рождения и'гибели являются произвольными функциями времени λ (t) и μ (t) и не зависят от состояния /. Можно показать [47], что в этом общем ^ случае решения (93) и (94) остаются справедливыми, только теперь функции a (t) и β (t) должны вычисляться подформулам α (0 = 1- 1 + J μ (τ) ev <τ) άτ , (2.6.99) β (0 = l-ev <*> 1 +J μ (%) ev (τ) άτ Γ t (2.6.100) t у (0 = f [μ (*)—λ (τ)] άτ. (2.6.101) 212
Для таких неоднородных процессов среднее значение и дисперсия равны Μ {θ (ή ι θ (0) « k} = k exp I—γ (01. (2.6Л02)· t D {θ (t) 1 θ (0) =*}= k ee2y (t) J [λ (τ)+ μ (φ)] ev (τ) d φ. (2.6.103) о Вероятность вырождения, как следует из (89) и (99), дается формулой Ро (0=4 J μ (τ) ev (τ> <tr 1 +J μ (τ) e? <τ> d%\ L (2.6.104) Она стремится к единице при ?-» оо, когда расходится интеграл в первых квадратных скобках* Процесс Пойа [46]. Это неоднородный процесс чистого рождения, у которого 14- а/ λ' (0 =λ Т+Ш ' μ) {0 Ξ °9 (2.6.105) где ос и λ — неотрицательные константы» Состояние / = 0 в этом случае является отражающим. Уравнения (76), (77) для безусловных вероятностей состояния процесса Пойа имеют вид S-pjW-xI+l^14/-,ffl^-Tg^-W(o./-i.a...., (2.6.106) 1лю--т£*г*«>· <2·6·,07) Если начальное состояние процесса θ (0) = 0, то решение уравнений (106), (107) можно получить методом математической индукции последовательно для Ро W» Pi (0, ···. Pi (')· Действительно, так как решение уравнения (107) с начальным условием Ρj (0) = δ/0 имеет вид р0 (*) = (1 +αλ*)~1/α, (2.6.108) из (106) получим Pi®=-Hr (1+αλ0 α Π (1+«0· (2.6.109) Для других начальных условий решение уравнений (106), (107) может быть получено ваменой переменной t ш* \ ехр (λτ) — 1]/λ, (2.6Л 10) которая сводит уравнения (106), (107) к однородным. Полученные однородные уравнения решаются аналогично тому, как это делалось для линейных процессов рождения и гибели, Выражения (108), (109) позволяют получить математическое ожидание и дисперсию процесса Пойа Μ {θ (ή Ι θ (0) = 0}= Μ; (2.6.111) D {θ (t) j θ (0) - 0} - U (1 + ОАО. (2.6Л 12) При а= 1 заменой переменных (110) из (108), (109) получим распределение Юла—Фарри (95). Дискретный процесс Пуассона. Однородным дискретным процессом Пуассона называется неубывающий целочисленный процесс с постоянной интенсив* HOGTbio изменения состояния &7 (0 - К μ/ (0 S 0, λ > 0* (2.6,113) 213
Процесс Пуассона можно интерпретировать также как число появлений еа время i некоторого случайного события (см. § 2.7). Из сопоставления (113) со (105) следует, что процесс Пуассона соответствует процессу Пойа при α -» 0* Поэтому для безусловных вероятностей состояний, математического ожидания и дисперсии пуассоновского процесса при θ (0) = 0 из (108), (109) и (111), (112) следует Pj (0 = -*^~ехр <-«), (2.6.114) Μ {θ (t) I θ (0) = 0} = λ/, (2.6,115) D {θ (t) Ι θ (0) = 0} = U. (2.6.116) Для вероятностей перехода, как нетрудно убедиться, в данном случае имеет место равенство π,,(0« (λ*)'*-' -χ. *ГМ,1>1. (j—i)\ " (2.6.117) 0, / < i. Если параметр λ зависит от времени, т. е* пуассоновский процесс является неоднородным, то все эти соотношения остаются справедливыми при подстановке вместо Xt функции Г λ (τ)άτ> В частности, вместо (117) можно написать nij Со» 0 = (/-0» f λ (τ) ίίτ Ι exp — f λ (τ) d % L />/. (2.6.118) Пуассоновский процесс является простейшим из дискретных марковских процессов. Этот процесс наряду с винеровским процессом (см, ниже) занимает особое место в теории случайных процессов* Многие модели в различных областях знания основаны на понятии пуассоновского процесса. Непрерывнозначные марковские процессы По приведенной классификации у таких процессов область определения и область значений есть непрерывные множества. Однако это не означает, что непрерывног.начный марковский процесс является непрерывным (см. ниже). В частности, к непрерывнозначным процессам относятся процессы в непрерывном времени, значение которых в некоторые моменты времени (случайные или детерминированные) скачкообразно изменяется на некоторую случайную величину, принимающую любые значения из заданного непрерывного множества. Непрерывнозначные марковские процессы широко используются для описания различных явлений в разных областях знания (радиотехника, автоматика, физика, биология, медицина и др.). В частности, с помощью непрерывнозначных марковских процессов может быть исследована статистическая динамика многих радиотехнических систем, используемых на практике. Решение конкретных задач достаточно подробно рассматривается, например, в [9, 17, 44, 46, 48, 49]. Общее описание статистической динамики я-мерного случайного процесса X (t) в непрерывном времени дается дифференциальным уравнением 214
-4-X(0 = F(X,/) + ξ(Χ, Ο, Χ(4) = Χο, (2.6.119) где F (X, t) — n-мерная неслучайная вектор-функция своих аргументов; ξ (X, t) — n-мерный случайный процесс с известными вероятностными характеристиками, которые могут зависеть от вектора X. В математической литературе дифференциальные уравнения (119) также часто записываются в дифференциалах, т. е. в виде dX (0 = F (X, t)dt + αη (X, О, Χ (ί0) = Х0, (2.6.120) где dx\ — дифференциал некоторого случайного процесса η (Χ, ί), связанного со случайным процессом \ (X, t). Далее везде будем предполагать, что при фиксированных реализациях | (t) или η (t) существует единственное решение уравнений (119), (120). Такое условие налагает определенные ограничения (типа условий Липшица [17]) на правые части этих уравнений (подробнее см. [501). Можно показать [51], что процесс X (t), являющийся решением уравнения (120), будет марковским, если η (X, t) — процесс с независимыми приращениями. Аналогично можно показать, что процесс X (*), являющийся решением уравнения (119), будет марковским, если | (X, t) представляет собой производную процесса с независимыми приращениями. Учитывая важную роль, которую в "теории марковских процессов играют процессы с независимыми приращениями, кратко рассмотрим их основные свойства. Процесс η (t) называется процессом с независимыми приращениями, если для любой последовательности моментов времени /ь t2, ..., tk, ... значения Δη (ίχ)9 Δη (t2), ..., Δη (tk)f ..., где Δη (tt) = η (tw) — η (tt), являются взаимно независимыми. Процесс с независимыми приращениями называется однородным, если распределение случайной величины Δη (tt) зависит только от разности il+1 — tt и не зависит от tt и ti+l в отдельности. Функция распределения любого однородного процесса с независимыми приращениями безгранично делима. Это означает, что если некоторый отрезок времени [t0f t\ разбить на N равных частей At (Ν At = = ί — ίο)» το Аля характеристической функции Φ (jO·, t — t0) приращения процесса η (t) имеет место равенство Φ(1*,ί-ίο)«ΐΦ0'*.Δ01", где Φ (jO1, At) — характеристическая функция приращения процесса η (t) на отрезке Δ*. Можно показать [51, 52], что Л1рбую случайную величину, распределенную по безгранично делимому закону, можно представить в виде суммы независимых друг от друга гауссовской случайной величины и бесконечного числа (континуума) пуассоновских величин. При этом логарифм характеристической функции приращения однородного процесса с независимыми приращениями в достаточно общем случае имеет вид 215
ta©(j*, ΔΟ«Δ/Γ]<Κηι ^<HQO+f(eWTY—l)n(Y)dYlf (2.6.121) где m — n-мерный вектор; Q — матрица порядка η χ η\ π (Υ)— скалярная неотрицательная функция n-мерного аргумента Υ. Первые два слагаемых в квадратных скобках формулы (121) характеризуют гауссовскую составляющую, а последний член — пуас- соновскую составляющую приращений процесса с независимыми приращениями. Гауссовская составляющая) которую далее будем обозначать Δν (/), распределена по нормальному закону с вектором математических ожиданий η\Δί и матрицей дисперсий ΟΔΛ Приращения Δν (t) можно рассматривать как приращения некоторого гауссовского процесса ν (ί), который называется винеровским процессом. В дальнейшем, не нарушая общности, будем считать m = 0 (в уравнениях (119), (120) известное математическое ожидание воздействующего процесса всегда может быть учтено при записи функции F (X, t)) и гауссовскую составляющую записывать ввиде Δν(/) = GAv(0, (2.6.122) где G — матрица порядка η X k\ ν (/) — стандартный ^-мерный ви- неровский процесс с нулевым математическим ожиданием и матрицей дисперсий Ш. Размерность k и матрица G выбираются (задаются) так, чтобы GG* = Q. Пуассоновскую составляющую приращений процесса с независимыми приращениями далее будем обозначать через Δγ (/). Эту случайную величину можно представить по-разному. Следуя [50, 51], запишем ее в виде Δγ (t) = J С (Υ, t)v (dY, Δ/), (2.6.123) где С (Υ, /) — n-мерная детерминированная функция, а ν (Α, Δ/) — случайная величина, принимающая значения 0, 1, 2, ..., £, ... и распределенная по пуассоновскому закону P{v = k}= lX(VAt]k ехр[-Я(А)А/}, λ(Α) = |π(Υ)</Υ. Здесь А — некоторая часть пространства интегрирования в (121). Интеграл в (123) определяется следующим образом. Разобъем пространство интегрирования в (121), (123) на N взаимно неперекрывающихся множеств Аь А2, ..., Ayv. Обозначив Y^ «среднюю» точку множества А;, определим интеграл (123) как Δγ(0 = Ηιη 2C(Y**MA*A')· 216
Случайные величины ν (Аь At), ν (А2, kt), ..., ν (Ajv, At) и ν (Α, Δ^), ν (Α, Δ/2), ..., ν (A, Atk) независимы между @обой, если множества Аь A2*..,Ajy, на которые разбивается все пространство интег- рования, и интервалы времени'Δ^, Δ/2, ..., Atk не пересекаются. Случайная величина ν (A, At) называется пуассоновской случайной мерой с параметром λ (А). Можно показать [51], что для распределения Δγ (t) справедливо соотношение ρ (Δγ) = (1 — μΔί)β (Δγ) + μΑί J h (Υ)δ [Δγ — С (Υ, t)]d\ + ο (Δ/), где μ = /π (Y)dY; h (Υ) = π (Υ)/μ. (2.6.124) Распределение (124) можно интерпретировать следующим образом: случайное приращение Δγ равно нулю с вероятностью 1 — μΑί + о (At) или принимает значение, лежащее в интервале [С (Y, t)f С (Υ + Δ \,t)] с вероятностью μ/ι (Υ)ΔίΔΥ + о (At, Δ Υ). Процесс Δ γ (t) можно рассматривать как приращения некоторого процесса с независимыми приращениями γ (t). Этот процесс характеризуется тем, что в течение малого интервала времени [t, t + At] он остается постоянным с вероятностью 1 — μΑί + о (At) или с вероятностью μΑί + о (At) получает приращение С (Y, i), где Υ — случайная величина, распределенная по закону h (Y). При этом вследствие малости At и произвольности С (Y, /) изменение процесса \(ί) должно происходить скачком. Поэтому такой процесо называется скачкообразным. Так как γ (t) — процесс с независимыми приращениями, то интервалы времени между скачками т1э τ2, ..., %h, ... и «амплитуды» этих скачков С (Υχ), С (Υ2), ..., С (Yfe), ... образуют независимые друг от друга последовательности независимых случайных величин. При этом число скачков, происшедших за время τ, распределено по пуассонов- скому закону р(*,*) = -^ехр(—μτ), * = 0,1, 2,„. Процесо η (i) называется стохастически непрерывным, если для любого ε > 0 lim Ρ{||η(/ + Δ0-η(ί)||>β>«0# Δί->0 где ||·|| — норма вектора, равная, например, корню квадратному из суммы квадратов его составляющих. Учитывая приведенные свойства составляющих процессов с независимыми приращениями, можно показать, что они являются стохастически непрерывными. Процесс η (/) называется непрерывным (или усиленно непре]рывным), если для любого ε > 0 lim -±-/>{ || r\(t + At)—r\(t) || >ε}=0. 217
В противном случае процесс называется скачкообразным или чисто разрывным. Можно показать [51], что гауесовская составляющая процесса с независимыми приращениями является непрерывной, а паус- соновская — чисто разрывной. Для процессов с независимыми приращениями, по крайней мере формально, можно ввести понятие производных по времени at at at По определению производная по времени от винеровского процесса называется белым гауссовским шумом. Это гауссовский процесс с нулевым математическим ожиданием и корреляционной матрицей Μ {Ν (/)NT (t + τ)} = Ιδ (τ) для «стандартного» белого шума или Μ {Ν (t)NT (t + τ)} = Q6 (τ) для производной от ν (t). Производную по времени пуассоновской составляющей процесса с независимыми приращениями можно интерпретировать [511 как поток δ-образных импульсов г(0-2С(УЛ)в(*-*к), (2.6.125) k где tu t2, ...» tk — случайные моменты появления этих импульсов, которые определяются параметром μ. Таким образом, достаточно общее описание динамики непрерыв- нозначных марковских процессов можно получить с помощью дифференциальных уравнений 4-X(0 = F(*>0 + G(X,0N(0 + r(0, (2.6.126) at dX (t) = F (X, f)dt + О (X, t)dv (i) + dY (t) = = F (X, t)dt + G (X, t)dv (0 + ί С (Χ, Υ, t)v (d\9 dt)t (2.6.127) где нуассоновекая мера ν (A, At) характеризуется функцией π(Υ|*, Χ), а процесс г (t) определяется выражением (125). Сразу же оговорим, что уравнения (126), (127) понимаются в смысле Стратоновича [481 (см. ниже). Эта оговорка связана с тем, что понятие производных по времени от процессов с независимыми приращениями введено довольно формально. Поэтому в правую часть уравнения (126) входят случайный процесс N (t), который имеет бесконечную дисперсию, и процесс г (t)9 принимающий бесконечные значения при / = tk. В силу этих обстоятельств уравнения (126), (127) называются стохастическими дифференциальными уравнениями в отличие от обыкновенных дифференциальных вида -£-X(0 = F(X, t\ X(/o) = Xo. (2.6.128) at Как известно, решение обыкновенного дифференциального уравнения (128) можно записать в виде t X(i) = X0 + jF(X,T)dT. и 218
Здесь под интегралом (он называется интегралом Кош и—Римана) понимается предел суммы 'Р(Х,т)Ж = Нт у. F (X(/f), ί,)Δί, (2.6.129) f δ^ο ,Ξο где Δί = f<+1 — /,, /0 < *ι < ··· < fa = ί. В математическом анализе показывается, что такой предел существует, если функция F (X, /) удовлетворяет условиям Липшица. По аналогии решение стохастического дифференциального уравнения (127) можно представить в виде t t X(0 = X0 + jF(X,T)dT + jG(X, r)dv(x) + t + f f C(X, Y, T)v(dY, A), (2.6.130) ν но для этого нужно определить, что здесь следует понимать под интегралами от случайных процессов. Первый интеграл в правой части (130) может быть определен аналогично (129), если сходимость понимать в среднем квадратическом. Напомним, что последовательность случайных величин |п сходится к случайной величине ξ в среднем квадратическом, т. е. 1. i. m. |д = ξ, tl~* oo если выполняется условие lim Μ { Цп — ξ) (|Λ — ξ)τ} = 0. П-*оо Интеграл от пуассоновской составляющей в соответствии с формулой (125) можно записать t t J J С (Χ, Υ, τ) v(dY, dx) = J 2 С (X, ΥΛ. τ) δ (τ-^) dv, т. е. как функция верхнего предела этот интеграл представляет собой скачкообразный случайный процесс, который изменяется скачком в случайные моменты времени tl9 t2f ..., tk> ... на случайные значения С (X «,), У и fi), С (X (/,), Y2, t%)9 ..., С (X (th)t Yhtth). Интеграл от гауссовской составляющей в (130) можно определить по-разному. В математической литературе используется определение интеграла, данное японским математиком К. Ито. Стохастическим интегралом в смысле Ито называется предел сходящихся в среднем квадратическом интегральных сумм вида t S*(0 = jG(X,*)d*v(iO = ^Ui/fj1 О (Χ (ί«). ω [ν(*ι+ι)-ν(/,)]. (2.6.131) 219
Здесь и далее стохастические интегралы и дифференциалы, понимаемые в смысле Ито, обозначаются звездочкой при дифференциале d*v (τ), белом шуме Ν* (ί) и т. д. Интегральная сумма в (131) строится следующим образом. Отрезок интегрирования [t0> t] разбивается на N элементарных подынтервалов, и значение функции G (X, t) берется на левом конце каждого подынтервала. Если функция G (X, t) интегрируема с квадратом, то предел в (131) существует и определение является корректным. Можно показать [19], что для стохастического интеграла Ито имеют место равенства M{S*(0|XoHO, Μ {S* (t) [S* (0Г | Ы = Μ j f G (Χ, τ) GT (Χ, τ) dx | X0 =M{|° Дифференциальное уравнение, для которого соответствующий интеграл понимается в смысле Ито, называется стохастическим уравнением Ито. Запишем его в виде dX (t) = А (X, t)dt -+- G (X, t)d*v (t) + d\ (t), (2.6.132) -J-X(0 = A(X,/) + G(X,*)N*(0 + r(/). (2.6.133) Если n-мерный марковский процесс X (t) удовлетворяет уравнению (132), то процесс Ζ (/) = Φ (X, t), где Φ (Χ, t) — некоторая /-мерная детерминированная вектор-функция, удовлетворяет уравнению <щ*)={-|-Ф(Х, 0+[-^ Ф(х, о]а(Х, t)+ +{^Φ(Χ,θ}θ(Χ,0^ν(θ+ + |[Ф(Х + С(Х, Υ, *), *)~Φ(Χ, 0] v(dY, dt), (2.6.134) где Φ| (Χ, Οι Ι =ТД — компоненты вектора Ф (Х# t)f a Gaj (X, f), a = 1, η, j = 1, kt — компоненты матрицы G (Χ, /). Формула (134) называется формулой Ито. Ее также называют фор* мулой замены переменных в стохастическом интеграле Ито (GToxaG- тические дифференциалы по определению — сокращенное выражение некоторых интегральных соотношений). Формулу Ито можно переписать в виде dZ(o-^.*+gL«(/)+ + 2 1 La,tll/Tl ό*»αχΙ> Ji=C7 220
+ J [Ф(Х + С(Х, Υ, t\ ί)-Φ(Χ, t)--^ С (X, Υ, t)\v(d\, dt). (2.6 Л 35) Отсюда следует, что если марковский процесс X (t) непрерывный (С (X, Y, t) гв 0), то при фиксированном X (t) дифференциал процесса Ζ (t) с точностью до неслучайного слагаемого пропорционален дифференциалу процесса X (t). Заметим, что и в этом случае для «обычных» функций Χ (ή третье слагаемое в (135) отсутствует. Поэтому интегралы Ито нельзя при замене переменных преобразовывать по обычным правилам математического анализа, просто интегрировать по частям и т. д. Если же процесс X (t) содержит скачкообразную составляющую, то дифференциал dZ (t) пропорционален дифференциалу dX (t) еще и с точностью до случайного слагаемого, зависящего от пуассоновской меры ν (A, dt). Тогда неслучайная связь между этими дифференциалами может быть отражена только в виде dZ (t) = Φ (X (t) + + dX(t),t) — ft>(X(t),t) [511. Стохастический интеграл Ито, определенный для прямого времени, не совпадает с таким же интегралом, определенным для обратного времени (если в (131) значение функции G (X, t) брать на другом конце элементарного подынтервала). Р. Л. Стратоновичем было обосновано определение стохастического интеграла в симметризованной форме [48], которое характеризуется определенной симметрией по отношению к прошлому и будущему. Стохастическим интегралом в смысле Стратоновича называется предел сходящихся в среднем квадратичном интегральных сумм вида t S(i)-=JG(X,T)dv(T)=* ди.т^0[х(Ы0+Х(/,), h)[v(ti+1)-v(h)}. (2.6.136) В отличие от определения Ито (131) здесь при формировании интегральных сумм значения функции G (X, t) берутся в середине элементарных подынтервалов. Отметим, что определения стохастических интегралов Ито и Стратоновича можно обобщить, если при формировании соответствующих интегральных сумм использовать произвольную точку элементарного подынтервала. Свойства этих интегралов и их использование в некоторых случаях замены реальных процессов марковскими рассматриваются, например, в [17]. Одним из важнейших свойств стохастических интегралов Стратоновича является то, что с ними можно обращаться по обычным правилам математического анализа (имеются в виду правила замены переменных, интегрирования по частям и т. п.). Поэтому для симмет- ризованных стохастических интегралов и дифференциалов будем использовать обычные обозначения. Соответствующие дифференциаль- 221
ные уравнения (126), (127) называются стохастическими дифференциальными уравнениями в смысле Стратоновича или стохастическими уравнениями в симметризованной форме. В [481 показано, что симметризованный интеграл отличается от соответствующего интеграла Нто на величину S(/)-s*(/)=4- if 2 Σ *^(Χ,τ) G*(x>τ> dx, (2.6.137) т. е. за исключением случая, когда G (X, f) не зависит от X, эти интегралы отличаются друг от друга. Поэтому при записи стохастических дифференциальных уравнений, в правую часть которых входят дифференциал (производная) винеровского процесса и матрица G (X, t), обязательно нужно доопределять, в какой форме следует понимать эти уравнения. Из (137) следует, что уравнения (126), (127) в смысле Стратоновича и уравнения (132), (133) в смысле Ито описывают один и тот же марковский процесс, если Л,(Х,*)-^(Х,/) + 4- У У ^(Χ-°·^(Χ,α (2.6.138) где At (X, t) и Ft (X, t), i = lf n9 — компоненты соответствующих вектор-функций* Стохастические дифференциальные уравнения в смысле Стратоновича можно интерпретировать как предельную форму уравнений, записанных для немарковских (но близких к марковским) процессов [48|. В технических задачах коэффициенты уравнения (126) обычно определяются физическим существом рассматриваемой динамической системы, а входные воздействия N (/) представляют собой достаточно гладкие (дифференцируемые) широкополосные случайные процессы. При описании динамики системы марковскими процессами воздействие N (/) приближенно заменяется белым шумом. Это означает, что стохастические дифференциальные уравнения, описывающие поведение подобных систем, должны пониматься в симметризованном смысле, так как они должны быть устойчивы к такому предельному переходу. При необходимости использования уравнений в смысле Ито переход к ним легко может быть осуществлен по формулам (138). Для непрерывнозначных марковских процессов можно ввести плотность вероятности перехода я (Χ, ^|Х0, ί0) и безусловную плотность вероятности ρ (Χ, ί), которая связана с плотностью вероятности перехода соотношением р(Х, *)= |я(Х, /|Х0, t0)p(X0, <о)<Жо. (2,6.139) Очевидно, что введенные плотности вероятности неотрицательны и удовлетворяют условиям нормировки J/?(X,0dX = l, |π(Χ, /|Χ0,/0)dX = l. (2.6.140) 222
Кроме этого, для непрерывнозначных марковских процессов справедливо уравнение Колмогорова—Чэпмена я(Х, f|X0, /0)= U(X, /|ХЬ ^)я(Хь ί±\Χθ9 t0)dXl9 (2.6.141) где ЗС — область значений процесса X (t), t> tx> t0. Можно показать [51], что- если все элементы вектора А (X, t) дифференцируемы, а все элементы G (X, t) дважды дифференцируемы по X, то плотность вероятности перехода π (Χ, ί\Χθ9 t0) как функция X и 2! удовлетворяет прямому уравнению Колмогорова—Феллера -1-я(Х, /|Хо, ίο) = «Ί,»{*(Χ, <|Χο· Ш (2.6.142) ot с начальным условием я (X, /0|Хо. Q = δ (X - Хо). (2.6.143) Здесь оператор 3Cix { « }, который называется прямым производящим оператором, определяется выражениями ЪМ^Я^'У + ^П* (2.6.144) «,|Я{ю(Х)}--2 -^-[Л|(Х,0о>(Х)] + ίΓι °н + τ|ι|ι-^ίβ«(Χ.ί)«(Χ)1 (2.6Л45) UiiifflB{w(X)>»JJtwft){6(X-6-C(|fY./))- -δ (Χ—1)} π (Υ | t, 1) dYdg, (2.6.146) где Αι (Χ, 0» ' — Ь n* называются коэффициентами сноса и определяются формулой (138), a BtJ (Χ, ί) — элементы неотрицательно определенной матрицы η χ η9 которая равна В (X, /)-G (X, t)G* (X, t) (2.6.147) и называется матрицей диффузии. Как функция Х0 и t0 плотность вероятности перехода удовлетворяет обратному уравнению Колмогорова—Феллера —-J- π(Χ, t\ Хо, /0) =^U {"(X, «I Хо, t0)}, (2.6.148) 6 начальным условием (143). Здесь оператор Щ,х { · }, который называется обратным производящим оператором, определяется выражениями #t.*x{-} = SStM*} + Jli,x{*}9 (2.6.149) Ж ,{ш(ХЬУ ^(Х, «τ^ + τΣ i β«(χ» 0^,(2.6.150) 22a
Jtl ,{ИХ)} = J[w(X+C (X, Y, t))—w(Χ)] π(Υ \t, X) d\. (2.6.151) С помощью непосредственной проверки можно показать, что прямые и обратные операторы сопряжены между собой, т. е. для произвольной области Ω, в которой элементы функции А (X, t) дифференцируемы, а элементы В (X, t) дважды дифференцируемы по X, справедливо равенство Ji/(X)^i#3C{^(X)}dX = j^(X)^:^{M(X)}dX, (2.6.152) где и (X) и w (X) — произвольные скалярные функции, из которых хотя бы одна вместе со своими первыми производными равна нулю на границе области Ω. Для безусловной плотности вероятности из (139) и (142) получим уравнение -^-р(Х,0 = ^,ЛР(Х>т> (2.6.153) ot которое следует решать с начальным условием ρ (Χ, t0) = ρ (Χ0). (2.6.154) Если область значений процесса X (t) совпадает с неограниченным пространством, то для выполнения условия нормировки (140) необходимо, чтобы решение уравнения (153) для любого i = 1, η удовлетворяло граничным условиям lim /?(X, 0 = lim JLp(X,t) = 0. (2.6Л55) Условия (155) в случае неограниченной области значений должны выполняться и для η (Χ, t\X0, t0). Если интересоваться первым попаданием траектории процесса X (t) в некоторую область V пространства ЗС (или, что то же самое, первым выходом траектории процесса за границы области Ω = 30 — — К), то вместо плотности π (Χ, t\X0, t0) следует использовать условную функцию перехода π (Χ, ί|Χ0, /0)> которую можно определить как плотность распределения координат- вектора X (/) в момент времени / при условии, что X (t0) = X0, t0 <C t, и в течение интервала времени [tQ> t) траектория процесса Х(/) ни разу не попадала в область V (не покидала области Ω). Обозначим через Г границу этой области и предположим, что траектория процесса может попасть в область V через любую часть этой границы (см. ниже). Можно показать (51],.что условная функция перехода η (Χ, /|Χ0, t0) как функция Х0 и t0 удовлетворяет обратному уравнению i- π(Χ, t\ X0, to) = %l Χο {к) + Л'СХо {π}, Χ0 ζ Ω (2.6.156) с начальным условием (143) и граничным условием n(X,t\X0t 0 = 0, Х0 £ Г. (2.6.157) 224
Как функция аргументов X и I она удовлетворяет прямому урав· нению -|-π(Χ, /|Хо, t0)=XUx{n) + Mi χ{π), Χ 6Ω, (2.6.158) g теми же начальным и граничным условиями π (X, *|Х0, t0) « О, Χ £ Г. (2.6.159) Здесь MttX { · } и Mux { · } — операторы (146) и (151), в которых интегралы берутся только по области Ω. Вероятность того, что траектория процесса X (t), начинающаяся из точки Х0, ни разу не достигнет границ области Ω в течение интервала lt0, t), равна Pq(U Xo, 4) = J^(X, ?|Χβ, г0)«< К (2.6.160) Как функция аргументов Х0 и t0 эта вероятность удовлетворяет урав· нению Понтрягина -J-PaVlXo, t0) = Xlx0{PQ}+Mt:Xo{P*}> Χ€Ω, (2.6.161) о начальным условием ' АИМХо.*в) = ('*ет,!°^' (2.6.162) I 0, еели Х0 € V9 и граничным условием PQ(t\X0tt0) = Q, Хо€Г. (2.6.163) Вероятность того, что траектория процесса, начавшаяся из точки Х0, хотя бы один раз за время U0, t) покинет область Ω (побывает в области К), равна Qq (/1 Xo. g =· 1 — ^α (ί1 Xo, t0). (2.6.164) Уравнения (142), (148), (153) и (161) являются интегродифферен- циальными уравнениями в частных производных. Как известно, рецептурных методов решения подобных уравнений нет (исключение, может быть, составляют приближенные методы вычисления моментов, кумулянтов, квазимоментов и т. п. [511). Поэтому задача нахождения даже стационарного решения прямого уравнения Колмогорова—Фел- лера, как правило, оказывается очень сложной. Пример 2.6.3. Скачкообразный случайный процесс. Рассмотрим скалярный скачкообразный случайный процесс, который описывается стохастическим дифференциальным уравнением вида dx (0 - 5 W «P. <«). * ('·) - *·> (2,6.165) где пуассоновская мера характеризуется функцией я (9 I U х) ■= λ (*, χ)δ {у — I) + α (t, *)δ (ρ + 1). (2,6.166) Из (124) и (166) следует, что в данном случае μ (t, ι)»λ (t, x) + a {U χ), ft fe | f, *) - π & | 4 *)/μ (tt χ). (2.6.167) S Зак. 956 225
Равенства (167) означают, что в течение малого интервала времени У, t+ Δ/] значение случайного процесса (165) с вероятностью 1 — μ ft *)Δ* + +о (Δ/) остается постоянным или с вероятностями λ ft x)kt+ о (Δή$ α ft x)kt + ο (Δί) оно скачкообразно изменяется соответственно на +1 или —L Прямое уравнение Колмогорова—Феллера (153) для безусловной плотности вероятности ρ (χ, t) процесса χ ft в соответствии с (146) имеет вид &Р(х. О - Яр (Б, « » (* - Б - if) -в (* - ξ)] [λ ft *)в Of — ι> — — α ft *)в (у + Wtdy, После интегрирования по у и ξ отсюда следует 57 ρ (*, 0 - λ ft * + 1)р (* + 1, о + α ft * — Dp (* — 1, О - — [λ ft χ) + α ft x)]p (*, Ο* (2.6.168) Если начальное значение процесса (165) xQ = k, где /г — целое число, то в следующие моменты времени t > t0 процесс χ ft, очевидно, может принимать только целочисленные значения. Такой процесс называется процессом рождения и гибели (см, пример 2.6.2), При этом плотность вероятности ρ (χ, t) выражается через безусловные вероятности р/ ft = Ρ {χ ft = /} соотношением Ρ (*· 0=2 Ρ$ (0 6 <*·-/). (2.6.169) / Подставив (169) в (168), для безусловных вероятностей состояний дискретного процесса χ (t) получим уравнение ^Pj (ί) = λ (/, /-1) ρ/β1 (0 + α (f, 1 + 1) ρ/+ι (/)- -[λ (*, /) + α (/, /)] Pi (/), (2.6.170) которое с точностью до обозначений совпадает с (76). Если функции λ ft /) и a ft j) таковы, что λ ft 1) = λ, α ft 2) = μ и λ ft /) β μ ft /) β 0 для остальных /, то (165) при xQ » 1 или *0 =» 2 описывает частный случай процесса рождения и гибели — дискретный марковский процесс с двумя состояниями *j = 1 и я2 « 2, При этом вероятность перехода *1 ~~» х2 за малое время Δ/ равна λΔ£ ■+· о (Δ/), а вероятность перехода #2 ~* χι равна μΔί+ο(Δ0· Так как любой дискретный марковский процесс χ (t) с двумя состояниями х± и х2 с помощью линейного преобразования * (0 - (% + χύ/2 + (Xi - х2)д (0/2 можно выразить через случайный процесс θ (/) с состояниями ftj =» 1, -β·2 = ~ΐ и теми же вероятностными законами смены состояний, то из (170) для безусловных вероятностей состояний процесса θ ft получим d — Pi (t) = — λρϊ ft +μ ρ2 (0, (2.6.171) — p2 (0 = λρ! (0—μ ρ2 (0. Здесь pi (0 = Ρ (θ ft = 1), ρ2 (0 = Ρ {θ (0 = —1}. Описанный случай· ный процесс θ ft называется случайным двоичным сигналом [44]. Пример 2.6.4. Нелинейное преобразование случайного телеграфного сигнала. Получим стационарную плотность вероятности скалярного случайного процесса χ ft, поведение которого описывается нелинейным дифференциальным уравнением первого порядка — *<0»Ф(*, θ(0). (2.6.172) где θ ft — случайный двоичный сигнал с состояниями Όί, θ2. 226
Так как θ (ή — марковский процесс, который может быть описан стохастическим дифференциальным уравнением (165), то векторный процесо 1х (О, Θ (i)]T также является марковским. Поэтому для совместной плотности вероятности ρ (χ, θ, f) может быть записано прямое уравнение Колмогорова— Феллера (153) и из решения этого уравнения в данном случае может быть найдена стационарная плотность вероятности pst (χ). Можно поступить иначе, воспользовашись определением смешанного марковского процесса [53], у которого одна компонента χ (f) непрерывна, а другая θ (t) дискретна. Обозначив Ρι (*, t)dx = Ρ {χ (ή ζ (χ, χ + dx), θ (t) «■ $±}> ρ2 (я, t)dx ■» — Ρ {х d) € (x>* + <**)> β Ю - »Jt (2*6.173) для безусловной плотности вероятности процесса χ (f) можно написать ρ (*,·*) = Pi (х, 0 + Р2 (*> О* (2,6Л74) Для функций (173) на основании общей методики (см., например, 117]) получим систему уравнений г) ft — рг (х, 0 =—— [Φί (дс) Pi (χ, ί)]—λ Pi (χ, 0+μΡϋ (χ, ί), -# Рг (Χ, {)=—^ [φ* W Λ (χ> 01 +Vi (Χ, 0-μΡζ (χ, 0· (2.6.175) где Φι (χ) - Φ (χ, θ4). Ι - 1, 2. Сумма и разность уравнений (175) дает — /> (χ, 0- —з" аГ ίίΦΐ (χ) +Фг W1 " <*· ί) + +ίΦ* (*) —Фа (*)] я (я, 0}. (2.6.176) ■£■«(*. 0 = —j-^j {[Φί (*)+Фг (*)] я (я, 0+[Ф| (*)- -фа (дс)] ρ (χ, Щ-% [р (х, t)+u (χ, 01 +μ [ρ (х, 0 -а (*, 0]. (2.6.177) где введена вспомогательная функция я (х, г) — Pi (χ, ή — р2 (», О. (2.6.178) В стационарном состоянии, приравняв производные по времени в (176), (177) нулю, из (176) имеем « (х)=itm «<*, t) =Фтё±ФГ7Т р" <*>· (2'6·179) Подставив (179) в (17fy получим уравнение д { 2ФХ. (*) Ф2(х) ι Л , Г , „ , ч Ф1Ы + Ф2 (х) Ι , ν Λ ^{фт^йг Pet <*>}+Ιμ-λ-(λ +μ)ΦΐρΦ^]^ (*)=0· Отсюда следует, что для стационарной плотности^ вероятности процесса χ (t) справедливо соотношение Р^х)-0\^У;\ ехр{- Г "УХ^Ф;!Х) dx\ (2.6.180) ™ v ' Φλ (*) Ф2 (*) \ J Фц (х) Ф2 (*) / где С — постоянная, определяемая из условия нормировки* Предполагается, что знак функции перед экспонентой выбран так, чтобы выполнялось условие неотрицательной определенности (180) (возможность такого выбора определяет существование стационарного распределения). 8* 227
Из (174), (178) и (179) можно также найти стационарные значения плотностей вероятности (173) Ф2 (χ) Φι (χ) Ρί (*-ф.М-ФгМР« (Х)' Pi W"©iW-^WP* {X)- Если пуассоновская составляющая процесса с независимыми приращениями в стохастических дифференциальных уравнениях (127), (132) отсутствует, то непрерывный марковский процесс X (/) называется диффузионным. В этом случае уравнения (142), (148), (153) называются уравнениями Фоккера—Планка—Колмогорова. Для диффузионного марковского процесса можно ввести понятие вектора потока плотности вероятности Π (Χ, t), составляющие которого в некоторой точке X равны s Π,(Χ,0 = Λι(Χ,ΟΡ(Χ.Ο- ~ТΣ ~£r [Bi* (X'l) P (X't)]' /i= 2~ (2.6.181) Прямое уравнение Фоккера—Планка—Колмогорова часто записывают в виде ^p(X,0=^np(X,0} = -2^n^x^) = -divII(x^) - (2.6.182) и говорят, что оно описывает закон сохранения плотности вероятности. Решение уравнения (182) для неограниченного пространства о начальным условием (143) и граничным условием (155) называется фундаментальным решением задачи Коши. Граничные условия для уравнений Фоккера—Планка—Колмогорова (142), (148) и (182) могут быть весьма разнообразны. Они определяются существом рассматриваемой физической задачи. Рассмотрим некоторую замкнутую область Ω многомерного пространства $?, которая имеет границу Г. В зависимости от характера поведения траектории диффузионного марковского процесса в точке Χ ζ Г всю границу Г можно разбить на три части Η7, 491· К первой части Гх отнесем ту часть границы Г, на которой матрица диффузии В (X, 0 не вырождена по направлению внешней нормали к границе, т. е. выполняется условие 1* (X) В (X, t) 1 (X) = 2 Ви (х> « h (χ) h (χ) Φ 0f X s Ι\. (2.6.183) Здесь 1% (Χ), / = 1, η, — направляющие косинусы внешней нормали 1 (X) к границе области Ω. 1 Можно показать, что при выполнении условия (183) фазовые траектории процесса X (t) не дифференцируемы по направлению внешней нормали к границе Гь так как движение по этому направлению будет 228 _
обусловлено воздействием типа белого шума. Поэтому, приближаясь к границе Г1э траектории случайного процесса пересекают ее бесчисленное множество раз. К остальной части границы Г2 отнесем ту часть границы Г, на которой условие (183) не выполняется, т. е. 2 Ви (X, 0 h (X) lj (X) = 0, X е Г2. (2.6.184) В свою очередь, границу Г2 также можно разбить на две части Γί и Г2" в зависимости от выполнения условий 2 U (χ, о—5-2 ~ir Bii (Х>°] > °·χ е г*· (2-6Л85) 2 U (X, t)~-j 2 -£г ви (Χ. θ1 < О, X е Гг. (2.6.186) Условие (184) означает, что в направлении, нормальном к границе Г2, воздействия типа белого шума отсутствуют. Поэтому на границе Г2 движение по дифференцируемой траектории в этом направлении определяется однозначно, причем на границе Г} оно направлено из области Ω, а на IV внутрь этой области. Таким образом, траектория диффузионного марковского процесса X (t) в принципе может выйти из области Ω только через часть границы f=I\ + r+, (2.6.187) а попасть внутрь области Ω она может только через часть границы Г* = 1\ + Гг. (2.6.188) Отметим, что для непрерывнозначного марковского процесса дри наличии скачкообразной составляющей аналогичное разбиение границы Г существенно усложняется, так как в этом случае необходимо учитывать, что процесс в принципе может выйти скачком за границы области Ω из любой точки Χ ζ Ω и попасть внутрь этой области из любой точки SO — Ω в зависимости от вида функций С (Χ, Υ, ή и η (Υ|ί, X). В самом простом случае, если для любых ξ и Υ выполняется условие 2 h (X) С г (ξ, Υ, 0 = 0, X е Г8, (2.6.189) то это означает, что скачкообразная составляющая в направлении нормали к границе Г8 отсутствует и граница Г8 может быть разбита на части в соответствии с (183)—(188). В общем случае возможными типами поведения диффузионного марковского процесса (диффундирующей частицы) на границе области являются поглощение, отражение, скачкообразный уход с границ, диффузия по границе, остановка и их различные комбинации [54]. Слова «комбинация» означает просто линейную комбинацию со- 229
ответствующих граничных условий, но вероятностный £мысл такого комбинирования совсем не прост. Каждому типу граничных условий соответствует определенный процесс, происходящий на границе. Он определен на случайном множестве моментов времени, в которые частица находится на границе (вообще говоря, это множество не содержит никакого интервала). Изучение граничных процессов можно поэтому рассматривать как одну из задач еще не построенной общей теории многомерных марковских процессов со случайной областью определения. Учитывая это обстоятельство, ограничимся рассмотрением граничных условий для двух типов физических задач (их комбинация получается очевидным обобщением). К первому типу относятся задачи, в которых в любой момент времени диффундирующая частица находится в области Ω. Попадая на границу, частица либо отражается в той же точке, либо мгновенно переносится в другую точку границы и продолжает движение внутри области (для наглядности можно представить броуновское движение молекул газа в ограниченном объеме, работу систем автоматического поиска полезного сигнала и т. п.). Общая запись граничных условий для прямого уравнения Фоккера—Планка—Колмогорова (182) в этих задачах имеет вид щ (X, 0=s — |πΡ(Χ, t|X0 П, (X', t) d X#f X s Γ*· (2.6.190) Здесь Ut (Xf t) « 1* (Χ) Π (Χ, <) « |j/| (Χ) Π* (Χ, t) — нормальная составляющая вектора потока на границе; яг(Х, *|Х')— заданная плотность вероятности перехода частицы из точки Χ' £ Τ в точку Х£ Г*. Эта плотность определяется существом физической задачи и удовлетворяет условию нормировки Сяр(ХЛ|Х0<*Х = 1. (2.6.191) Условие мгновенного отражения в той же точке, которое может задаваться только на границе Гь следует из (190) в частном случае, когда πΓ (X, /|Х') = δ (X — X') при X' 6 Тъ и X 6 1\. Это условие записывается в виде Πι(Χ, *)=-0, Х£ГХ. (2.6.192) Отметим, что граничное условие (190) не исключает поток вероятности вдоль границы области Ω. Ко второму типу относятся задачи, связанные g первым достижением границ многомерным диффузионным процессом. В этих задачах Ω представляет собой область, из которой частицы могут свободно выходить. Однако после того, как частица впервые покидает область Ω, она уже не должна возвращаться обратно или, как иногда говорят, исключается из дальнейшего рассмотрения (такие задачи возникают, например, при анализе срыва слежения в динамических системах). Чтобы запретить возвращение частиц внутрь заданной области, пря- 230
мое уравнение Фоккера—Планка—Колмогорова (158) для функции л (X, /|Х0, Q нужно решать о граничным условием π (X, /|Х0, t0) - О, Χ ζ Γ*: (2.6.193) Условие (193) обеспечивает поглощение частиц на той части границы, через которую они в принципе могут войти в нее. Уравнение Понтрягина (161) в случае диффузионных процессов следует решать с граничным условием Ρω(*|Χ0Λ)==0,Χο б Г, (2.6.194) которое выражает тот очевидный факт, что если начальное состояние Хо 6 Г, то уже в следующий момент времени частица обязательно выйдет из области Ω. Отметим, что в задачах достижения границ области Ω можно также получить вероятностные характеристики первого выхода частицы через какую-то часть границы γ с: Г. Для моментов условных распре· делений (160), (164), если они существуют, справедливо второе уравнение Понтрягина, решение которого с соответствующими краевыми условиями позволяет найти среднее время пребывания частицы в заданной области, дисперсию этого времени и т. д. [17]. Прямое и обратное уравнения Фоккера—Планка—Колмогорова и уравнения Понтрягина в случае векторных диффузионных процессов относятся к многомерным линейным дифференциальным уравнениям в частных производных (параболического, эллиптического или ультрапараболического типа). Общие методы решения подобных уравнений рассматриваются, например, в [55, 56]. Однако практически даже фундаментальное решение задачи Коши для многомерного уравнения (182) удается получить лишь для ограниченного набора частных случаев [9, 17]. Еще более усложняется решение многомерных краевых задач. В настоящее время наиболее полно разработаны методы решения указанных уравнений с учетом различных граничных условий для скалярных диффузионных процессов. По этому вопросу существует обширная библиография [17]. Для численного решения многомерных уравнений Понтрягина и Фоккера—Планка—Колмогорова можно использовать различные приближенные методы, например методы Ритца и Бубнова—Галер- кина [57], метод последовательных приближений [58], разностные методы [591, метод условных математических ожиданий [58, 60] и т. д. Отметим, что при размерности вектора состояний марковского процесса η ^ 3 весьма эффективным оказывается метод Монте—Карло [611, который сводится к численному решению стохастических дифференциальных уравнений (126), (127) [17, 62]. Особый интерес представляют приближенные методы, связанные β вычислением частных статистических характеристик процессов [48, 51, 63,64]. Для этого соответствующие плотности вероятности, характеристические или кумулянтные функции выражаются через моменты, квазимоменты или кумулянты, для которых получаются системы обык- 231
новенных дифферециальных уравнений. Эти системы достаточно просто решаются на современных ЦВМ. Пример 2.6.5· Срыв синхронизации в аналоговой системе фазовой авто- подстройки. Рассмотрим статистические характеристики срыва синхронизации в аналоговых системах фазовой автоподстройки (ФАП) второго порядка с синусоидальной характеристикой фазового детектора и интегрирующим фильтром в цепи обратной связи* Определение этих характеристик необходимо, в частности, для оценки работоспособности систем^ в которых ФАП используется для измерения фазовой ошибки с точностью до одного периода опорных колебаний (например, в фазокогерентных радиолокаторах, в фазовых системах радионавигации и т* п*)> Статистическая динамика системы ФАП второго порядка, у которой в качестве фильтра нижних частот используется интегрирующая цепочка RC, описывается (см,, например, [17]) нелинейным стохастическим дифференциальным уравнением второго порядка Φ <ρ d(o 2αΔ №~+а Λ +αΔ Sin Ч> = аАо + —д—п (0, (2.6.196) где α (Λ — гауссовский белый шум с Μ {η (t)} = 0 и Μ {η (t)n (t + τ)} =» « Ν06 (t)/2j α — l/RCj φ (t) — разность фаз синхронизируемых генераторов} Δ0 — средняя расстройка этих генераторов по частоте,* Δ — полоса удержания схемы ФАП, т« е* максимальная разность частот генераторов, которую может компенсировать цепь управления; А0 — амплитуда входного сигнала. Обозначив через Ω (t) =* dcp/dt мгновенную расстройку частот синхронизируемых генераторов из (195), получим άφ/dt = Ω, dQ/dt -» αΔβ — αΩ — αΔ sin φ + 2αΔ/Λ0/ι (ή, (2,6,196) Система (196) описывает двумерный диффузионный марковский процесс [φ (/), Ω (έ)]Τ· Аналогично (17] под срывом синхронизации в системе ФАП второго порядка будем понимать первый выход траектории этого процесса за пределы области Ξ, граница которой по координате φ определяется положением ближайших неустойчивых соотояний равновесия (q>i = —л — arcsin Δ(/Δ, φ2 =» яя- arcsin Δ(/Δ) 165], а по координате Ω — полосой удержания системы ФАП (Ωί β» —Δ, Ω2 — Δ), В безразмерных переменных χ\ » φ/π, χ2 = Ω/Δ и τ = at система уравнений (196) принимает вид ахг/ат=х2/п$, dx2/dx=A0/A~-x2—sin яд^+О/Ур") «о (τ)* (2.6.197) где ρ » ΑΙ Ι (2αΝ0) — отношение сигнал-шум* β = α/Δ — отношение полосы пропускания фильтра в цепи обратной связи к полосе удержания системы ФАП$ Щ (t) — белый гауссовский шум о нулевым математическим ожиданием и еди» ничной интенсивностью} Δ(/Δ — относительная средняя расстройка частот ге* нераторовв бистема уравнений (197) определяет двумерный однородный марковский процесс X (t) » lxt (0, л?2 (/)]т со следующими локальными характеристиками: Αι (Χ) — 40Ф) Л2 (χ) ~ Δ(/Δ — *2 — sin пх& Вц (Χ) = θί2 (Χ) » Ο? Я22 (Χ) - 1/ρ, (2,6.198) Таким образом, исследование статистических характеристик срыва синхронизации в системе (195) сводится к решению задачи о первом достижении процессом X (0 границ области Ξ : i{ — 1 arc sin —5 j < xt < [ 1 arc sin — \ Ι Η I ^ *) ПРИ условии, что в начальный момент времени Χ (t0) £ Ξ, Из (198) следует, что условие (183) в данном случае выполняется только при *2 в =Ы>' т· е· 232
Γι 14 ί — 1 — — arcsin-^j< *f<n —— arcsin -~h *2 = ± l], а условие (185) выполняется на части границы ΓΗ-:|#ι = --1 — —arcsin—s ,χ2 < 0;^ = 1—— arcsin—- , χ2 > θ}. . Поэтому регулярная часть границы имеет вид ftl ^=—1 —— arcsin-7* , ж2 < 0; х2 = ± 1, (-~1 ——arcsin -f]< I Ji Δ \ η Δ / ' < 4: < (1 —— arcsin -—· J; % = 1 arcsin ~ , #2>θ|. Вероятность сохранения режима синхронизации ρ (Χ, τ) = ρ (х±% *2, τ) в течение времени τ при условии, что в начальный момент τ = 0 система находилась в состоянии (*ί, χ2) £ Ξ, удовлетворяет первому уравнению Понтря- гина (161), которое в данном случае имеет вид |·^χ·τ>= V"5-p (Χ'τ)+^ρ(Χ,τ)+ + (η*- — χ2—sin π χλ —— ρ (Χ, τ). (2.6.199) Уравнение (199) следует решать с начальным условием р(Х, 0)= 1, X £ Ξ-Γ, и граничным условием ρ (Χ, τ) = 0, Χ ζ Г. (2.6.200) Отметим, что значение ρ (Χ, τ) для Χ ζ ΐγ определяется в процессе решения. Достаточно полно качество синхронизации характеризуют также моменты распределения времени до срыва синхронизации оо zn (*ι, *2) = αΠ Тп (xlt х2) «J τ"-1 ρ (хи х2; τ) ί/τ. (2.6.201) о Из (199), (201) следует, что моменты распределения времени до срыва синхронизации могут быть найдены из решения второго уравнения Понтрягина, которое в данном случае имеет вид 1 ^ х2 д + ( ——*i—sinjuij -^~ zn (*lf *2) = ~ nzn_{ (xlt x2), n = l, 2, .. , г0 fa, *2) = 1. (2.6.202) Уравнение (202) следует решать с граничным условием. гп (*и *2) β 0, (*ь *2) 6 Г, /г « 1, 2, ... (2,6.203) Аналогично [17, 66, 67] для решения краевых задач (199), (200) и (202), (203) могут быть использованы разностные методы. На рис* 2.39, 2.40 показаны зависимости вероятности поддержания режима синхронизации в течение τ = 2 от начальных значений координат системы, полученные численным решением краевой задачи (199), (200) при Δ</Δ — 0 (рис. 2.39), Δ,/Δ = 0,75 (рис. 2.40), β =* е= 0,25 и ρ е= 1. Видно, что наличие средней расстройки по частоте приводит как ε уменьшению вероятности поддержания синхронизации в течение заданно- 233
го интервала времени τ, так и к существенному изменению характера зависимости от начальных координат. На рис, 2.41 представлены зависимости вероятности поддержания синхронизации ρ (О, 0, τ) из точки хг = *2 = 0 от времени τ при постоянных значениях параметров ρ = 5, β = 0,25 и разных значениях Δ,/Δ» Анализ результатов вычисления ρ (хи *2, τ) при различных значениях ip(xuxZlT=Z) Рис. 2.39. Вероятность сохранения режима синхронизации при τ=2, Δο/Δ=0, р=1, β=0,25 параметров системы показывает, что начиная о некоторого момента времени зависимость вероятности поддержания синхронизации от времени может быть аппроксимирована с заданной точностью функциями вида Ρ (*Ь *2* *) в в (*1> Ч) е*Ф {~Ь (*!» χΰτ}* С помощью численного решения краевой задачи (202), (203) можно получить зависимость среднего времени до срыва синхронизации zj (xit x2) от параметров системы и отношения сигнал-шум. На рис* 2.42 показана зависимость Ζχ (0, 0) от отношения сигнал-шум ρ при отсутствии средней расстройки частот генераторов Δ0 « 0 для различных значений отношения постоянной времени фильтра к полосе удержания системы β* Здесь же штриховыми линиями представлены 234
приближенные зависимости среднего времени до срыва синхронизации от отношения сигнал-шум, вычисленные при тех же значениях параметров по формуле ^-»2β 1/яУр" /0 (2βρ) ехр (2βρ), полученной методом вычисления среднего числа пересечений фазовым рассогласованием уровней ±л в стационарном состоянии |17]. Зависимость среднего времени до срыва синхронизации от отношения сигнал-шум в системе ФАП второго порядка носит явно выраженный пороговый карактер. Для отношений сигнал-шум больших порогового (р » 5 для рассмотрим 2.40. Вероятность сохранения режима синхронизации при τ=2, Δ0/Δ=0,75, ρ=1, β=0,25 ренного на рис. 2.42 случая) она может быть аппроксимирована простым выражением вида Ч (0, 0) - а ехр (Ьр)> Зависимость коэффициентов а и Ь от параметра β при Δο=0 показана на рис* 2.43» Это обстоятельство позволяет затабулировать значения коэффициентов а и Ъ для системы (195) и не проводить численных расчетов на ЦВМ для отдельных конкретных случаев» Наличие средней расстройки частот подстраиваемых генераторов приводит, как уже отмечалось, к значительному ухудшению качества синхронизации. Этот факт наглядно иллюстрируется также ходом кривых, приведенных на рис. 2.44, где показана вависимость ζ% (0, 0) от отношения сигнал-шум при ρ = 0,25 для различных вначений относительной вредней расстройки Δ(/Δ« Пример 2.6.6., Распределение максимумов марковского процеееа. Решив задачу о первом достижении границ ваданной области, можно получить распре- 235
деление величины максимума Μ (x0t f) марковского процесса χ (τ) на интервале [ή,, ή: Μ (χ0 0= sup [χ (τ)], χ (t0)=*x0. (2.6.204) Действительно, на основании определения функции распределения FM (Я, t\ x0t t0) случайной величины Μ (χθ9 t) через вероятность соответствующего события можно написать FM (Я, t \x0> t0)=P{M (х0, t) < #} = !-/>„ (t\x0, to), (2.6.205) р(0Дт) m m щ 0,2 О L/*-^jk \~р-№ ) Δο/Δ-0 ^^уЛЛЯ ^^/Ο,ΰ 0J5 ^1 да ΐΰ t Рис. 2.41. Влияние средней расстройки по частоте на вероятность сохранения режима синхронизации где Рн (t\x0, t0)-~ вероятность того, что траектория процесса χ (/), начинающаяся из точки л0, ни разу не достигнет уровня Я в течение интервала lt0, t). Плотности вероятности случайной величины Μ (x0f ή и случайного времени τΗ первого достижения процессом χ (ή уровня Я по определению равны wM (Я, f\ *o, t0) « — FM (Я, t |*o, t0), д Щн (Ί*ο> Ό)=-^Γ рн (*\χο> W. (2.6.206) (2.6.207) Если плотности вероятности (206), (207) существуют, то может быть найдена совместная плотность вероятности до (s; Я, t \ x0t t0) случайной величины Μ (x0t t) и случайного времени τΜ первого достижения процессом χ (τ) своего максимального значения на интервале [tQf f). Для этого заметим, что совместная плотность вероятности случайных ведичин Μ (x0t f) и %с на основании теоремы Байеса может быть записана в виде wx , Μ (s> H> 11 χο* A>) =®м (H>11 Tc= s) wx^ (s I x09 t0)f (2.6.208) где wM (Я, 11 Tcs=s) — плотность вероятности случайной величины М (x0f f) при условии, что в м#мент времени s случайный процесс χ (τ) впервые достиг некоторого значения & Очевидно, что введенная условная плотность вероятности связана о (206) соотношением wM (Я. * Не-*)»** (#» *К s), (2.6.209) которое выражает тот факт, что при указанных условиях максимальное значе· ние процесса достигается на интервале [$9 t) из состояния с% 236
10000 1000 15 ρ Рис. 2.42. Зависимость среднего времени до срыва синхронизации от отношения сигнал-шум при Δ0/Δ=0 blfi) 0,0 ο,ι \ \ \ I IV L г 20 '40 60 80 1/fi 40 00 80 ffi Рис. 2.43. Зависимость параметров аппроксимации от отношения полосы удержания к постоянной времени фильтра Подставляя (209) в (208) и учитывая, что совместная плотность вероятности %м и Μ (#о, t) совпадает с (208) при с = Я, имеем *>τΜ% М&Я* *l xo>t0) = w%H (s\x0t t0) —-&TJ wXc{t\H>s)d%\ L s Jc=H (2.6.210) где плотности вероятности времени первого достижения заданного уровня определяются соотношением (207). Получим плотность распределения времени первого достижения максимального значения при t £ (—оо, оо) марковским процессом, поведение которого описывается стохастическим дифференциальным уравнением* их = —α sgn (f)dt + βάν, χ (0) « 0f где ό (t) — стандартный винеровский процесс? α > 0, (2.6.Ш) * Результаты этого примера принадлежат В. С. Ефименко, 237
Всякую траекторию процесса (211) можно представить состоящей из двух «ветвей» χι (t) : t £ (—00, 0] и х2 (/) : / £ 10, оо). Обозначим через Мь %ш и M2i τΜ2 вначения максимумов и времени первого достижения этих'максимумов процессами хх (τ) и х% (τ)· Очевидно, что для процесса (211) имеют место равенства *ЛГ {%м\ · τΛί2 » 7Ш %т » если Л?! > Λί2; если Λίχ < М2 M=max (Mib M2). Рис. 2.44. Влияние средней расстройки по частоте на среднее время до срыва синхронизации (β «0,25) в ρ Отсюда следует, что искомая плотность вероятности может быть найдена по формуле wm <s)"{ ["W ™ (s' Η) F™ <Я)+Ш™2. М2 (·. Я) *лм <*>] d"» <2·6·2ι2> где, имея в виду переход к / -* оо и условие χ (0) = 0, в обозначениях опущена зависимость от t9 t$ и х0. Для процесса, ваданного стохастическим дифференциальным уравнением йхг = — adt + βάν, хг (t0) = *о» плотность вероятности времени первого достижения уровня Η имеет вид /68] о>т„($1*о» *о)= п/— Я-*о 1/2я β(5-*0)3/2 L 2β2(*-'ο) Г При /0 = 0 и «о - 0 из (213) и (210) следует Я Г (Я+as)2! 1 * / 22\ где Φ (а:)=Г/= j exp (— -г J d/— интеграл вероятности» (2.6.214) 238
Отметим, что в процессе вывода формулы (214) при вычислении сомножителя в квадратных скобках (210) нельзя сразу поменять порядок интегрирования и дифференцирования. Переходя в (214) к пределу при t-* oo, имеем Аналогично для FM2 (Η) при f —* оо получим выражение ?М2 ДО-1-ехр(--^). (2.6.216) Можно показать, что процесс хг (f) имеет такие же характеристики: в формуле (215) нужно только заменить s на | s |. С учетом этого замечания, подставив (215) и (216) в (212) и выполнив интегрирование по Я, получим искомую плотность вероятности χ[ΐ-φ(^-Τ/ίΤ]]}. (2.6.217) Из (217), в частности, может быть найдена дисперсия случайного времени достижения процессом (211) максимального значения °\м = D{ τΜ } —(13/8) (β/α)*. (2.6.218) Марковские последовательности По приведенной классификации марковской последовательностью называется последовательность /г-мерных случайных величин X* = = X (tt\ которые в некоторые дискретные моменты времени t0 < tx < <С ♦..</*<··· принимают непрерывное многообразие возможных значений и для которых выполняются свойства (1)—(3). Под случайными величинами X* можно, например, понимать временное отсчеты (выборки) непрерывнозначного процесса X (t). По такому принципу, в частности, работают все импульсные системы передачи информации. При помощи марковских последовательностей может быть также исследована статистическая динамика различных систем цифровой обработки случайных процессов и т. п. Из формулы (3) следует, что совместная плотность вероятности марковской последовательности может быть выражена через плотность вероятности начального состояния ρ (Χ0) и одношаговые плотности вероятности перехода щ (Χ^ΙΧί-χ), I = 1, k: Ρ (Χ* - Дь) = Р(Хо) Π π,(Χ,|Χ,.ι). (2.6.219) По аналогии со сложной цепью Маркова можно ввести сложную марковскую последовательность порядка m^l, определяемую сле- 239
дующим образом! где при k^m следует формально положить т = k — 1 (k ^ 1). При т = 1 сложная марковская последовательность переходит в простую* Учитывая, что сложная марковская последовательность за счет увеличения размерности вектора состояния X всегда может быть сведена к простой, далее ограничимся рассмотрением только простых марковских последовательностей. Любая последовательность, взятая из марковской последовательности, является также марковской, т. е. если при заданном tk рассматривать моменты времени /ftJ < tk2 <C ... < tkm, то П (X*m I X*i' - · Х*"ь» \)==nhm(^km |XW-i)· Условные плотности вероятности перехода марковской последовательности удовлетворяют уравнению Колмогорова—Чэпмена π (X, | Хе) = ] π (X, | Xk) π (Xh \ Xt) d Xft, (2.6.220) где i<k<. j и SC — область значений процесса X (t). Обозначив ph (X |Χ0) условную плотность вероятности случайной величины Xft при фиксированном Х0 и nh (X|Z) = nk (Xft|Xft-i), из (220) получим pk+1 (X IX0) = f nk (X IZ) pk (Ζ IX0) d Z. (2.6.221) Таким образом, если известны одношаговые плотности вероятности перехода nk (X|Z), то рекуррентное соотношение (221) позволяет вычислить все статистические характеристики марковкой последовательности. Марковская последовательность называется однородной, если одношаговые плотности вероятности перехода nk (X(Z) не зависят от k. Марковская последовательность называется стационарной, если она однородна и все состояния Xk имеют одну и ту же плотность вероятности р^ (X) = ρ (Χ) = lim ph (X). Стационарная плотность вероят- ности, если она существует, удовлетворяет интегральному уравнению /7 (X) = f n(X\Z)p(Z)dZ9 (2.6.222) где π(Χ|Ζ) = limJtft(X|Z). &-»-00 Аналогично (119), (120) довольно общее описание статистической динамики n-мерной марковкой последовательности Xk = X (tk) в дискретном времени дается разностным уравнением X*+,==<I>a(Xft,Wft), (2.6.223) где Фк (Хй, Wft) = Φ (Xfe, Wfe, tk) — я-мерная неслучайная вектор- функция евоих аргументов; Wfe = W (tk) — взаимонезависимые вы- 240
борки m-мерного случайного процесса с известными плотностями вероятности qk (W) = q (W, tk). При фиксированных значениях Xk разностное уравнение (223) определяет связь случайных величин Xfe+1 и Xft. Поэтому входящие в (221), (222) одношаговые вероятности перехода марковской последовательности могут быть найдены из (223) по известным правилам преобразования плотностей вероя1ности случайных величин [70] (см. §3.2). Для марковских последовательностей можно также задаваться раз·. личным характером поведения на границах некоторой области Ω с: с= 30 (см., например, [17]). В частности, если интересоваться первым выходом однородной марковской последовательности за границу Г области Ω, то вероятность Ρ (kf X0) того, что марковская последовательность из начального состояния Х0 ζ Ω впервые выйдет за границу Г на £-м шаге, может быть найдена из соотношения Ρ (ft, Х0)« f IP* -1 (Χ Ι Χ0)-Ρ* (X1 Xo)] d X, (2.6.224) & где плотности вероятности ph (X|X0) удовлетворяют рекуррентное му соотношению pk (X|X0) = J π (Χ Ι Ζ) ρΛ_! (Ζ|Χ0) rfZ. (2.6.225) Из (224) для среднего числа шагов до первого выхода за границу Г области Ω получим M{*|Xo}=i ftP(ft,Xe) = l+f Σ РПХ|Хо)^Х = 1 + + [P(X|X0)dX, (2.6.226) Ω oo где обозначено Р (Х|Х0) = 2 Pk (X|Xo)· Функция Ρ (Χ|Χ0)> как это следует из (225), может быть найдена* из решения интегрального уравнения P(X\X0) = n(X\X0) + $n(X\Z)P(Z\X0)dZ. (2.6.227) Отметим, что решение уравнений (222), (227) может быть получек но любым из известных методов решения однородных и неоднород·* ных интегральных уравнений Фредгольма [57]. Пример 2.6.7. Цифровая система ФАП второго порядка. Рассмотрим ци(}ь ровую систему ФАП второго порядка [69], структурная схема которой приведена на рис* 2,45. Предположим, что на вход системы действует аддитивная смесь | (t) полезного сигнала s (t) = А0 sin [ω0/+ θ (t)] и стационарного гауссовского шума w (f) с нулевым математическим ожиданием и дисперсией Ow» Предполагается также, что энергетический спектр шума постоянен в полосе пропускания системы ФАП, а ширина энергетического спектра шума достаточно велика, так что любые отсчеты процесса w (/), отделенные конечным интервалом времени,, можно считать статистически независимыми· 241;
Принятое колебание поступает на вход аналого-цифрового преобразователя (АЦП), в дискретизаторе (Д) которого в моменты времени tu берутся отсчеты ξ (£fe). Эти выборки смеси полезного сигнала и шума преобразуются в цифровую форму-при помощи квантователя (К). Предполагается, что ошибки квантователя по уровням пренебрежимо малы за счет использования достаточно большого количества двоичных разрядов для представления чисел, т* е. сигнал на выходе АЦП X (k) = X (th) «= Л о sin [ω0/Λ + θ (k)] + w (k), где θ (k) = θ (tk)f W (k) = W (th)* Выборки X (k) подаются на вход цифрового фильтра (ЦФ) второго порядка, на выходе которого формируется сигнал k У (к)=Аг X (k)+A2 2 Х (Л. (2.6.228) Ш I Рис. 2.45. Структурная схема цифровой ФАП используемый для изменения периода колебания генератора с цифровым управлением (ГЦУ). Период Τ (k) колебаний ГЦУ определяет моменты fa взятия отсчетов принятого колебания, причем Τ (k)=th-tkaml, а изменение периода колебаний ГЦУ связано с сигналом управления соотношением Τ (k) = Τ — Υ (k - 1), где Т = 2π/ω0 — номинальный период колебаний ГЦУ* Полагая без ограничения общности t0 = 0, для момента взятия очередного £-го отсчета имеем k k 'ft =2 Г(0-*Г-2! У (09 и, следовательно, само значение отсчета имеет вид X (k) =Л0 sin θ (Αι)—ω0 2 У (О + w (k) =Л0 sin щ+w(k), (2.6.229) где ошибка слежения за фазой полезного сигнала φ(£) = θ(£)-ω0 2 ПО- (2.6.230) Вычислив разность между приращениями фазовой ошибки φ (k + 1) — φ (k) и φ (k) — φ (k — 1), для описания динамики цифровой системы ФАП второго) порядка из (215) и (213) получим разностное уравнение Φ Φ + 1) — 2φ (k) + φ (k — I). _ θ (k + 1) - 2Θ (k) + θ (k — 1) — — ω0 (Aj + Δ2)Χ (£) + (DoAjX (A: — 1), (2*6.231) Рассмотрим случай, когда изменение фазы полезного сигнала определяется отклонением частоты от номинального значения (например, за счет эффекта Доплера), т. е, θ (t) = (ω — ω0)/+ const. (2.6.232) 242 ξ(ϋϊ ι ι Ι— _/ Д \ % АЦП И ГЦУ η \ш I -J Цф \ <
При этом из (231) с учетом (232) следует, что изменение фазовой ошибки будет описываться разностным уравнением φ (k + 1) — 2<р (k) + φ (k— I) = сэАгЛ (k — 1) — ω (Aj + Δ2)Χ (k)t (2.6.233) Разностное уравнение второго порядка (233) аналогично обыкновенным дифференциальным у ранениям может быть сведено к двум разностным уравнениям первого порядка* В данном случае введем функции и± (k) и w2 (k) так, чтобы Φ №) - «ι (*) - г щь (Л), г - 1 + (V^i)l (2.6.234) «ι (* + 1) — «2 <*)' (2.6.235) Подставив (234) в (233) и (229) с учетом (235), получим систему разностных уравнений Щ. (* + 1) - щ <*), "2 (* + 0 = 2w2 №) — ttt Φ) + ωΔι^0 sin [% (Λ) — rw2 (&)] + ωΔχα; (/г). (2.6.236) Так как выборки w (k) статистически независимы, система (236) определяет двумерную марковскую последовательность U (k) = 1щ (£)> w2 (&)JT* Уравнение Колмогорова—Чэпмена (221) в данном случае имеет вид Pk+i (U | U0)=Jпк (U | Z) pfe (Ζ I Ц) Л, (2.6.237) где U0 - U (0) = [φ (0), 0]т. Так как по предположению выборки стационарного шума w (k) распределены по нормальному закону, то плотность вероятности перехода в (237) не зависит от k и определяется равенством π (U | Ζ) = δ (Wl—z2) ■ exp {—[«2—2z2+Zi— Τ/2πσ2 —ωΔί Λ sin (ζ*—гг2)]2/(2о2)}, (2.6.238) где σ2 = (ωΔί)2σέ. Выполнив в (237) интегрирование по переменной ζ2, имеем оо Pfe+i («ϊ> «2 I Uo)= —— I exp {—[w2 —2^+z— •—00 —ωΔί Λ0 sin (ζ—rWl)]2/ (2σ2)} pfe (z, ^ | U0) dz, Po (2, «i I U0) = δ (ζ-φ (0)) δ (ttl). (2.6.239) Получим плотность вероятности ошибки по фазе, приведенной к интервалу (—π, η)» Введем плотность вероятности оо оо Я*(И1>«21Ц)= 2 2 Pk(«t+2m». Ηϊ+^/ηΙϋο). (2.6.240) Предполагая, что начальное значение φ (0) принадлежит рассматриваемому интервалу, из (239) и (240) имеем π Ph+i («ι, «a IU0) - J* /С («ι, Яг, г) Р* (г, α, | U0) at. (2.6.241) Для целых значений г функция К («i, w2, z) имеет наиболее простой вид 1 °° KfaBttg)" /т—- 2 ехр {—[а2—2Wi+2^+ +2—ωΔί Л0 sin (z—m1)p/(2a2)}. (2.6.242) 243
Us L // ~ j—yJ. Ρ φ 4 t -3,0 -1,0 -7,0 0 1,0 2,0 ψ Рис. 2.46. Стационарная плотность вероятности ошибки по фазе -3,0-1,0-1,0 О 1,0 1,0 Zfl ψ Рис. 2.47. Стационарная плотность вероятности ошибки по фазе в колебательном режиме Стационарная плотность вероятности, как это следует из (241), может быть найдена из решения интегрального уравнения Ρ («ί» *«)β J К («!» «2» ζ) Ρ (ζ, wi) dz. (2.6.243) Плотность вероятности ошибки по фазе может быть найдена по известным Pk ("it «21 Uо) и Ph («ι, u*|Uq) с помощью правил преобразования плотностей вероятностей (смв §3*2). Например, Pk (φ | <Ρο) определяется выражением я Pk (φ I Фо) = — J Pk U1$ ^p11 φ0, OJ аиг. На рис. 2*46, 2447 показаны стационарные плотности вероятности Ρ(φ) ошибки по фазе, полученные в [69] с помощью решения интегрального уравнения (243) методом последовательных приближений, Кривые на рис. 2.46 соответствуют значению ωΔ^0 = 0,6 и отношению сигнал-шум ρ = A%low = 20. Отметим, что значение г = 2 обеспечивает наименьшие ошибки по фазе в отсутствие шумов при достаточно больших kt На рис. 2.47 приведена плотность вероятности Ρ (φ) в стационарном колебательном режиме, полученная при ωΔ^0 = 1,8 и ρ = 50. Как показывает анализ линеаризованной модели (236), такой колебательный режим возникает при ωΔ^ο > 4/ (г + 1) [69]. 2.7. ПУАССОНОВСКИЙ ПРОЦЕСС И ЕГО ОБОБЩЕНИЯ Общие сведения о случайных точечных процессах Во многих областях естественных наук (радиотехника, физика, оптика, биология, медицина, экономика, теория надежности и массового обслуживания и др.), в технике и экономике часто возникают задачи, требующие вероятностного описания последовательности событий, возникающих в отдельных точках пространства или в отдельные моменты времени. В простейшем одномерном случае последовав 244
тельность случайных событий, происходящих во времени, можно характеризовать случайными моментами времени их появления tl9 ί2, t3 ,... на оси t. Такую последовательность событий часто называют случайным потоком (или просто потоком). Геометрически случайный поток можно изобразить в виде случайно следующих друг за другом точек на оси времени (рис. 2.48). Случайный поток можно также назвать случайным точечным процессом, так как реализации такого процесса представляют собой случайную последовательность точек. Укажем несколько конкретных примеров. 1. Пусть имеется дифференцируемый случайный процесс ξ (/), и нас интересуют пересечения этого процесса снизу вверх с горизонтальной прямой на уровне Н. Последовательность таких точек пересечения на оси времени будет представлять собой случайный точечный процесс. 2. Известно, что при работе электронных ламп электроны вылетают из нагретого катода в случайные моменты времени, что является одной из определяющих причин наличия дробового шума анодного тока. Последовательность моментов вылета различных электронов из катода есть случайный точечный процесс. В качестве другого примера можно указать на случайные моменты появления атмосферных и индустриальных помех на входе радиоприемного устройства. 3. Будем фиксировать моменты отказов разных элементов какого-либо сложного устройства (например, ЭВМ), содержащего много элементов. В результате получим поток отказов, являющийся случайным точечным процессом. 4. Последовательность заявок (посетителей, телефонных вызовов из данного района, неисправных приборов и т. д.), поступающих на обслуживание, есть также случайный точечный процесс. Выше приведены простейшие примеры точечных процессов, когда каждое событие определялось указанием лишь одной координаты — момента времени появления. Конечно, в конкретных задачах обычно встречаются более сложные ситуации. Например, для полного описания дробового шума, помимо указания моментов вылета электронов, важно знать форму импульса тока, наводимого вылетевшим электроном на аноде, которая зависит от случайной начальной скорости электрона. При анализе случайного потока в виде прямоугольных импульсов, помимо начала появления, нужно также знать длительность и высоту импульсов. При изучении потока грозовых разрядов или землетрясений, кроме указания момента начала грозового разряда или землетрясения, важно знать продолжительность и пространственные координаты источника (высоту, широту и долготу). В этом направлении возможны различные обобщения случайных точечных процессов. Рассмотрим одномерный случайный поток в виде неразличимых точек на оси времени (рис. 2.48). Обозначим через N (/) случайное число событий (точек), появляющихся в полуинтервале (0, t]. Значения N (f) изменяются на целое число только в моменты времени tif г = 1, 2, 3, ... Очевидно, что реализациями^случайного процеееа являются неотрицательные, целочисленные и неубывающие ступенчатые функции вида, приведенного на рис 2.48. 245
В последующем ограничимся изучением в основном целочисленных и ординарных точечных процессов. Случайный процесс N(t), определенный на полубесконечном интервале 0 < t < со, называется целочисленным, если N(t) может принимать только целочисленные неотрицательные значения, причем примем по определению N (0)ss=0. (2.7.1) Случайный процесо Ν (ί) называется ординарным, если вероятность наступления более одного события на любом малом интервале времени At есть величина более высокого Ш1 η порядка малости, чем Δ/: о tf tttz Χ Χ Χ )(—th ■XX -U-^, ь* Н<—Η ^+7 ;^ Ь tn-lf fn Χ Χ Χ 3». t Рис. 2.48. Случайный точечный и соответствующий целочисленный процесс Рис. 2.49. К определению прямого τ+ и обратного тг времени возвращения Ρ {Ν (t + At) — N(f)>l} = о (At). (2.7.2) Иначе говоря, ординарный поток есть поток относительно редких событий; в нем практически исключается тесная группировка или совпадение событий (наложение точек). Можно указать два тесно связанных между собой метода описания случайных точечных процессов [41, 71, 72]. Первый базируется на рассмотрении целочисленного процесса N (t), а второй — на анализе случайной последовательности точек на оси времени (рис. 2.48). Для описания случайного потока введем вероятности совместного выпадения т точек на полуинтервалах α* < ί < &* т (аи Ьг] = N (&,) — N (аг), Ъ% > аи (2.7.3) определив их следующим образом: Ри (Щ9 Яъ hi тъ 02» hi ···; ™>k> ak, bk) = = Ρ {m (au h\ = mu I = Tjt}. (2.7.4) Вероятности pk (mlf au bx\ ...; mk, ah, bk) совместного выпадения Щ> ···» ^л точек в полуинтервалах (аи Ьг]9 ..·, (akf bk] позволяют определить два важных частных вида случайных точечных процессов: стационарных процессов и процессов б независимыми приращениями (значениями). Стационарным точечным процессом называется случайный поток точек, для которых вероятности ph с произвольным индексом k не из- 246
меняются при сдвиге всех полуинтервалов (aif 6J, I = 1, k% по оси времени t на произвольную величину Δ: Рк (гпъ а19 Ьг; ...; mh> akt bh) = pk (mlf аг + Δ, Ьг + Δ; ...; mft, аъ + Δ, bh + Δ). (2.7.5) В частности, для стационарного точечного процесса должно выполняться равенство рг (т9 а, Ъ) = рг (т, а + Δ, Ь + Δ). Полагая здесь Δ = —а и обозначая τ = Ъ — α, можно написать рг (т, ауЬ) = ρ (m, τ). (2.7.6) Это выражение показывает, что в стационарном точечном процессе вероятность наступления некоторого числа событий в течение заданного отрезка времени τ зависит только от величины этого отрезка и не зависит от его расположения на оси времени. Случайный точечный процесс, для которого при непересекающихся полуинтервалах времени (ai9 &*], г =* 1, k. выполняется соотношение k Pk (™i> 0i Ъх\ ...; mky akl &ft) = Π Pi (mu ab bt)y (2.7.7) /=i называется процессом с независимыми приращениями (значениями). Равенство (7) выражает тот факт, что вероятность наступления событий в полуинтервале (a*, &*] не зависит от того, сколько раз и как появлялись события вне этого интервала. Поэтому условная вероятность появления mt событий на полуинтервале (ai9 &J при любом предположении о наступлении событий до at совпадает с безусловной вероятностью. В связи с этим иногда вместо независимости приращений говорят об отсутствии последействия, отождествляя эти два термина. Из изложенного следует, что полное вероятностное описание ординарного точечного процесса с независимыми приращениями достигается заданием вероятностей pt (mu a>u bt). Если в дополнение к этому процесс является и стационарным, то для вероятностного описания процесса достаточно указать вероятность ρ (ти bi — at). Случайный точечный процесс, удовлетворяющий трем условиям: ординарности, стационарности и независимости приращений, называется простейшим или пуассоновским процессом или потоком. Он играет фундаментальную роль в теории случайных точечных процессов и является основополагающим для формирования других, более сложных точечных процессов. Рассмотрим второй, «временной» метод описания случайных точечных процессов, базирующийся на изучении различных случайных величин, характеризующих расположение точек на ови времени. Предварительно введем два определения. Прямым временем возвращения %+ называется величина отрезка времени от произвольно взятого момента времени f до момента появления первого события после f (расстояние от f до первой точки справа — рис. 2.49). Применительно к теории надежности величину τ+ можно назвать остаточным временем жизни, так как τ+ является оставшимся сроком службы элемента, используемого в момент времени t\ Обратным временем возвращения τ~ 247
называется длительность временного интервала от момента появления последнего события, предшествующего t't до f (расстояние от t9 до первой точки слева — рис. 2.49). Если до момента f не было точек, то по определению время г~ принимается равным f. В терминах теории надежности τ~ является возрастом элемента, используемого в момент времени f. Пусть правее начала отсчета времени t0, принимаемого за нуль, выпали точки с координатами tl912, ..., tn,... Введем интервалы между соседними точками Т| — ti — ^г—it ί = 1, 2, 3, ..., (2.7.8) являющиеся неотрицательными случайными величинами. При произвольно выбранном начале отсчета времени интервал хг = tx = τ+ есть прямое время возвращения. Если с вероятностью единица число точек потока, выпавших на конечном интервале, конечно, то поток можно считать заданным, если заданы я-мерные плотности вероятности Ψη (ч> τ2> ···> ^п)· При этом выражение % (ть τ2, ..., xn).dxx .. dxn с точностью до величин высшего порядка малости по dxt равно совместным вероятностям нахождения х% в интервалах (хи *f + dxi), i = 1, η, η = 1, 2, 3, ... Вместо плотностей вероятности ψη (τχ, ..., τη) можно указывать плотности вероятности хУп (tlt t2, ..., tn)y n = 1,2, 3, ..., характеризующие случайные координаты точек, выпавших правее начала координат. Между плотностями вероятности ψη и Ψη имеются очевидные соотношения: ΨΛ (tu *., ..., tn) = % (tl9 t2 - tlt ..., tn - tn-г), (2.7.9) 4>n (τι, τ2, ..., τη) = Ψη (tb τχ + τ2, ..., хг + τ2 + ... + τη). (2.7.10) Поскольку плотности вероятности φη и Ψη связаны однозначной зависимостью, то в принципе безразлично, задавать ли ψη или Ψη. Отметим, что выражения для плотностей вероятностей ψΛ и Ψη даже в случае стационарного точечного процесса, вообще говоря, будут различными, когда начало отсчета времени выбрано произвольна и за начало отсчета взята какая-либо из выпавших точек. Выше указывалось, что оба метода описания случайных точечных процессов (g помощью целочисленного случайного процесса N (t) или последовательности случайных величин τ$, ι = 1, 2, 3, ...) тесно связаны между собой. Действительно, если N (t) есть число точек, выпавших в полуинтервале (0, t]9 т. е. до / включительно^ и t% — координата /-й из выпавших точек (tt <C t2 <Z ... < t% < ...), то N (i) = О тогда и только тогда, когда тх ~ τ+ > t и N (t)<Z n тогда и только тогда, когда хг + τ2 + ... + τη > t Поэтому P{N(i)^0}^P{xl>t}9 (2.7.11) Ρ {Ν (ί)<η) ^Ρ{χλ + τ2 + ... + τΛ> /}, η =* 1, 2, 3, ... 248
Следовательно, если известно распределение целочисленного случайного процесса N (t), то теоретически можно найти одномерные и многомерные плотности вероятности случайных величин ти τ2, τ3, ... или <ь '«t 'at — и наоборот. В некоторых практических задачах полное описание случайного процесса о помощью совместных вероятностей (5) или многомерных плотностей вероятностей (9), (10) может быть заменено более грубым, но зато и более простым указанием одномерных вероятностей, а также отдельных параметров (числовых характеристик) процесса. Во многих случаях необходимость такого упрощенного описания диктуется также возможностями экспериментальных исследований и проверок. Часто бывает очень сложно, а иногда практически невозможно получить экспериментальным путем многомерные вероятности, и поэтому ограничиваются определением лишь некоторых интересующих параметров. Имеются разнообразные возможности упрощенного описания случайных точечных процессоб [71, 731. Укажем те характеристики, которые будут рассматриваться в дальнейшем: 1) математическое ожидание числа событий Μ { N (t)} в полуинтервале (0, t] и другие моменты N (t) (в частности, дисперсия); 2) плотность событий λ (t), определяемая формулой λ (0 = lim (1/Δ0 Ρ {Ν (t + At)—N (t)}; (2.7.12) Δ*φ0 ι 3) время 4» при котором произойдет k-e событие; 4) прямое τ+ и обратное х~ времена возвращения. Рассмотрим сначала простейший пуаесоновский точечный процесс, а затем некоторые его обобщения. Пуаесоновский процесс Пуаесоновский процесс определяется как случайный процесс g независимыми стационарными приращениями, раопределенными по закону Пуассона. Целочисленный пуаесоновский точечный процезв {N (t)t 0 ^ t < < оо} определяется тремя свойствами f74]. # 1. Он ординарен, т. е. вероятность наступления более одного события на любом интервале времени At имеет более высокий порядок малости, чем At Поэтому для него выполняются соотношения Ρ {Ν (t + At) — N (t) = 1} =* Ρ {Ν (At) = 1} = XAt + ο (Δ/), (2.7.13) Ρ {Ν (t + At) — N (t) > 1} == Ρ {Ν (At) > 1} = ο (At), (2.7.14) где λ — некоторая положительная величина, имеющая размерность обратную времени. Физический смысл ее выясним позже. Следствием этих двух соотношений является равенство Ρ {Ν (t + At) — N (i) = 0} = Ρ {Ν (At) = 0} =* 1 — — XAt + o(At). (2.7.15) 249
2. Процесс стационарен, т. е. его вероятностные характеристики не изменяются при сдвиге всех точек вдоль оси времени на произвольную, но одну и ту же величину Δ. 3. Он имеет независимые приращения (значения) на неперекрывающихся интервалах времени (отсутствие последействия). Отметим, что согласно определению (1) для целочисленного процесса N (f) принимается ЛГ(0) = 0. (2.7.16) Выше указывалось, что полное вероятностное описание целочисленного процесса N (/), удовлетворяющего трем перечисленным свойствам, достигается заданием вероятностей ρ (&, τ) наличия k точек в интервале длительностью τ. Введем для этой вероятности другое обозначение Р*(т)=р(*,т) (2.7.17) и получим для нее аналитическое выражение. Пусть N (f) есть случайное число точек (событий) в полуинтервале (0, Д. Тогда на основании теорем сложения и умножения вероятностей для At > О можем написать ph (t + At)=>P {N (t + At) = k} = P {N (t) = k, Ν (At) = 0} + + P{N(i) = k—l,N(M) = l}+21 P{N(t)=k-t, N(At) = i} = = p {N (t) = k) Ρ {Ν (At) = 0\N(t) = k} + P {N (/)=* = k-l} Ρ {Ν (Ai) = l\ N (t) = k—l} + + 2 P{N(t) = k—i) P{N(Ai) = i\N(f) = k-i} = - Pk Φ Ρ № (Δ0-Ο \N (t) = k}+pk&l (t) Ρ {Ν (Δ0-1 ΙΝ (/) = = k-l} + % pk^(t) Ρ {Ν (At) = t\N (t) = k-i}. (2.7.18) Выражение (18) справедливо для любого точечного процесса. Третье специальное свойство пуассоновского процесса (независимость приращений), характеризующее марковский характер процесса, позволяет в выражении (18) заменить условные вероятности на безусловные: Ρ {Ν (At) = t\N (t) =* k — i} - Ρ {Ν (At) = /}> ' β ΟΤΧ Полагая в выражении (18) интервал At достаточно малым и пользуясь свойствами рассматриваемого процесса (13)—(15), можно написать pk(t+At)=pk(t)(l-XAt)+XPk^(t)At + o(At). (2.7.19) Переходя здесь к пределу при Δ/ ->■ 0, для вероятностей pk (f) получим дифференциальное уравнение ~ Pk (ί) + λρκ (0-λρ^ι (0, ft = 0f 1, 2,... (2.7,20) 250
В уравнении,- соответствующем k = О, нужно полагать р^х (t) == 0. Дифференциальные уравнения (20) должны решаться при физически очевидных начальных условиях р0 (0) - 1, рк (0) = 0, k =* 1, 2, 3, ... . (2.7.21) Решения линейных дифференциальных уравнений первого поряд- . ка с постоянными коэффициентами (20) можно получить несколькими методами. Можно, например, находить решения последовательно, начав с k = 0, а затем для k =* 1, k =? 2 и т. д. Так, полагая k = 0, получаем рйф = е-н9 г^0. (2.7.22) Подставив этот результат в (20) при k =* 1, получим Л (0 = λί β~λ', г > 0. (2.7.23) Проделав последующие вычисления, придем к окончательной формуле, получившей название закона Пуассона Pk (t) =-^ β^λί, k -ОД,2, ... (2.7.24) Из формулы (22) следует, что вероятность отсутствия точки на малом интервале времени Δί (удовлетворяющем условию %>&t< 1) приближенно равна р0 (Δί) ~ 1 — λΔ? + -1- λ2(Δ2)2—..., что согласуется со свойством закона Пуассона (15). Аналогично из (23) получаем Ρι (Δ0==λΔί—λ2 (Δί)2 + -1-λ3 (Δ*)8—.*♦, λΔ* < 1. Этот результат совпадает α (13). Кроме этого, отсюда следует, что λ = Ηπι рх(Ы)1Ы. (2.7.25) Δί-»0 Для краткости запишем за* кон Пуассона в следующем виде: ν* Phiy)·- k\ ν = λ?, fe=0, 1,2,... (2.7.26) Графики закона Пуассона для нескольких значений безразмерного параметра ν приведены на рис. 2.50. Если ν < 1, то pk (ν) имеет наибольшее значение при k = 0. При ν > 1, но не равном целому числу, ph (v) имеет наибольшее значение при k =[vj; Ζ Ъ U 5 f 7 к Рис. 2.50. Закон Пуассона 251
если же ν есть целое число, то наибольшее значение будет при k = ν и k = ν — 1. Известно, что при ν -> оо закон Пуассона стремится к нормальной плотности вероятности. Нетрудно проверить, что для закона Пуассона справедливы следующие функциональные соотношения: kpk(v) = vpkssl (v), k\ph(v) = v*/?o (ν). Начальные моменты закона Пуассона "** = J5 # A(v) (2.7.27) k = 0 равны mi = ν, m2 — ν + ν2, ms = ν + 3ν^ + ν3, m4 *= ν + 7ν? + + 6ν3 + ν4. (2.7.28) Другие моменты более высокого порядка можно вычислить, пользуясь одной из двух рекуррентных формул: /nn+i = vm„+vA^ = v2^ )тЛ., (2.7.29) Центральные моменты оо равны μ2 *= D =* ν, μ3 = ν, μ4 = ν + 3ν^. (2.7.30) Высшие центральные моменты закона Пуассона могут быть подсчитаны по рекуррентной формуле μΛ+1 =*νημη^ι + ν!μη. ,(2.7.31) Все кумулянты закона Пуассона равны v. Из (28) и (30) следует, что для закона Пуассона математическое ожидание и дисперсия равны друг другу: тг « D = ν = XL (2.7.32) Поскольку математическое ожидание тх определяет среднее число точек, выпавших в полуинтервале (0, t], то параметр λ = mjt (2.7.33) можно трактовать как вреднее число точек, приходящихся на единичный интервал времени. Поэтому параметр пуассоновского процесса часто называют интенсивностью потока. Изучим теперь статистические характеристики временнйх интервалов между различными точками. Сначала найдем функцию распределения времени появления &-й точки th Ftk(t) = P{tk<t}. (2.7.34) 252
Рассмотрим типовую реализацию рассматриваемого целочисленного процесса N (/) (рис. 2.48). Из рассмотрения рисунка можно прийти к заключению, что существует однозначное соответствие между значениями целочисленного процесса N (t) и моментами появления точек. В частности, события {tk < /} и {N (f) > k — 1} являются статистически эквивалентными (имеют равные вероятности), так как одно из них осуществляется тогда и только тогда, когда происходит другое. Поэтому можем написать Ρ {tk < t) = Ρ {Ν it) > k — 1} =* 1 - Ρ {Ν (t) <& - 1}. (2.7.35) Если ввести. функцию распределения закона Пуассона Ρν(π)=Σ^^Κ\ ^ (2.7.36) то предыдущее равенство примет вид Ftk (t) = 1 —FN (k— 1), k = 1,2,3,... (2.7.37) Наоборот, Fn (0-1— ^+i ©. ί-0,1,2,*. (2.7.38) Отметим, что формулы (37) и (38) справедливы для любого целочисленного процесса {N(t)9 0 ^ i < + оо} о единичными скачками в точках tk, если принято N(0) а 0. Применительно к закону Пуас· сона формула (37) дает Ftk (0 = l-e^ 2 -i^-, />0. (2.7.39) Отсюда, беря производную по времени t, получаем плотность вероятности времени 4 появления &-й точки: L (ft—2)1 (A;—1)1 v (£-2)! J (£-1)! Таким образом, плотность вероятности времени появления k-й точки определяется формулой Pth (ί)==λε-λ/ (M)k-4(b—l)L k= 1,2,3,...; < > 0. (2.7.40) Эта плотность вероятности известна как гамма-распределение (с параметрами k и λ) и как зшеоя Эрланга, Воспользовавшись формулой 253
(40), нетрудно найти среднее значение и дисперсию времени tk появления ft-FO события: Μ {tk} = k/λ, D(tk) = kl%\ (2.7.41) Покажем/ что последовательность временных интервалов между соседними точками пуассоновского процесса есть независимые и одинаково распределенные случайные величины с экспоненциальной плотностью вероятности. Обозначим интервалы между точками через τχ = к — 0, τη = th — 4-1, k = 2, 3, 4, ... (2.7.42) Согласно третьему определяющему свойству пуассоновского процесса (независимость значений на неперекрывающихся интервалах) появление событий после любого момента времени tnt η = 1, 2, 3, ..., не зависит от того, сколько и как появлялись события до и при tn. Поэтому последовательность случайных величин {xft, k = 1, 2, 3, ...} является независимой. Для произвольного τ > 0 события {τη > τ} и {Ν (tn-i + τ) — — Ν (tn-i) = 0} статистически эквивалентны, так как осуществление одного из них достоверно влечет осуществление другого· Поэтому Ρ Κ >*} = Ρ {Ν (ίη~ι+τ)~Ν (^0 = 0} = Р {М (т) = 0}^е«Ч На основании этого равенства находим функцию распределения интервалов F (τ) = Ρ Κ < τ} = 1 — е~Ч τ > 0. (2.7.43) Следовательно, плотность вероятности временных интервалов между соседними точками является экспоненциальной: Ρ№ = 4-ρ(τ) = λ^%Χ> Ό0. (2.7.44) an Среднее значение и дисперсия интервалов между точками равны Μ {q?ft} = l/λ, D (xft)= l/λ2, k -= 1,2,3,... (2.7.45) Из сравнения выражений (41) и (45) следует, что M{th}=kM{xk},D(tk) = kD(xk). Такой результат является закономерным, так как /» »Σ^.ιΤ|9 где xt — независимые и одинаково распределенные случайные величины. Докажем теперь обратное утверждение. Пусть имеется последовательность независимых случайных величин гъ z2t ..., zft, ..., имеющих одну и ту же экспоненциальную плотность вероятности Рп (г) = ρ (ζ) = Яе-Ч ζ > 0. (2.7.46) Организуем случайный точечный процесс следующим образом. Стартуя от произвольной начальной точки t = 0, расставим точки в моменты времени tx = гъ t2 = гг + г2,.,., th =* zt + z2 + ... + zfe,... Можно утверждать, что полученные точки распределены по закону Пуассона с параметром λ. Чтобы доказать наше утверждение, необходимо показать, что вероятность ph (t) иметь k точек в полуинтервале (0, t\ дается законом Пуас- 254
сона (24). Предварительно приведем несложные математические сведения. Используя известный интеграл ί ej<>* e-λ* d* =* 1 , λ > 0, (2.7.47) λ—jd о убеждаемся, что плотности вероятности (46) соответствует характеристическая функция 00 ОО φ (j<»= ГeJ»*p(z) ώ-λ Γ ехр (|0г—te) ώ «_Jl_. (2.7.48) J J λ—j Φ о о Дифференцируя k — 1 раз обе части равенства (47) по λ, убеждаемся, что характеристической функции Φ 0#) = (λ/(λ-]'#))* (2.7.49) соответствует плотность вероятности ρ(ί) = λ <λ'>*~! е-**, <>0. (2.7.50) (л —I)! Все рассматриваемые случайные величины zft независимы и имеют одинаковую плотность вероятности (46). Поэтому характеристическая функция их суммы th равна произведению характеристических функций (49) и соответственно плотность вероятности случайной величины /ft дается выражением (50). Учтем, что случайные величины th и zA+1 также независимы, так как ги г2, ..., Zft не зависят от zft+1. На этом основании совместная плотность вероятности th и zh.H дается произведением их плотностей вероятностей: Ρ (ί) ρ (ζ) =з λ* t*~l е-** te-*«, <>0t z>0. (A—1)! Чтобы в полуинтервале (0, τ] было ровно k точек, должны совместна выполняться два неравенства: tk < τ и fft+1 = ^ + zft+1 > τ. Поэтому искомая вероятность должна определяться следующими условиями: Pk(t)=*P{tk<-v, tk + zk+1>v}=*P{tk<% 2&+ι>τ—2fe} = 1)! J <*_1)! Таким образом, утверждение доказано. С помощью аналогичных рассуждений можно показать, что количество точек в неперекрывающихся интервалах независимо. Следовательно, два термина: 1) точечный процесо является пуас- соновским и 2) интервалы между соседними точками процесса — независимые случайные величины с одинаковой экспоненциальной плотностью вероятности (44) по существу являются эквивалентными. Для полного статистического описания пуассоновского точечного процесса вычислим плотности вероятности прямого τ+ и обратного τ~ 255 τ оо . :[di [ -1L
времен возвращения (рис. 2.49). Возьмем произвольный момент времени f'. Пусть в результате такого опыта оказалось, что момент времени t'J накрывает интервал τη = ίη — /Л_ь т. е. tn есть случайная λ координата первой точки рассматриваемого потока справа от f и tn-χ — координата последней точки слева от f. Тогда τ+ = tn — f, τ~* = t' — ίΛ_χ. Покажем, что плотности вероятности этих случайных величин одинаковы и экспоненциальны, т. е. определяются соответственно формулами ρ+^^λβ1"^, /?-(τ) = λβ-λ\ τ>0. (27.51). Действительно, пусть τ> 0. Два события {τ+ < τ} и {JV (/' + τ) — — N(tl) ^ 1} = \Ν(τ) ^ 1} = 1 — {Ν(τ) = 0} статистически идентичны, и вероятности их равны: F+ (τ) = ρ {τ+<τ} = 1 _р0 (τ) = 1 — β~λτ, τ>0. Продифференцировав это выражение по τ, придем к первой формуле (51). Аналогично доказывается и вторая формула. Плотности вероятности (51) совпадают о (44), т. е. вероятностные характеристики прямого и обратного времени возвращения такие же, как и для интервалов между соседними точками пуассоновского процесса. Иначе говоря, ничего не изменится, если на рис. 2.49 считать, что в f находится точка пуассоновского процесса. Рассмотрим случайную величину τ = τ+ + τ~ = tn — tn_v Поскольку случайные времена τ+ и τ"* независимы и одинаково экспоненциально распределены, то плотность вероятности их суммы будет определяться выражением вида (50) при k = 2: ρ{τ)^%Η^\ <с>0. (2.7.52) Эта плотность вероятности отличается от (44) и, как нетрудно проверить, совпадает о плотностью вероятности случайной величины (/Л+1 — Смысл плотностей вероятностей (44) и (52) различен. Плотность вероятности (44) есть априорная плотность вероятности интервала между любыми соседними точками пуассоновского потока, а (52) является апостериорной плотностью вероятности того интервала, на котором оказался рассматриваемый момент времени V. Приведем еще одно свойство точечного процесса Пуассона, характеризующего его как чисто случайный процесс. Пусть {N (t), t^O} есть пуассоновский точечный процесс с интенсивностью λ. Предположим, что во временном полуинтервале (0, Т] имеется k точек, т. е. N (Т) = k. Тогда k случайных моментов времени tx < t2<Z ... < th> при которых осуществляются события, имеют такую же совместную плотность вероятности, что и порядковая статистика k независимых случайных величин иъ и2у ..., ukt распределенных равномерно в полуинтервале (0,7Ί. Говорят, что последовательность vu ι/2, ..., vk есть по- рядковая статистика, соответствующая случайным величинам иъ иъ ..., uk, если ^ — наименьшее значение среди uit и2, ..., uk, v^ — вто- 256
рое наименьшее значение среди ии и2 uh и т. д., так что Oh наибольшее значение среди иъ и2, ..., uh. ^ Для доказательства [75, 76J разобьем полуинтервал (О, Т] на Μ примыкающих подынтервалов точками ίό> t{9 ..., Vm (рис. 2.51), не связанными с временами событий tt. Пусть to = 0, I'm = Г, Am — tin — — fit—ι, га = 1, 2,..., Μ. Очевидно, что м т= 2 Δ>». (2-7·53) Обозначим число событий, оказавшихся в подынтервале hm = (&_/, 41, w = 1, 2,..., Λί, через &m. Ясно, что при принятом предположении k= |] km. (2.7.54) Запишем выражение для условной совместной вероятности наличия km событий в подынтервале hm длительностью АШ9 m = 1,2, ..., Μ, при условии, что во всем полуинтервале (О, 7Ί имеется k событий P{N (At) = kl9 N(A2) = k2f ..., Ν (Ам) - - kM I ВД = *} = = Ρ {Ν (Αχ) = £1э tf (Δ2) = 62,.„, # (Am) = Ы W (Г) - = k}/P{N(T) = k} = = P{N (Аг) - ku Ν (Δ2) = *2,.„, N (AM) =* Ы/ />{# (Т) = и}. (2.7.55) Здесь последнее равенство" написано на том основании, что последовательность событий {N(Am) = km) вследствие равенств (53) и (54) включает в себя событие {Μ (Τ) — k). Поскольку рассматриваемый процесс имеет стационарные и независимые приращения, то P{N(Ax)^kl9 Ы(А2)=къ .... N(AM) = kM}= Пр(^(Дт) = и- В каждом из подынтервалов число событий распределено по закону Пуассона, т. е. P{N(T)^k} = ph{T)=,-^^т. Поэтому Ρ {Ν (Δ,) - kit Ν (Δ2) - К .... Ν (Δμ) = kM j Ν (Τ)« k) - e—ir x xW*„ Л "м-""?" Л ~ω~' (· ·5β) 9 Зак. 956 257
Допустим далее, что подынтервалы Дт взяты настолько малыми, что каждый из них практически может содержать лишь одну точку процесса. Тогда будет k подынтервалов, имеющих одну точку процесса, и Μ —k подынтервалов, не содержащих точек. Для первых подынтервалов (Am)fe™ =* Ат и km\ =1, а для остальных Μ — k подынтервалов (Am)*™ = А£г = 1 и km\ = 0! = 1. Следовательно, фигурирующее в (54) произведение будет содержать только k сомножителей, соответствующих тем подынтервалам, которые имеют по одной точке процесса. Пронумеруем заново эти подынтервалы так, чтобы подынтервал hi содержал ί-ю порядковую точку процесса tt. При этом условная совместная вероятность (56) становится условной совместной вероятностью событий {tt£hi}, i = 1, k. Таким образом, к P{h£hJ*Zh,...JbZhh\N{T)=k}=-$- Π Δι. (2·7·57) Τ где предполагается О <С tx <. t2 < ··· < h ^ Т. п точен Ьга« 1 χ к t к ι χ ι χ г> к точен н ι χ ι χ ι frtitf tm-ftm tirft J*"*"* χ- χ χ—*-*■ X XXXI to tr Рис. 2.51. Разбиение полуинтервала Рис. 2.52/ Случайное рас- (0, Т\ на подынтервалы положение точек в полуинтервале (0, Т] Покажем теперь, что формулой (57) описывается и последовательность случайных величин vlf t;2,..M vh. По условию каждая из случайных величин щ распределена равномерно в интервале (0, Л. Поэтому условная плотность вероятности имеет вид Λ (Щ \N(T) = k) = 1/Т, 0 < щ < Г, i = 1, 2, ..., *. (2.7.58) Так как по предположению все случайные величины uL независимы, то их условная совместная плотность вероятности равна произведению отдельных плотностей вероятностей: Pk (id, и.··..· uh \N(T) = k) = liTk> 0 < α, < 71, i = 1, 2, ...ft. При организации порядковой статистики vit v2t ..., vh для случайных величин ии и2, ..., uk учтем, что имеется k возможностей выбора величины vt среди иъ и29 ..., uh; k — 1 возможностей выбора г>2 из оставшихся величин ии u2f .... ил и т. д. Следовательно, существует ft! равновероятных и несовместных способов образования величин ии v2,...,vk из иъ и2> ..., lift. Поэтому условная совместная плотность вероятности для случайных величин vu v2, ..., vk дается выражением PkiPi. »i..··. vh\N(T) = k) = kUT*9 0<θ!< < Γ, ί - 1, 2,..., ft. (2.7.59) 25a
Теперь случайные величины щ можно рассматривать как времена появления точечных событий, и, повторив предыдущие рассуждения, придем к следующему выражению для условной совместной вероятности: ы — dtldt.i...dth=— Π Λι· (2.7.60) 1 L ί=\ Из совпадения формул (57) и (60) следует идентичность вероятностных характеристик пуассоновского точечного процесса и порядковой статистики независимых случайных величин, равномерно распределенных в полуинтервале (0, Г]. К полученному результату можно прийти другим, более простым и коротким, но менее строгим путем, базирующимся на том, что при определенных условиях биномиальное распределение переходит в пу- ассоновское [5]. Допустим, что случайным и независимым образом во временном полуинтервале (0, Г] размещено η точек, причем вероятность какой- либо точке оказаться на отрезке τ = /' — to (рис. 2.52) равна ρ = τ/Γ. Нас интересует вероятность pk (τ) того, что на отрезке τ окажется ровно k < η точек. Выражение для pk СО можно получить, применяя рассуждения, используемые в классической задаче о повторении испытаний. Пусть Сх есть эксперимент размещения одной единственной точки в полуинтервале (0, Г] и Л ι — событие, что точка попадет в интервал τ; вероятность такого события равна ρ = τ/Γ. Считается, что эксперимент Сг повторяется η раз. Известно, что при этих условиях вероятность pk(x) того, что на отрезке τ будет находиться k точек, определяется биномиальным законом: Ph (*) = (ΐ I Pkqn**\ q = 1 — p. -о Предположим, что п > 1 и τ/Γ < 1. При этих условиях для значений k порядка ητΙΤ биномиальный закон хорогцо аппроксимируется законом Пуассона ph(x) ~ J^I^exp(- mlT)~J^e^\ λ = » (2.7.61) Если п-*- оо, Г->- оо, η/Τ-*-λ$ то формула (61) становится не приближенной, а точной. Этим завершается доказательство. В качестве итога перечислим физические условия, при которых точечный процесс будет пуассоновским. 1. Точечный процесс {N (t), 0^/<C оо } будет пуассоновским при выполнении трех условий (13)—(15). 2. Если тк есть расстояние между β-й и (k —1)-й точками процесса, то случайные величины rk должны быть независимы с общей плотностью вероятности (44). 9* 259
3. Расстояние от произвольно взятого момента времени f до следующей случайной точки tt является случайной величиной·, не зависящей от того, что происходит вне интервала (t\ tj)9 и имеющей экспоненциальную плотность вероятности вида (46). 4. Полное число событий U в полуинтервале (О, Т] равно п, каждое из них равномерно распределено в этом интервале. Тогда число точек k в интервале τ имеет пуассоновское распределение β параметром ητ/Τ. Обобщения пуассоновского процесса Возможно много различных обобщений пуассоновского процесса, связанных с модификацией свойств ординарности, стационарности и отсутствия последействия или с отказом от этих свойств [77]. Укажем здесь несколько таких обобщений, а именно: 1) пуассоновский процесс в нескольких измерениях, 2) неоднородный пуассоновский процесс, 3) пуассоновский процесс с кратными событиями, 4) профильтрованный пуассоновский процесс, 5) другие виды. Пуассоновский процесс в нескольких измерениях. Иногда приходится иметь дело с пуассоновским процессом в нескольких измерениях, например в трех. Пусть в жидкости взвешены мельчайшие частицы какого-либо вещества. Вследствие ударов окружающих молекул эти частицы будут находиться в непрерывном хаотическом движении (броуновском движении). В результате распределение частиц в пространстве будет случайным. Допустим, что разбросанные в пространстве точки (частицы) удовлетворяют прежним трем требованиям: 1) стационарности — вероятность pk(v) оказаться к точкам в области g зависит только от объема Ό этой области, но не зависит ни от ее формы, ни от положения ее в пространстве; 2) отсутствия последействия — числа точек, попавших в неперекрывающиеся области, являются независимыми случайными величинами; 3) ординарности — вероятность наличия в малом объеме Αν более одной точки имеет более высокий порядок малости, чем Αν, т. е. Ρ{Ν (Αν) > 1} = О (Δι;), Ρ {Ν (Αν) =* 1} = λΑν + ο (Αυ). Можно показать, что при этих условиях справедлив закон Пуассона ftW—^-е^·. . (2.7.62) Неоднородный пуассоновский процесс. Пуасвоновский процесс называется неоднородным, если его интенсивность зависит от времени λ (t). Наоборот, если λ (t) = λ = const для всех t, то пуассоновский процесс называется однородным. Функция интенсивности λ (t) может быть детерминированной или случайной. 260
Неоднородный пуассоновский процесс определяется следующими условиями. Целочисленный случайный процесс {Ν (t), 0</<οο} имеет независимые, но нестационарные приращения, причем для него условия (14) и (16) остаются прежними, а условия (13) и (15) принимают вид P{N (t + At) — N (t) = 1} = λ (t)At + ο (At), (2.7.63) Ρ {N(t + At)-N(t) = 0}=*l-% (t) At + o (At). (2.7.64) Для получения закона распределения можно применить предыдущую методику. Разобьем, например, полуинтервал времени (0, t + + At] на два примыкающих подынтервала (0, /1 и (t, t + At] и учтем, что приращения процесса на этих подынтервалах есть независимые случайные величины. Тогда можно написать Ρ {M(t + At) = 0} = P{N (t) =*0}P{N(t + At) —ΛΓ(ί) = 0}. Воспользовавшись условием (64) и сохраняя прежнее обозначение (17), огсюда получаем дифференциальное уравнение jLPo{t) = -%(t)po{t), решение которого при начальном условии р0 (0) =* 1 имеет вид /?о (t) = ехр ( — j λ (τ) dx\ (27.65) Естественно, что при λ (/) = λ = const эта формула переходит в (22). Аналогично получаем дифференциальные уравнения для вероятностей рк (f) = Ρ {Ν (t) = k}, k > 1, рассматривая различные частные случаи получения P{N (t + At) = k}: P{M(t + At)^k}=^P{N(t)^i)P{N(t+At) — N(t)^k—i}. JG учетом условий (14), (63) и (64) отсюда получаем систему рекуррентных линейных дифференциальных уравнений первого порядка, позволяющую последовательно находить вероятности рь (t)l -i-ph(t) + λ(t)ph(t) =*λ(/)ры(t\ k^\. (2.7.66) at Общее решение этой системы дается выражением pk(t)^±ί|λ(τ) dxJ exp (~^%(x)dx\ *> 1. (2.7.67) Эта формула называется неоднородным законом Пуассона; при λ = = const она переходит в обычный закон Пуассона (24). Укажем, что ее можно было получить иначе, в частности, с помощью производящей функции вероятностей или преобразования шкалы времени. Если, например, ввести новую переменную s (t) как строго возрастающую функ- 261
цию времени t% причем s (0) = 0, то вероятность наличия события в полуинтервале (s, s + As] приближенно равнз λ (t) As dtlds. Если наложить ограничение λ (t) dtlds = 1, т. е. t s(t)~* Γλ(τ)ίίτ, то в новой шкале времени мы будем иметь однородный пуассоновский процесс с постоянной функцией интенсивности, равной единице. Возвратившись затем к первоначальной переменной t, придем к формуле (67). Отметим, что для неоднородного процесса Пуассона выполняется соотношение, аналогичное (32): математическое ожидание и дисперсия равны друг другу и даются формулой t Μ {Ν (t)} = D(N (t)) = J λ (τ) άτ. (2.7.68) В практических задачах в качестве функции интенсивности часто берут убывающую функцию вида λ (/) = а ехр (— βί), где α и β — положительные величины, определяемые экспериментально. Пуассоновский процесс с кратными событиями. Допустим, что остаются справедливыми условия (13) — (16), т. е. случайные точки на оси времени распределены по закону Пуассона (24), но произвольная k-я точка может содержать mh каких-то событий, где mk — взаимонезависимые и одинаково распределенные случайные величины g известными вероятностями ρ {т = μ} = 0μ# μ = l, 2, 3, ... (2.7.69) Введем производящую функцию этих вероятностей [17] g (г) = 2^zu. Пусть в полуинтервале (0,t] имеется N (t) случайных точек и Μ (t)— общее число событий. Предположим, что N (t) = п. Тогда вероятность числа событий Μ (t) представляет собой /г-кратную свертку вероятностей (69), а производящая функция для Μ (t) равна gn (ζ). Так как число точек в полуинтервале (0, t] случайно и распределено по закону Пуассона (24), то производящая функция вероятностей для Μ (t) будет равна G (г, 0 =■ 2 *"{Ζ)"^Γ Θ"~λ'в 6ХР [М 8 (Z)~ Ktl <2·7·70) Зная производящую функцию вероятностей, можно вычислить различные характеристики случайной величины Μ (t). Нетрудно убедиться [77], что характеристическая функция пуас- соновского процесса с кратными событиями имеет вид ΦΛί(0 0*) = ехр {Xt [φ 0'*) - И}, (2.7.71) где φΟΌ1)— в свою очередь, характеристическая функция неотрицательных целочисленных случайных величин т, имеющих вероятности ςμ 262
Ф (!<»=■ 2 <7αβ^. (2.7.72) Маркированный и сложный процессы Пуассона. Точечный процесс называется маркированным точенным процессом, если с каждой /г-й точкой связана вспомогательная случайная величина ζη, принимающая счетное или непрерывное множество значений из некоторой об· ласти. Если {N (t), t^O} есть целочисленный случайный процесс, определяющий полное число точек в полуинтервале (0, t] независимо от значений ζη, то маркированный точечный процесс можно характеризовать «накопленным» значением EW-^SC». £o = 0 (2.7.73) я—О Частным видом маркированного точечного процесса является сложный пуассоновский процесс. Случайный процесс {ξ (/), />0} называется сложным процессом Пуассона, если для / ^ О его можно представить в виде 6(0- S С, (2.7.74) гс=0 где {N(t),t > 0} — простой процесс Пуавсона и {ζη, η — 0, 1, 2, ...} — независимые и одинаково распределенные случайные величины. Процесс {N (t), t > 0} и последовательность случайных величин {ζ^} предполагаются независимыми. Следовательно, правая часть равенства (74) представляет собой сумму случайного числа слагаемых, каждое из которых есть случайная величина, не зависящая от других, и все слагаемые одинаково распределены. Покажем, что сложный процесс Пуассона {ξ (t), t^O) имеет стационарные и независимые приращения. Его характеристическая функция равна Ф|«) (Jfl) « exp {λ* [φξ jO) -1 ]}, / > 0, (2.7.75) где φζ О'Ф) — общая характеристическая функция независимых идентично распределенных случайных величин {ζη} и λ — средняя частота наступления событий. Если среднее значение квадрата случайных величин {ζη} ограничено Μ {ζ2} <Ζ оо, то процесс ξ (t) имеет конечные первые моменты, определяемые формулами М{6(/)>-Ш{С>, (2.7.76) D (ξ <*)) = λ*Μ{ζ2}, (2.7.77) R (s,0 = М{[| (s) - Μ{ξ (8)}] [Б (t) - ЩЪ (*)}!> - λΜ{ζ2} min (β, О- (2.7.78) Перейдем к доказательству перечисленных свойств. Так как пуассоновский процесс {Ν (/), t ^ 0} имеет независимые приращения и {ζ„} есть последовательность независимых и одинаково распределен- 263.
ных случайных величин, то физически ясно, что процесс {l(t), t ^ 0} имеет независимые приращения. Чтобы доказать, что процесс {ξ (t)f t^O) имеет стационарные приращения и что справедлива формула (75), достаточно показать, что для любых t > s > 0 характеристическая функция приращения процесса Δξ (s, t) =* ξ (t) — | (s) имеет вид Φδ* 0*) = ехр {λ (t-s) 1φζ (j#) -1]}. (2.7.79) Действительно, при п = 0, 1, 2, ... для условной характеристической функции справедливо соотношение Μ {ехр j# [ξ (t) - ξ (5)1 Ι Ν (t) - Ν (s) = η) = {φζ (jfl) }*, так как при фиксированном числе событий в полуинтервале (s, flf равном я, величина ξ (/) — ξ (s) представляет собой сумму η независимых и одинаково распределенных случайных величин ζ. Поэтому для безусловной характеристической функции приращения процесса можем написать ΦΔξϋ*) «2 M{exp№W)-Hs)]\N(t)-N(s) = n}x xP{N(t)—N(s) = n} = Υ ШШп [Xit~s)]n е-М'~'> « «Го Λΐ ββ-λ(ί-·> ехр [λ (ί—s) vt (J*)l. Таким образом, формулы (75) и (79) доказаны. - Для получения формул (76) — (78) можно воспользоваться известным правилом нахождения моментов при помощи дифференцирования характеристической функции (95) или же применить тождество Вальда (см. с. 326). Из формулы (75) следует, что если ζ есть целочисленная случайная величина, то сложный процесс Пуассона {£ (t)t t^O} совпадает о пуассоновским процессом с кратными событиями. Наоборот, любой пуассоновский процесс о кратными событиями может быть представлен как сложный процесс Пуассона. Однако оба процесса не являются тождественными. Профильтрованный пуассоновский процесс· Следуя [75, 77], примем за исходное следующее определение профильтрованного пуассоновс- кого процесса. Случайный процесс {£(*)> *>0} называется профилып· рованным пуассоновским процессом, если для t ^ 0 его можно представить в виде ξ («-"j? * Λ τι, Ь). (2.7.80) Здесь {N(t)> t ^ 0} — пуассоновский поток с интенсивностью λ, {ζ^} — последовательность взаимно независимых и одинаково распределенных случайных величин, не зависящая от {N(t)f ί^Ο}, h(t,x9 ζ) — детерминированная функция трех действительных переменных. 264
Во многих практических задачах отдельные величины в записи (80) допускают следующую интерпретацию: τ* — время появления случайного события, ζ* — «амплитуда» элементарного случайного события, h (t, хи ζι) — обусловленное этим событием значение элементарного сигнала в момент времени / и ξ (t) — значение при Ь суммы элементарных сигналов, обусловленных событиями, осуществившимися во временном полуинтервале (0, /]. Из выражения (80) следует, что для задания профильтрованного пуассоновского процесса необходимо указать: 1) интенсивность или параметр λ порождающего пуассоновского потока N(t)9 2) общее для всех случайных величин {ζ*} вероятностное распределение и 3) конкретный вид функции h (/, τ, ζ). Этот вид процесса весьма часто встречается в радиотехнических задачах и поэтому будет рассмотрен ниже. Другие виды процессов. Хотя имеется много других обобщений пуассоновского точечного процесса [77], укажем здебь лишь два: дважды стохастический пуассоновский процесс и процесс восстановления* Дважды стохастический пуассоновский процесс получается из обычного пуассоновского процесса путем модуляции (рандомизации) его интенсивности «внешним» случайным процессом {χ (/), t > 0}, кото? рый в радиотехнических задачах часто представляет собой информационное сообщение. Точнее, {N (t), t ^ О}4 есть дважды стохастический пуассоновский процесс с интенсивностью — процессом {λ (Χ (t))9 t > 0}, если N (t) почти для каждой реализации информационного процесса {χ (t)9 t ^ 0} является процессом Пуассона с функцией интенсивности λ (X (t)). В пуассоновском процессе интервалы между последовательными событиями были независимы и одинаково экспоненциально распределены. Очевидное и важное обобщение получается в предположении, что интервалы между последовательными событиями взаимонезависимы и одинаково распределены с некоторой общей плотностью вероятности ρ (τ). Получающуюся последовательность точек на оси времени принято называть процессом восстановления [17, 41, 71]. Профильтрованный пуассоновский процесс Дробовой шум электронных и полупроводниковых приборов, а также импульсные помехи различного происхождения часто описывают профильтрованным пуассоновским процессом [78, 79]. На частном примере дробового шума поясним физический характер рассматриваемых процессов, а затем получим основные соотношения, определяющие вероятностные характеристики таких процессов. Дробовым шумом обычно называют флюктуации тока в вакуумных и полупроводниковых приборах, обусловленные случайным характером эмиссии и движения электронов в них. Рассмотрим в качестве конкретного и простейшего примера плоскопараллельный электровакуумный диод, работающий в режиме насыщения· Анодный ток диода представляет собой суперпозицию элементарных индуцированных импульсов, возникающих из-за пролета между катодом и ано* дом отдельных электронов» Поскольку в режиме насыщения нет взаимного влияния элементарных импульсов друг на друга, то анодный ток есть просто линей- 265
нал сумма элементарных импульсов. Форма отдельного элементарного импульса определяйся динамическими уравнениями движения электрона. Если не учитывать различие и случайное значение начальных скоростей эмиттируемых катодом электронов (сю* ниже), то форма всех элементарных импульсов будет одинаковой и они будут различаться только временами появления tu Если U — момент времени вылета электрона из катода, то в рассматриваемом частном примере элементарный импульс тока, индуцированный на аноде пролетом электрона, имеет вид прямоугольного треугольника, изображенного на рис. 2.53, где е — заряд электрона, та — время пролета электрона между катодом и анодом. Предположим, что наблюдение за анодным током какого-либо одного диода начинается в момент времени /= Ои этот ток i(t) измеряется в момент времени t. Допустим, что t много больше длительности элементарного импульса та Рис. 2.53. Элементарный импульс индуцированного тока **+Чг (чтобы можно было не учитывать влияние на ток i(i) элементарных импульсов, появившихся до начального момента времени t= 0). Если в полуинтервале (О, t] было эмиттировано ровно k электронов, то ток рассматриваемого диода равен i(t) = ΣΗ (t— ft). Здесь h (t— ti) — детерминированная форма эле- ментарного импульса, обусловленного электроном, эмиттируемым в момент времени ή, причем времена й не ранжированы. Предположим, что описанная операция наблюдения осуществляется над большим числом идентичных диодов, работающих в одинаковых условиях. Тогда естественно допустить, что число эмиттируемых электронов в разных диодах за время (0, t] будет различным. С учетом этого обстоятельства ансамбль диодов можно характеризовать случайным процессом {«/а(0> 0< *<°°}> где Λ«· 2 Λ (*-/,). (2.7.81) /=! Здесь N (t) — целочисленная случайная величина, определяющая число электронов, эмиттируемых в полуинтервале (0, t}; ti — случайные неранжированные времена эмиссии электронов. Если принять, что случайный процесс эмиссии электронов из катода удовлетворяет трем сформулированным условиям (13)—(15), то случайная величина N (f) будет иметь пуассоновское распределение. Случайному процессу (81) можно дать другую трактовку. Предположим, что на вход линейной системы g импульсной характеристикой h (t) воздействует последовательность (сумма) пуассоновских дельта-импульсов: *<о= 2 δ('-Ί). где Ц — случайные времена появления дельта-импульсов, описываемые пуао- соновским потоком· Тогда случайный процесс на выходе системы будет иметь вид (81): #<*) l(t)=$h(t-*)s(*)cto= 2 h<t~h) 266
Если линейная система имеет переменные параметры и, следовательно, импульсную характеристику вида h (t, τ), то на выходе такой системы получим случайный процесс N (О 6 (0 =2 *<'.'«>. (2.7-82) /«1 Этот пример в какой-то мере поясняет название рассматриваемых процессов. Профильтрованные пуассоновские процессы по существу есть случайные процессы, получающиеся в результате своеобразных линейных преобразований пуассоновского потока. Во многих практических ситуациях приходится иметь дело со случайными процессами более сложного вида, чем (81) и (82). Так, если учитывать случайный (максвелловский) характер начальных скоростей эмиттируемых электронов, то форма элементарных импульсов будет зависеть не только от времени вылета электрона /г·, но и от его начальной скорости vit При этом вместо процесса (81) получим более сложный процесс N (t) / = 1 Если в приведенном выше примере считать различными и случайными высоты входных дельта-им пульсов, т« е* полагать N(t) β(0»2 Λ, β </-ί|), (2.7.82') f=) то на выходе линейной системы с переменными параметрами получим процесс вида N(t) δ (0=2 Aih(t.ti). Разумеется, что со случайными моментами времени tt можно связывать различные величины. Например, в теории надежности — стоимость или трудозатраты восстановлений и т. д. Поэтому в дальнейшем будем иметь в виду процесс вида (80). Основные вероятностные характеристики профильтрованного пуассоновского процесса определяются следующей теоремой. Пусть ξ (t) — профильтрованный пуассоновский процесс (80). Тогда для любых положительных / и действительных значений Φ одномерная характеристическая функция определяется формулой φ (jfl) = ехр |λ J fΜ {exp \Ш (t9 τ, ζ)} — 1 ] dxL (2.7.83) а двумерная характеристическая функция для любых t2 > tx ^ 0 и действительных значений Όί и Ф2 дается выражением Ф2 (№ъ J*t) = ехр (λ j [M {exp j (Ъг h (tb τ, ζ) + fl2 Λ (4 τ, ζ))} - — 1]άτ + λ f [Μ {exp j#2A(*a, *, 0} — l\dx]. (2.7.84) 267
Если М {h2 (t, τ, ζ)> < oo для всех τ, то процесс ξ (t) имеет конечные первый и вторые моменты, равные t тг (t) - Μ {ξ (t)} = λ J Μ {Λ (ί, τ, ζ)} dT, (2.7.85) ο DftW-MOKO-m^Wn-XjM^ft τ, ζ)}Λ, (2.7.86) ο min (ttt h) Rl (*ь « - Μ a (^i) So &)} - λ J Μ {ή ft, τ, ζ) Α (/2, τ, ζ)} dr. (2.7.87) Здесь Ιο (t) β ξ (/) — /И| (ί), а через ζ формально обозначена случайная; величина, имеющая тот общий вероятностный закон распределения, который описывает каждую из взаимно независимых случайных величин {ζ*}. Начнем доказательство этой теоремы с вычисления математического ожидания процесса /ηδ (t). Случайный процесс ξ (t) согласно (80) есть сумма случайного числа детерминированных функций от случайных аргументов. Имея это в виду, вычислим математическое ожидание ξ (t), предполагая сначала, что целочисленная случайная величина N (/) имеет какое-либо фиксированное значение (допустим, k). Это условное математическое ожидание находится осреднением по k неранжированным временам τ* и случайной величине ξ. Затем полученный результат осредним по всем возможным значениям случайной величины N (t). Итак, можем написать т% (t) « Μ {% (t)} - 2 м G (01N (t) = k)x ζ Ρ {Μ (0 = *), (2.7.88) fe«=0 где N (t) имеет пуассоновский закон распределения (24), а условное математическое ожидание можно записать в виде Μ {ξ (01N (t) = k)%i c = 2 M ih Λ τ> 0blt ζ- (2·7.89) /el Отметим, что в (89) должно выполняться двойное осреднение: по неранжированным временам появления событий ть τ2,..., Tfe и по случайной величине ζ; порядок выполнения операций осреднения в принципе не имеет значения. Рассмотрим, как это записано выше, сначала осреднение по случайным величинам хг. Поскольку процесс N (t) является пуассонов- ским, то все времена появления событий %г — взаимно независимые случайные величины, каждая из которых равномерно распределена в полуинтервале (0, t]: p%i(%\N(t) = k) = p(%\N(t) = k) =* — при0<т<*, *«1, 2, ..., к. (2.7.90) 268
Следовательно, t M{A(ff*lf0b|—f jAftx,OA. Учитывая, что операции интегрирования и взятия математического ожидания можно менять местами, имеем t м W, *,, ζ)}τι ς- 7· Jм Μ.τ» W*· (2·7·91) О Здесь М{Л(/,ч ζ)}= J Λ(ί,τ, ζ)ρ(ζ)άζ9 где·*/? (ζ) — общая плотность вероятности каждой из случайных величин {£J. Подставив выражение (91) в (89) и полученный результат в (88), придем к формуле (85): t «, t 4(0 = -f j>{ft(*, τ, ζ)}Λ 2 *Ρ»<0 = ^ JlH{fc(if τ, ζ)}<ίτ. функции '*'· .J- ο Λ=° ό Получим теперь формулу (83) для одномерной характеристической [ г лчо Φ (JO) = Μ {exp № (01} = Μ exp j* 2 * ft τ,, ζ) Поступим так же, как при вычислении математического ожидания. Можем написать Φ О*) = 2 М <ехР 0*6 (011Ν (0 = *Kf ζ Ρ {# (0 - Щ, (2.7.92) где Μ {exp \m (011ЛГ (0 - *bf, ς - Μ {exp Γ J* 2 Λ ft **> 0 j 1 ζ = = Μ ί Π exp [jM (f, *„ ζ)|\ - Π Μ {exp Ij*A ft *ι. Qlbf ι. (2.7.93) Здесь последнее равенство написано на том основании, что случайные величины τΐ9 τ2, ..., %h взаимно независимы. Так как все они имеют одинаковую равномерную плотность вероятности (90), то М {exp IJOft (t, %u ζ)ΐΚ, —{- f exp [jOft (ί, *, ζ)] Λ, ι =* 1, 2 ft. 269
Поэтому выражение (93) принимает вид Π J-jM{expH*Aft τ, ζ)]}ζ άτ = l± J Μ {exp [jM (ί, τ, ζ)]}<ίτ . Для упрощения записей в последнем выражении опущен индекс ζ. Подставим это выражение в (92) и учтем формулу (24). Тогда получим ** ,* :β-λί M{exp[jdA(f, τ, ζ)]} Л | i^-e-w = ί ' 1* J jf Гм{ехр[]*А(/, τ, Q]}<fc » = е-w exp |λ Γ Μ {exp |j*A (t9 τ, ζ)]} Ц. Отсюда видно совпадение полученного результата с (83). Перейдем к доказательству формулы (84) для двумерной характеристической функции Фа С*ь т - Μ {exp UOi ς ft) + j#21 (Щ = «k 2 h (tlf %u tt)+ #2 2 *('* τ*> ω J= - Μ Jexp ] J KM ft. *ь Ci) + #2 h (tu *„ Ci)l|. Здесь при записи последнего равенства две суммы заменены одной с одним общим верхним пределом суммирования N (t2) на том основании, что при любых ζ и τ функция h (t, τ, ζ) = 0, если t <C τ, так как элементарный входной сигнал, появившийся в момент времени τ, не может оказывать влияния на результат в более ранний момент времени t. Для сокращения последующих математических записей введем обозначение g (τ, ζ) = bji (tlf τ, ζ) + #2 h ft, τ, ζ). (2.7.94) Тогда Φ·ϋ** j^a) = M{exp(ji/)}, ίΖ-^ίίτι,ζ,). Порядок последующих вычислений такой же, как и при вычислении одномерной характеристической функции. Можем написать Μ {exp (ji/)} = 2 М <ехР (ДО I * W) - *Ь,. ζ * W &) = *>. 270
Повторив приведенные выше рассуждения, относящиеся к одномерной характеристической функции, получим Μ {exp QU) | N (f J = k}%., ι = Ц J M {exp jg (τ, ζ)} *| Подставив этот результат в предыдущее выражение и учтя формулу (24), найдем оо h ( h \h ^.WbW-S-'-^^-jtJ Μ {exp jg(t, ζ)} ΑΙ = *=o = exp λ jίΜ {exp ]g (τ, ζ)}- 1] d%\. Если подставить сюда выражение g (τ, ζ) из. (94) и учесть, что h (U τ, ζ) = 0 при /< τ, то придем к формуле (84). Формулу (86) можно получить из (83), а (87) из (84) воспользовавшись известным правилом вычисления моментов по характеристическим функциям: ]яЦ(<)-^1пФ(0), fDfe(/)- d2 <w2 1пФ(0), №(Ί, *2) = д* In Ф2 (0, 0). (2.7.95) Применительно к простейшему стационарному дробовому шуму вида (81), а именно; 6(0= S Λίί-ii), -οο<ί<οο, г=— о© где времена появления элементарных импульсов одинаковой формы описываются пуассоновским потоком с интенсивностью λ, формулы (83), (85) — (87) принимают следующий вид: 0(j#) = exph f [exp(jM(s))— \\ds У е»оо //Ζξ(0 = ^=:λ f h(s)ds, WW 00 Ds(0 = DE = X j Λ·(β)ώ, *s- OO oo #60, < + τ) = /?ξ(τ)-λ J A(s)A(s+<t)rfs. (2.7.96) (2.7.97) (2.7.98) (2.7.99) 271
Формулы (97) — (99) обычно называют теоремой Кемпбелла о суперпозиции независимых случайных возмущений (импульсов). В качестве иллюстрации этой теоремы рассмотрим ранее описанный пример дробового шума в плоскопараллельном диоде, работающем в режиме насыщения, когда элементарные импульсы имеют вид прямоугольных треугольников (см· рис· 2*53), т. е. 2е Λ(*)β"3Γβ» 0<s<<ra· Применительно к этому частному случаю теорема Кемпбелла дает /?*(*)= ί 4λ* / 3 |*| 1 К|П i^rr-τ ν+τ·-ϊτ)при ,τ к**· [ 0 при других <ϋ. Пусть стационарный дробовой шум имеет вид ξ(0« 2 AlbV—U). -оо<*<оо. (2.7.100) Здесь А% — взаимонезависимые случайные амплитуды элементарных импульсов, имеющие общую (для всех А%) плотность вероятности ρ (А); /г· — случайные времена появления элементарных импульсов, не зависящих от Αι и описываемые пуассоновским потоком с интенсивностью λ* В данном случае формулы (83)—(87) переходят соответственно в следующие: Φ (j#) =ехр |λ f [Μ {exp QftAh (s))}—1] ds$ (2.7,101) β>2 0#1> J^2)==exp |λ F [M {exp ]A («ί Λ (s)+$2h(s+%))}—\]ds + +x\lNl{exp№2Ah(s)}--l]ds\, T=/2-/if (2.7.102) op /η^λΜ {Л} J Л (s) dsf (2.7.103) о oo 0|==λΜ {Л*} f да (s) rfs, (2.7.104} Λξ(*)=*λΜ{Λ2}| Λ (s)/t(|T|+s)ife. (2.7.105) 0 Здесь oo Μ {Л"} = J Anp(A)dAt Μ {екр (j<MA (s))} = J еяр (jfldA (β)) ρ (Α) άΑ. (2.7.106) ив 00 учае, когда амплитуды веек элементарных импул] г» е. ρ (Л) = 6 (А — Л0), эти формулы упрощаю Λ1 {Л«} « Λ{?, Μ {exp (j^A (s))} — exp (jMeA (s)). В том частном случае, когда амплитуды веек элементарных импульсов одинако· вы и равны А0, т« е. ρ (А) = 6 (А — А0), эти формулы упрощаются, так как 272
Понятие профильтрованного пуассоновского процесса и соответствующие результаты могут быть обобщены на неоднородный и другие виды процесса Пуассона. В частности, пусть {N (t), t > 0} — неоднородный процесс Пуассона с функилей интенсивности λ (t). Напомним, что величина λ (i) dt приближенно равна вероятности того, что в интервале It, t + dt] произойдет одно событие процесса N (f). Пусть профильтрованный неоднородный пуассоновский процесс по- прежнему определяется выражением (80.) Можно показать, что для такого процесса формулы (83), (85)—(87) принимают вид t In Φ (jft) = Γ λ (τ) Μ {exp jOA (t, φ, ζ)— l}d% **(0-Γλ(τ)Μ{Λ&*,ζ)}Λ, Ζ)ξ(0=|λ(τ)Μ{Α2(ί,τ,ζ)}^τ, min (tu h) Rl(h, ϋ- f λ(τ)Μ{Α&, τ, ζ)Η(ί2, τ, ζ))ά%. Отметим, что эти формулы дают вероятностное описание нестационарного дробового шума. Если «насыщенный» диод работает при периодически изменяющихся напряжениях, то интенсивность эмиссии будет также периодически меняться. В результате получим неоднородный процесс Пуассона N (t) с периодически изменяющейся функцией интенсивности λ (t). Выше были получены формулы для характеристических функций профильтрованного пуассоновского процесса. Однако из обратного преобразования Фурье, как правило, не удается найти по характеристическим функциям соответствующие вероятностные распределения. Возникающие вычислительные трудности не позволяют выполнить расчеты точно и до конца. Этот вопрос подробно обсуждался в физической и математической литературе. Рассмотрим здесь предельный случай, а именно, докажем асимптотическую гауссовость профильтрованного процесса Пуассона при увеличении параметра интенсивности λ (λ->·οο). Этот результат, вытекающий по существу из центральной предельной теоремы (поскольку речь идет о сумме функций от независимых случайных величин), можно сравнительно легко доказать. Из формул (85) и (86) видно, что математическое ожидание и дис- пераия профильтрованного пуассоновского процесса линейно возрастают при увеличении интенсивности λ. Поэтому целесообразно иметь дело с нормированным процессом чЦ) = т)-щШ1УШ), математическое ожидание которого равно нулю, а дисперсия — единице. Для сокращения запиаей введем формальные обозначения 273 (2.7.107) (2.7 .1 08) (2.7.109) (2.7.110)
a » J Μ {ft (/, τ, ζ)} dx9 β2 - J Μ {ft2 (f, τ, ζ)} dx. (2.7. Ill) Из сопоставления этих обозначений с формулами (85) и (86) следуют равенства mi (t) = λα, Di(t) = λβ2. (2.7.112) G учетом введенных обозначений имеем η(0=;ξ(ο-λ«=_ϋο—iyT# (27]I3) βΐ/λ βνλ β Выразим характеристическую функцию нормированного процесса Υ1 (/) через характеристическую функцию (83) процесса % (t). По определению характеристической функции имеем Φη № = Μ {exp [j«4 (01} = exp ( - j ^- VI) X x„{exp[i_±_lw]}=exp(_jfK^(T^). Подставив сюда выражение Φ Ο'θ/βΙ/^λ) из (83), можем написать Φη (j#) - exp (~ j ^/λ) exp |λ j ^ ^ Xh(t,%, ζ)— illrfx. На основании известного разложения экспоненциальной функции в ряд Ы*= 1 + jx— — χ2 - j— л:3 + — *4 +... J 2 J 3! 4! · представим экспоненту под знаком интеграла рядом и несколько преобразуем получающееся выражение с учетом введенных обозначений ОН). Тогда получим O,(jd) = exp(-j^T/rjexpLjM/l+j-^A(i,T,0^ 274
ί ι expi — 2 3!(43λ'/2 |Μ{Λ8(ί,τ,ζ)}£ίτ + + "^ΓίΜ{Λ4(ί'τ*ζ))ίίτ + ·"· (2.7.114) Отсюда видно, что если для любых t математическое ожидание m5(i), дисперсия D5 (ί) и входящие в (114) отношения J Μ {hk (ί, τ, ζ)} άι ΙΠ Μ {Λ2 (ί, τ, ζ)} ώι\ , k = 3, 4,... конечны, то при λ -*- оо нормализованный процесс л (t), а следовательно, и исходный процесс ξ (t) становятся асимптотически гауссовскими» В этом предельном случае Hm<D,,(jO) = exp( Lo»V Этой предельной характеристической функции соответствует нормаль· ная плотность вероятности ρη (») = (2л)-1/1 ехр (-»■). Если теперь согласно (113) возвратиться к первоначальному процессу ξ (ί), то при оговоренных выше условиях асимптотическая нормальная плотность вероятности равна Р1 (х) = {2пОг (О}-1/2 ехр [-(х-тг (0)2/2£>ξ (/)]. (2.7.115) Можно показать, что полученный асимптотический результат распространяется на многомерные характеристические функции. Следовательно, профильтрованный процесс Пуассона асимптотически стремится к гауссовскому процессу, когда параметр интенсивности λ (среднее число событий в единицу времени) неограниченно возрастает (см. примеры 5.9.2 и 5.9.3). В § 3.7 будут приведены дополнительные сведения о пуассоновских процессах. 2.8. ПРЕДСТАВЛЕНИЕ СЛУЧАЙНЫХ ПРОЦЕССОВ И ПЛОТНОСТЕЙ ВЕРОЯТНОСТЕЙ ОРТОГОНАЛЬНЫМИ РЯДАМИ При различных преобразованиях случайных процессов, а также при моделировании и приближенном представлении результатов оказывается полезной запись случайных процессов и плотностей вероятностей в виде бесконечных рядов по ортогональным полиномам. Опишем представление случайных процессов рядами Фурье и разложением Карунена — Лоэва и рассмотрим разложение одномерных и двумерных плотностей вероятностей в ряды по ортогональным полиномам. При этом по ходу изложения материала в справочном виде будут приведены необходимые математические сведения. 275
r Представление случайного процесса рядом Фурье Разложим формально в интервале 10, Т] стационарный в широком смысле случайный процесс* ξ (/) с нулевым математическим ожиданием и корреляционной функцией R (τ) в ряд Фурье: ί(0—7+2 (α»cos"ω°i + bnsinηω°^ ω°=2π/Τ· (2·8·J) где τ τ αη = JL Γ ξ (?) cos лсоо id/, &n = γ f £ (?) sin ηω0 tdt, (2.8.2) ο ο или в комплексной форме τ 6(0- 2 c»eJm°o/· сп-~Гб(0е-^«Д. (2.8.3) Существенное отличие разложений (1) и (3) от обычных рядов Фурье, записанных для детерминированных функций, состоит в том, что теперь коэффициенты аП9 Ьп и сп являются случайными величинами, а не числами. Для разных реализаций ансамбля значения какого- либо из этих коэффициентов будут различны, т. е. коэффициент является случайной величиной. В связи с этим возникает вопрос: в каком смысле следует понимать сходимость правых частей рядов (1) и (3) к процессу ξ (/)? Этот вопрос будет подробно рассмотрен в § 5.1. Укажем лишь, что здесь используется среднеквадратическая сходимость (5.1.7). Например, применительно к ряду (3) это означает, что lim Μ{\ζ(ί)-Ση=-Νθηείηϋ»<?}=0. (2.8.4) Ν-+οο В большинстве задач всегда желательно, чтобы ряды (1) и (3) обладали свойством двойной ортогональности, т. е. чтобы не только функции времени были ортогональны при η Φ m% но и в дополнение к этому случайные коэффициенты сп и ст были некоррелированными, Μ {спс*т} = 0. Докажем, что достаточным условием для этого является периодическая стационарность случайного процесса ξ (f) в широком смысле (2.1.50). Поскольку корреляционная функция такого процесса периодична с периодом Т9 то ее можно разложить в ряд Фурье: оо Τ R(r) = R(%-\-T)= 2 'η&ηωο\ гЛ«^ГЯ(т)е-'""·**. (2.8.5) а=«оо О Докажем теперь выполнимость условия (4) для периодически стацио· нарного в широком смысле случайного процесса· Имеем Μ ШО - Ь (0 | *} в R (0) - 2М {«0Ы0> + Μ {\lN (t)\% (2.8.6) где обозначено 276
Распишем последние два слагаемых в правой части (6). С учетом соотношений (3) и (5) получим Μ β (О М0}« Σ M{£(0c„}eW=. г Аналогично M{IM*)W- Σ Σ *!{£?« ей е'-<«-»>«· (2.8.9) Выражение для математического ожидания М {£mc£} получаем на основании (3) и (5): τ τ «, м {cm ci>«-V f f 2 r*e,toi (* "^ eJ(D° (m*~m0*** "■ τ τ = Σ rh6hm6nh^rm6mnf (2.8.10) г&е бтп — символ Кронекера: ( 0, тфп. Формула (10) показывает, что для периодически стационарного процесса \ (t) коэффициенты Фурье в разложении (3) не коррелированы. Можно доказать и обратное утверждение [89], что отсутствие корреляции между коэффициентами сп свидетельствует о периодической стационарности процесса. Кроме того, n-й коэффициент ряда Фурье (5) для корреляционной функции R (τ) равен дисперсии я-го случайного коэффициента ряда Фурье (3) для процесса ξ (/). Подстановка выражения (10) в (9) дает MflMoro- Σ '·· 277
С учетом этого равенства и соотношения (8) в пределе выражение (6) примет вид (4): limM{U(/)-i^(/)|2} = /?(0)-2/?(0) + /?(0)-0. Таким образом, разложение в ряд Фурье периодически стационарного процесса сходится к процессу в ереднеквадратическом смысле» Заметим, что ап = сп + <?_п, Ьп = / (сп — с„п) и сп = (ап — jbn)/2, с_п = (an+jbn)/2. Для вещественного случайного процесса ξ (ί) корреляционная функция R (τ) является вещественной. При этом из (7) и (10) следует, что мнимая часть Μ {стс*п} равна нулю: Im Μ {стс*п} = V4 1Ш{атЬп} - Μ K&m}] = 0, Im Μ {cmcLn) = V4 IM {ят Ы + Μ K&m}] = 0, MKW = MK6m} = 0, (2.8.12) ' Итак, ряд Фурье для периодически стационарного процесса ξ (/) об- ♦ ладает двумя важными свойствами: 1) он сходится в среднеквадрати- ческом к процессу ξ (t) и 2) коэффициенты разложения ап, Ьп и сп не коррелированы. Если периодически стационарный процесс ξ (t) является гауссовским, то эти коэффициенты будут независимыми. Предположим теперь, что рассматриваемый процесс ξ (t) является стационарным в широком смысле, но не обязательно периодическим. Требование стационарности процесса говорит о том, что вероятностная структура, которую процесс может иметь внутри некоторого интервала, должна быть статистически аналогична его структуре в любом другом интервале той же длины. Поскольку рассматриваемый процесс не обязательно является периодическим, корреляционная функция не может быть просто выражена через дисперсии коэффициентов Фурье процесса ξ (/), как это имело место в (5). Теперь имеем /?(τ) = Μ{ξ(/ + τ) £*(/)} = = 2 U M{cn^}exp[j>—/η)ω0/ + ]ηω0τ], (2.8.13) /1= — ΟΟ /ft as β- 00 причем это равенство справедливо лишь тогда, когда / и / + τ находят· ся в одном и том же интервале длины Т. В общем случае существенно упростить это выражение невозможно. Так как разложение в ряд Фурье (3) оказывается относительно простым, если коэффициенты ряда не коррелированы между собой, и его часто применяют именно в этом допущении, то полезно отметить, что при неограниченном увеличении длины интервала Τ нормированная корреляция между различными коэффициентами етремится к нулю: lim TM{cnc*m} = 0. (2.8.14) Т-*оо Кроме того, если η -> оо при Τ -* оо таким образом, что ηω0 = fn остается постоянным, то 278
lim оо ™ {| cn I2} = J R (u) exp (- )2nfn u)du^S (fn), (2.8.15) где S (fn) — значение спектральной плотности процесса при / = fn. Для доказательства этого запишем согласно (3) очевидное соотношение τ τ . Μ {сп ca} = ~{{R(t—s)e*p(faQ(ms—nt))dtds. (2.8Л6) Полагая и = ί — s, имеем rr~s Μ {cn Cm} = -yj- Г Г Я (и) exp (JG>0 [ms—я (и—s)]) duds, или после замены переменной ν = s/71 ι г о-с» « Г ехр [}2п (т—п) v]dv Г /? (и) ехр р~Н) Λι. О — όΤ При тф η и постоянных тип внутренний интеграл для всякого ν Φ О при Τ -> оо стремится к J /? (и) d« = const и весь интеграл в —-оо пределе обращается в нуль. Если т = η и η ->- оо при Г -> оо так, что ηω0 = /Λ остается постоянным, то интеграл стремится к оо f R (u)exp(— ]2nfnu)du. fc— ОО Отсюда непосредственно следуют равенства (14) и (15). Отметим также, что коэффициенты разложения оказываются приближенно некоррелированными для любого стационарного процесса, спектральная плотность которого приблизительно постоянна в интервале частот, превышающем 1/7\ В частности, для белого шума с дельтообразной корреляционной функцией R (τ) = Ν0 δ (τ)/2 из (16) получим τ Μ {сп с*т) = ^ J ei»o <—> *dt = ^bmn. (2.8.17) Представление случайного процесса разложением Карунена — Лоэва Выше было показано, что непериодический случайный процесс не может быть представлен тригонометрическим рядом Фурье с некоррелированными случайными коэффициентами. Однако если понимать тер- 279
мин ряд Фурье в широком смысле, т. е. иметь в виду любой ряд по ортогональным функциям φΛ (/) с соответственно определенными коэффициентами, то случайный процесс может быть представлен рядом с некоррелированными коэффициентами. Предварительно приведем некоторые математические определения· Вещественная или комплексная функция φ (/) действительного переменного / называется интегрируемой в квадрате в интервале [О, 71, если τ 'φ(©ΡΛ<οο. ρ Две интегрируемые в квадрате функции φ (ί) и g (ί) называются ортогональными друг другу в интервале [О, 71, если о Система функций {φΛ (t), & *= 1,2f 3,...}, определенных в интервале [О, 71, называется ортонормированной в этом интервале, если Γφι(0ΦΪ«Λ-( !f '"*: (2.8.18) Система ортогональных (ортонормированных) функций φ& (ί) называется полной в классе функций, интегрируемых ё квадрате в интервале [О, Т], если произвольная функция | (ί), интегрируемая в квадрате на [О, 71, может быть сколь угодно точно в среднеквадратическом смысле аппроксимирована линейной комбинацией функций <pft (t), т. е. если существуют такие коэффициенты dh, что N lim M, N->co i(')-2 4<p*(0 Η· (2.8.19) Пусть интересующий нас случайный процесс ξ (t) имеет нулевое математическое ожидание и непрерывную корреляционную функцию R (*i, t%) и является интегрируемым в квадрате в интервале [0, 71. Считая систему ортонормированных функций φ& (ί) полной, можем написать I (t) = Σ dk <pfe (I), 0 < i < T. (2.8.20) k Это равенство понимается в среднеквадратическом смысле (19). Чтобы определить коэффициенты dft, умножим обе части равенства (20) на φ? (t) и результат проинтегрируем по интервалу 10, 71: τ τ J l(t) φ/ (t)dt^dh j q>ft (f) qtf (t)dt. Так как функции φΑ (t) ортонормированы, то все слагаемые в правой части равны нулю, за исключением одного, соответствующего i =5 ί= А, значение которого определено выражением (18). Поэтому 280
7 4k=f<pi<06(fl#. (2.8.21) Случайные коэффициенты dk можно получить с помощью системы линейных фильтров, согласованных о «сигналами» φ| (/) (рис. 2.54) [70]. Укажем, что фильтры имеют импульсные характеристики hk (t) = = φ| (Τ — /). Если на вход линейного фильтра hk(t) воздействует рассматриваемый случайный процесс ξ (ί), то выходной сигнал фильтра в момент времени / = Г дает значение коэффициента dk. Отсчет nput=T Рис. 2.54. Система линейных фильтров для получения коэффициентов Карунена — Лоэва ξ® 0<t<T ι » I '—*■ */fiy-^*fT-i)] • • • »M»)-fJCT-t)\ Потребуем теперь, чтобы случайные коэффициенты разложения были некоррелированными. На основании (21) имеем τ τ Μ {4 dt) ·=» Γ f <pt (h) <Pi (h) R (tb t2) dtx dtt. (2.8.22) Допустим, что справедливо соотношение τ 1 φ* (к) R (ilf lj dt2 » λ, ф| &), 0 < it < Т. (2.8.23) ί· Это есть однородное интегральное уравнение Фредгольма. Функция R (*ъ Q называется ядром уравнения, чиола λ| и функции φ* (f) называются соответственно собственными значениями и связанными в ними собственными функциями интегрального уравнения. Подставив (23) в (22), получим г Μί^^-λ^φίίΟφιίΟΛ-^· j~^ (2.8.24) Следовательно, если справедливо уравнение (23), то случайные коэффи- циенты разложения ά% оказываются некоррелированными, причем дисперсии их равны λ| > 0. В том частном случае, когда рассматриваемый процесс ξ (/) гауссовский, случайные коэффициенты dk, как следует из (21), будут независимыми гауссовскими случайными величинами с дисперсиями λΗ > 0. Разложение случайного процесса с непрерывной корреляционной функцией в ряд (20), в котором функции q>fe (t) являются собственны. 231
ми функциями интегрального уравнения Фредгольма (23), называется разложением Карунена — Лоэва. Иногда его также называют каноническим разложением [2,4] или обобщенным рядом Фурье [801. Заметим, что собственные функции tpk (/) определены уравнением (23) с точностью до постоянного сомножителя. Этот сомножитель можно выбрать так, чтобы ортогональные функции были ортонормированными. Покажем, что выполняется равенство (19). Обозначим bv(*)=2*-i<fc<Pfc<0. Непосредственным вычислением найдем Μ {ξ it) 1% (0> - Μ {Γ (0 ξ* (/)} = Μ {1Ν (t) ?Ν (0} «* -Σ*-ΐλ*φ*«φί(0. Поэтому μ {| ξ ®-bi (t) I2} = R A 0 -SiLi Κ φ* (Ο φ? ®. (2.8.25) Ранее (с. 122) указывалось, что корреляционная функция обладает характеристическим свойством неотрицательной определенности. Согласно известной теореме Мерсера [801 неотрицательно определенная функция R (tl9 t2) может быть разложена в равномерно сходящийся ряд по собственным значениям и собственным функциям: R <*1. 4) = 2 К Ф* (h) Φ* («. (2.8.26) Отсюда видно, что последнее слагаемое в правой чавти равенства (25) при N ->· оо сходится к R(t> t) и, следовательно, равенство (19) выполняется. Можно показать [81], что разложение Карунена—Лоэва (20), в котором некоррелированные коэффициенты определены формулой (21) и функции (рь (t) есть ортонормированные решения уравнения Фредгольма, соответствующие собственным значениям {λ^}, расположенным в порядке возрастания 0 ^ Хг ^ λ2 < λ3 < ..., является таким разложением, для которого математическое ожидание интегральной среднеквадратической усеченной (при любом фиксированном Ν) погрешности аппроксимации минимально, т. е. м{|Гб<о— 2 d^k(t)] л1-ш1п. В заключение укажем, что разложение (20) оказывается полезным на промежуточных этапах теоретического рассмотрения некоторых задач. Однако практическая его ценность сильно ограничена двумя обстоятельствами: процедура отыскания решений интегральных уравнений вида (23) в общем случае неизвестна (за исключением случая рациональной спектральной плотности процесса) и разложение случайного сигнала по системе ортонормированных функций, не являющихся гар- 282
моническими, не имеет простой технической интерпретации. Кроме того, представление случайного процесса рядом (20) предполагает, что исходный процесс можно дифференцировать бесконечное число раз. Следовательно, такое представление применимо только к сингулярным процессам (см. о. 565). Представление одномерных плотностей вероятностей ортогональными рядами При приближенном аналитическом представлении плотностей вероятностей и при анализе разных преобразований случайных величин и процессов оказывается полезной аппроксимация законов распределения и плотностей вероятностей рядами по ортогональным полиномам, коэффициенты этих рядов часто определяются моментами распределения. При удачном выборе полиномов иногда можно ограничиться учетом лишь нескольких первых членов ряда. Ниже будут приведены два примера, иллюстрирующие это обстоятельство. Заметим, что во многих практических задачах приходится иметь дело с плотностями вероятности рх (#), не очень сильно отличающимися по виду от нормальной плотности вероятности (1.4.1). Характерные особенности таких функций р±(х) состоят в следующем (рис. 2.55): 1) они являются унимодальными (т. е. имеют единственный максимум); 2) по обе стороны от вершины они имеют ветви, достаточно быстро приближающиеся к нулю при возрастании абсолютного значения аргумента. Одномерные плотности вероятности такого типа удобно аппроксимировать с помощью полиномов Эрмита или полиномов Лагерра [82, 83]. Ряд Эджворта 18). Указанные выше плотности вероятности можно представить в виде следующего ряда: л (*)=/> (χ) 2 -V -*ίτ //4£zi£i) · (2·8·27> я-O ° \ ° J где ρ (χ) — нормальная плотность вероятности: ^irkrexi--^}' (2Л28) Hn (χ) — одномерные полиномы Эрмита (1.4.37). Так как полиномы Эрмита ортогональные с весом ехр (— rV2), то f Hn(x)Hm(X)e-*°<>dx = n\V*idmn = { Л]У%Ь т2п^ J ( 0, тфп. Поэтому коэффициенты ЬП9 называемые квазимоментами [84], определяются форму лой, 283
00 *» = σ" J р1(х)Я„(^)^ = о"М{яп(1^-)}, (2.8.29) ^-00 Плотноети вероятности (27) соответствует характеристическая функция ΦιΟ'ϋ) -exp f]in* + -±- Wl JS Ц- · — (-J*)"· <2·8·30> Разлагая экспоненту в ряд Тейлора, производя умножение и сравнивая результат с рядом (1.3.45), составленным из моментов, можно убедиться, что моменты линейно выражаются через квазимоменты и наоборот. Это обстоятельство и дает основание называть коэффициенты Ьп, представляющие линейную комбинацию моментов, квазимоментами. Разложение функции рх (х) в ряд по ортогональным полиномам Эрмита базируется на следующей теореме. Произвольная функция рг (х) о интегрируемым квадратом может быть сколь угодно точно в среднеквадратическом смысле аппроксимирована рядом вида (27), т.е. "Ига J [м*)-р(*)2^.^Яп(*)] Λ-0. Практически функцию р1 (х) нужно знать g некоторой конечной точностью. Поэтому вместо рх (х) можно взять конечную сумму членов ряда, причем число слагаемых N будет зависеть от требуемой точности и от выбора величин т и σ2. В большинстве практически интересных случаев наилучшее приближение при заданном N будет тогда, когда т и σ2 выбраны равными математическому ожиданию т и дисперсии о2- случайной величины ξ и разложение ведется по полиномам *. е-^)· Будем считать, что т и σ? выбраны указанным образом. Тогда нетрудно убедиться, что &0= 1, &ι = 0, &2 = 0. Действительно, на основании определения полиномов Эрмита (1.4.37) имеем Но(х) = \, Нг(х) = х, Н2(х)=>х*-19 ) Н3(х) = х*—3х9 НА(х) = х*—6х2+3. / К ' ' Воспользовавшись теперь формулой (29) при η =s О, 1, 2, убеждаемся в выполнении записанных трех равенств. Если в формуле (27) ограничиться конечным числом членов ряда, то получим ряд Эджворта: Ρι(χ)~Ρ(χ) U+ 2 —^ я»(£7^)]· <2·8·32> 284
Р]Щ Рис. 2.55. Плотность вероятности Рис. 2.56. Две асимметричные плотности вероятности Здесь первый член соответствует нормальной плотности вероятности» Следовательно, для нормальной плотности вероятности все квазимоменты при η > 3 равны нулю (Ьп = 0). Первые два коэффициента ряда Τι = bzfos и γ2 = bjo*, характеризующие наиболее существенное отклонения рассматриваемой плотности вероятности рг (х) от нормальной ρ (#), в литературе получили специальное название коэффициентов асимметрии и эксцесса соответственно: Vi: μ3 __ *з σ3 *i/2 — h __. μ4 з= щ σ4 σ4 (2.8.33) Здесь κ2, κ8, κ* — кумулянты (1.3.51), а μ3 и μ4 — центральные моменты третьего и четвертого порядка, определенные формулой (1.3.12): ОО 00 №*— f (x—m)spi(x)dx9 μ4= f (x—mYp1(x)dx. (2.8.34) Как указывает само название, коэффициент асимметрии является количественной характеристикой асимметрии плотности вероятности относительно математического ожидания. В любом симметричном распределении, и в частности нормальном, все центральные моменты нечетного порядка равны нулю. На рив. 2.56 приведены две кривые плотности вероятности. Одна из них имеет более пологий спад справа от математического ожидания, и в выражении μ8 кубы положительных отклонений превысят кубы отрицательных, так что коэффициенту будет по. ложителен. В таких случаях говорят, что плотность вероятности обладает положительной асимметрией. Если коэффициент уг отрицателен, то говорят об отрицательной асимметрии. В этом случае длинная часть кривой расположена елева от математического ожидания. Коэффициент эксцесса характеризует сглаженность, кривой около математического ожидания. Для нормальной плотности вероятности коэффи- рис. 2.57. Плотности вероятно- циент эксцесса γ2 равен нулю, но- сти с различными значениями ложительное значение <у2 указывает эксцесса 285
на то, что кривая плотности вероятности в окрестности максимума имеет более высокую и более острую вершину, чем нормальная плотность вероятности. Наоборот, отрицательное значение γ2 указывает на более низкий и более плоский характер вершины по сравнению с нормальной кривой. В первом случае говорят о положительном, во втором — об отрицательном эксцессе. На рис. 2.57 представлены три кривые: нормальная плотность вероятности (γ2 = 0) и плотности вероятности с положительным и отрицательным эксцессом. На практике при аппроксимации плотностей вероятностей, не очень сильно отличающихся от нормальной, часто ограничиваются учетом только коэффициента асимметрии и эксцесса. В этом случае формулу (32) можно записать так: AWwpW[i+-n.^,(i=2i.)+^-//4(i=2L)]. (2.8.35) Для применения такой аппроксимации нужно тем или иным способом вычислить среднее значение /π, дисперсию σ2, третий и четвертый центральные моменты случайной величины ξ. Следует отметить, что при такой аппроксимации может незначительно нарушаться свойство положительной определенности для плотности вероятности: аппроксимирующая кривая при больших значениях \х\ может принимать отрицательные значения, недопустимые для плотности вероятности. Это является следствием того, что формула {35) имеет приближенный характер. Если в (35) перейти от полиномов Эрмита к производным от интеграла вероятности согласно (2.5.26), то получим Pl(Х) = ^ Γφ(ΐ) /ii=i!i^—ϊί. ф(4> (^=^i) + ^ Ф<5) (-^^)]-. (2.8.36) Можно показать, что многомерные плотности вероятности, не очень сильно отличающиеся от нормальных, аналогично можно представить в виде рядов по многомерным полиномам Эрмита. Коэффициентами при этих полиномах будут многомерные квазимоментные функции 183]. Ряд Лагерра [70, 85, 86]. Если плотность вероятности рг (х) равна нулю при отрицательных значениях аргумента (например, при суммировании ограниченного числа положительных случайных величин), то соответствующий ряд Эджворта сходится медленно. В подобных случаях более подходящей является аппроксимация плотности вероятности с помощью ряда Лагерра: Λ (*) = Σ сп е ~Χχα Lna) (*). (2.8.37) п = 0 где L«a) (χ) — обобщенный полином Лагерра: Lf > (χ) = е* -ill. JL (е-* χη+*)9 а>— 1. (2X38) л! dxn 286
Первые четыре полинома равны Ц«> (х) = 1, L[<*> {χ) = 1 + α — х, 2Ц« (л;) = (α + 1) (α + 2) — 2х (α + 2) + χ*, (2.8.39) 6L<«> (ϊ) = (α + 1)(α + 2ϊ(α + 3) — 3*(а+2)(а+3)+3л~! (α+3)—χ*. Полиномы Лагерра ортогональны в промежутке (0, оо) с весом Xя ехр (— х): оо ί е-* х« Ц°° (х) L%\x) dx = -L- Г (η + а + 1) 6m„, (2.8.40) δ где Г (λ:) — гамма-функция. С учетом ортогональности находим коэффициенты разложения сп: 00 .ГЦв)(*) Λ (*)<**· (2.8.41) Г(и-)-а-Н) О Вместо случайной величины ξ рассмотрим случайную величину τ| = ξ/β, β >> О, с плотностью вероятности ρ (у), причем Pi (х) - Ρ (*/β)/β· - (2.8.42) По аналогии о (37) можем написать Ρ (У) = Σ bn ^у Уа L™ (У)* (2·8·43) и = 0 где &» = Г L{na)(y)p(y)dy^ п Г(/г+а + 1) J ww ^ = -— f Ца) i—)p1(x)dx. (2.8.44) 0 Если подставить выражения полиномов Лагерра (39) в (44), учесть условие нормировки плотности вероятности и определение начальных моментов (1.3.11), то найдем l+a-лн/В L_|(a + l)(a + 2)- 1 Γ(α+2) Γ(α+3) [ν ^ ^ _ia.(a + 2) + ^-]· (2.8.45) Поскольку в формулах (43) и (44) аир суть произвольные постоянные, то их можно выбрать так, чтобы &г = Ь2 = 0. Для этого приравняем правые части выражений (45) нулю и решим полученную систему уравнений: а. «I 1--2L-1, p^JULZSL-JL. (2.8.46) m2—mf σ2 mt т$ 287
При этом первые четыре коэффициента будут равны Γ(α+1) 2 8 Γ(α+4)[β2 β3 J Высшие коэффициенты &п имеют довольно сложные выражения. Поэтому ряд Лагерра обычно применяют в тех случаях, когда уже первый член Ь0 дает достаточно, хорошее приближение. Если отбросить все члены, кроме первого, то будем иметь ρ(ίΟ-ίΡβ-νΓ(α+1). Переходя здесь от у к χ =» β# и учитывая (42), получим следующую приближенную формулу: ^W-Tn^r(f)%-"e· <2·8·471 где α и β выражаются через математическое ожидание и дисперсию согласно (46). Сравнивая формулу (47) с (1.5.26), приходим к заключению, что первый член ряда Лагерра совпадает с гамма-распределением. Для аппроксимации законов распределения дискретных случайных величин используются ортогональные дискретные многочлены, определенные на конечной или счетной системе точек [16, 82, 831. Например, при аппроксимации законов распределения, близких к пуассоновско- му (2.7.24), часто применяют многочлены Пуассона — Шарлье. Однако в литературе описано мало дискретных многочленов. Разложение двумерных плотностей вероятностей Если можно представить одномерные плотности вероятности в виде рядов, то, очевидно, можно ожидать, что аналогичные представления существуют и для многомерных плотностей вероятностей. Базируясь на работе 1871, рассмотрим здесь представление двумерных плотностей вероятностей в виде рядов по ортогональным полиномам. Пусть ρ (хи х2) — двумерная плотность вероятности, которой соответствуют одномерные плотности оо в» M*i)= Г PiXuXjdXzf Рг(*а= f P(*i. *^d*i· (2.8.48) Используя одномерные плотности вероятности в качестве весовых функций, можно построить две совокупности ортонормированных полиномов {θ1η(^)} и (Θ2Λ(*2)}: о» (2.8.49) J" ft (*а) %т (*г) θ2„ (*2) ахг = бт„. fe—ОО 288
Предположим, что двумерную плотность вероятности можно разложить в двойной ряд «Фурье» по этим ортонормированным полиномам: оо оо Ρ (Χι, xu — Α (*ύ Рг (Хг) 2 Σ α">" θΐ"» <*») θ2» (**)· (2.8.50) Коэффициенты атл могут быть определены обычным путем — умножением обеих частей выражения (50) на Qxk (хх) θ21 (х2) и последующим интегрированием с учетом свойства ортогональности (49). В результате получим оо £оо атп = J J Ρ («ι. *г) θΐπ, (xu %n (Xz) dxx dx2. (2.8.51) Таким образом, из выражения (50) видно, что двумерная плотность вероятности полностью определяется двумя одномерными плотностями вероятности и матрицей коэффициентов [атп\. Ограничимся далее рассмотрением частного класса (назовем его классом А) двумерных плотностей вероятностей ρ (xlf x2)f для которых матрица Iamnl диагональна. Добавим букву А к номерам всех формул, которые верны только для распределений из класса А. Тогда для всех двумерных плотностей вероятностей класса А разложение (50) будет диагональным: Ρ (Χι, Χύ = Α (*ι) ft (*2) 2 ап Qm (*ι) θ2η (*ι), (2.8.52Α) где коэффициенты ап даются теперь выражением я* β JJ> (χι> хг) Qm (Χι)θ2η (**) dxt dx2, (2.8.53A) причем an ^ 1 при всех значениях /ι. Можно показать [88, 89], что двумерная плотность вероятности Ρ (χι> хъ) будет принадлежать к классу А, если и только если условные моменты ·» Μ{ξ*μ2}= f PJ^Lxidxlt (2.8.54) оо M{i*Ui} = f ρ-^ττ-χ\άχ% J Pi \xi) — oo являются полиномами соответствующей переменной степени не выше k для любого положительного целого значения k. Определим теперь вид ортонормированных полиномов нулевого и первого порядков. Поскольку рх (хг) и р2 (х2) есть плотности вероятности, то для них должны выполняться равенства о» оо j Pt(xd-l-ldxi = l, j (χι—tnt)pl(xi)dxt=i0, tsN ·—ОО 10 Зак. 956 289
J Pi (Xt)(Xi~m)(Xi—mddxt^af, 1 = 1,2, где nti и of — математическое ожидание и дисперсия случайной величины ξ|. Отсюда следует, что θιο(*ι) = U θ20(χ2) = 1, (2.8.55) θιι (*ι) = (*ι — ™ι) / οϊ9 θ21 (χ2) = (χ2 — m2)/a2. Укажем, что если θ10 (хг) = θ20 (х2) = 1, то диагональное разложение по ортонормированным полиномам (52) является единственным 188]. Из (55) и (53) следует, что а0 = 1, аг = Μ {(ix — тг) (ξ2 — т2)}/о1о2 = г. (2.8.56) Следовательно, коэффициент аг есть не что иное, как нормированный корреляционный момент (1.3.73) или нормированная корреляционная функция (2.2.11). В качестве случайных величин можно рассматривать временные отсчеты одного или двух случайных процессов в моменты времени ίλ и t2. В последнем случае хг в χλ (^), х2 == х2 (t2). Если рассматриваемые процессы нестационарны, то одномерные плотности вероятности рг (л^), Рг (х*) и двумерная плотность вероятности ρ (хъ х2) будут зависеть от tx и t2. Поэтому полиномы Θ1Λ (χ±) и Θ2Λ (х2), а также коэффициенты ап, определенные формулой (53), будут также функциями tt и t2: ап = = On Ьъ h)· Однако если процесс ξ (t) стационарен в узком смысле или два процесса |χ (ί) и |2 (f) стационарно связаны в узком смысле, то полиномы Θ1Λ (хг) и θ2η (χ2) не будут зависеть от времени, а коэффициенты ап будут функциями только разности временных аргументов: ап г* ап (t2 — /χ). Разложение (52) позволяет легко найти условную плотность вероятности случайной величины х2 при заданном значении случайной величины хг: Ρ (*21 *ι) = m;*2) β A W У *» К (хг) θ2η (х2). (2.8.57Α) Аналогично 00 ^ М{62т(^2)|дс1}= f θ2ηι(χ2)/72(*2) 2 α»θΐη(*ι) Χ Χ θ2η (xj dx2 = am 9lm (xt). (2.8.58A) Отсюда при т = 1 на основании (55) и (56) получим Μ ί х*~т* \хЛ = г (tt, tt) Х1~щ . (2.8.59А) 290
Применительно к одному стационарному в широком смысле процежу β нормированной корреляционной функцией г (τ) выражение (59) принимает вид М{х2 — т2 | хг} = г (τ) (хг — щ). (2.8.60А) Можно показать [86], что применительно к симметричной двумерной плотности вероятности ρ (*ъ *2) = Ρ (*2, Χι) = Ρ (*ι) Ρ Μ 2 Яп θη (*ι) θη (*2) (2.8.61 Α) определение коэффициентов ап и ортонормированных полиномов Qn (χ) сводится к отысканию собственных значений и собственных функций линейного однородного интегрального уравнения. Приведем несколько конкретных примеров разложений двумерных плотностей вероятностей в диагональные ряды по ортонормальным полиномам. Рассмотрим симметричную двумерную нормальную плотность вероятности 1 Г х\—ЪгхгХъ+хХ 1 #Λ Λ „Λν '<*· t-MVtt"* Г 2o4l-J) \· (2·8·62) причем />(**)= QyYn exp(-*2/2o2), 1-1,2. В данном случав выражение для условных моментов (54) принимает вид оо M{|iU} = ' Г ехрГ- (**~ГЧ)\ ]χϊάΧι = оУъЩ-ή) Jm L 2σ· (1 —/·) J β , ί (™2+</)feexpf— o , 7f <>ν Itfy. оУ2л(1-г2) Jm L 2d»(l-r*) J * Vis этого выражения видно, что правая часть является полиномом переменной х2 не выше k-й степени* В силу симметрии плотности вероятности этот результат будет справедлив и для условных моментов Μ{ξ*| Χχ}» Поэтому двумерная нормальная плотность вероятности может быть разложена в диагональный ряд по ортогональным полиномам. Этот ряд имеет вид (1.4*36). В качестве второго примера рассмотрим симметричную двумерную плотность вероятности niA л, ьь ,,Л _dL±dl_l/ /_е_ Л*ЛА Р ^ Л>> -5^Г=Й 6ХР 1 - 2α^(1-Ρ2) J /θ \Ϊ=Ρ # ~^~Г At, 4s > О» (2.8.63) где /0 (χ) — функция Бесселя нулевого порядка от мнимого аргумента* Соответственно одномерная плотность вероятности имеет вид ρ (А) = (Л/σ2) ехр (—Л2/2о2), А > 0. (2.8.64) Можно показать [87], что двумерная плотность вероятности для безразмерных величин xt = Αι/α, *j2 = Λ2/σ (2.8.65) 1°* 291
может быть представлена рядом по ортогональным полиномам Ларерра г*2и .66) \ ζ / \ "ζ ι πι /ii где La (х) — полиномы Ларерра, определяемые выражением ρ(хс. дъ> -»t *к «ρ (--2lTiL) 2 ^(-гК(-?-)-йг· <2·3·6 ^п(*)-е* —(«"е-*)-У (-1)αθ£[Μ«--1>...<μ+1>]*μ. (2.8.67) dx u = o Двумерная плотность вероятности ρ (xlt х2) гармонического сигнала 1 (ή = A cos (ω0/ + φ), (2.8.68) у которого амплитуда А и частота ω0 — постоянные величины, а начальная фаза φ случайна и равномерно распределена в интервале шириной 2π, определяется рядом [87] («Λ)«{[1-(*ιΜ)*| 1\ — (х*/А)*\У'2р{хи *2) = = 1 +2 2 Гл (Х*/А> Тп ^М) cos /ιωυ τ, *1э х2 < Л. (2.8.69) Здесь Тп (х) — полином Чебышева 1-го рода [90]: Тп (*) β cos (n arccos x). (2.8.70) Рассмотрим симметричную двумерную плотность вероятности [91| p(xl9 x2) = (K/n)(l-r^i/2-xl(l-r^+2rx1x2(x*+xl)\K-\ λ>0, М<1, (2.8.71) в эллиптической области х\ + х\ — 2гхххг ^ 1 —г2. Путем интегрирования нетрудно проверить, что одномерные плотности вероятности рг (хг) и р2 {х2) одинаковы и имеют вид р(х)= (^ + 1) (1—χ*)λ~ι/2, λ>0, UI<1. (2.8.72) ПриI a:I > 1 плотности вероятности равны нулю. Здесь Г (х) — гамма-функция» Плотность вероятности (72) является весовой функцией для полиномов Гегенбауэра С^ (*) [90], Поэтому Γ(η-Γ-λ)/ι!Ίΐ/2 λ п\ λ 0П(Х) = [ТЫГ\ CUX)' «•-^■ίΐ«.»-0.1.2ρ....λ>0. где (α)η= Γ(α + η)/Γ(α). Воспользовавшись формулой (61), получим, что для двумерной плотности вероятности справедливо следующее разложение: λ ^β+η [(1_r2) °~xl)<l-x™i/2-x* λ>0,Μ<1, х\+х\— 2γλγϊ*2<1— α*. 292
Двумерная симметричная плотность вероятности, описывающая некоторые марковские процессы и принадлежащая семейству кривых Пирсона типа I, согласно формуле (61) может быть представлена разложением по полиномам Як<ь би [44, 92]: Ρ(*ι,*2)=Ρ(*ι)Ρ(*2) Σ г1п^+«+* + 1Ш«+* + 2>Ъп(Х1)0пМ, (2.8.74) где |*| <1, α, β>—1, (2.8.75) Qn (x) — полиномы Якоби: (~1)η(2/ζ-μα+β + 1)Γ(η+α+β + 1)Γ(α + 0Γ(β + 1) Ι1/2 2" L Γ(α + β+2)Γ(/ι+α+1)Γ(/ι+β + 1)«! J X (i— x)~a(l+x)^ [(1— x)n+a(l+x)n+V]; (2.8.76) dx* r — нормированная корреляция или нормированная корреляционная функция, 2.9. КОРРЕЛЯЦИОННЫЕ ФУНКЦИИ И СПЕКТРАЛЬНЫЕ ПЛОТНОСТИ МАНИПУЛИРОВАННЫХ РАДИОСИГНАЛОВ Получим аналитические выражения для корреляционных функций и спектральных плотностей радиосигналов, манипулированных бинарными случайными последовательностями [100, 1011, а затем приведем некоторые количественные результаты. Большой класс манипулированных сигналов может быть представлен в виДе (2.2.76), т. е. s (0 = λ (t)sx(t) + [1 - λ (/)] s2(/). (2.9.1) Здесь λ (/) — информационное сообщение, принимающее лишь два значения: 0 и 1, 5г (/) и s2 (t) — некоторые узкополосные случайные процессы. В частности, к такому классу относятся бинарные сигналы амплитудной (AT), фазовой (ФТ) и частотной (ЧТ) телеграфии (манипуляции) с разрывом фазы. Сигналы ЧТ без разрыва фазы в общем случае не могут быть представлены выражением (1), и поэтому они будут рассмотрены отдельно. Выбором процессов s± (t) и s2 (/) можно учесть наличие случайных неинформационных (сопровождающих) параметров сигналов, возникающих в процессе генерации, распространения и при приеме радиосигналов (например, амплитудный фединг, случайные изменения частоты и фазы сигнала и т. д.). В дальнейшем принято, что λ (/) есть стационарный в широком смысле случайный процесс с математическим ожиданием т\ и ковариационной функцией Κλ (Ό, не зависящий от элементарных сигналов s1 (t) и 52 (/), которые также стационарны и стационарно связаны, причем их корреляционные функции обозначим через Rt (τ) и R2 (τ), а взаимную корреляционную функцию через R12 (τ). В большинстве прак- 293
тических случаев математические ожидания радиосигналов равны нулю: Μ {$i(t)} = О, I = 1,2. Получим выражения для корреляционной функции и спектральной плотности составного (результирующего) сигнала s (/). В соответствии с определением записываем выражение корреляционной функции R (τ) = Μ {s (t) s (t + τ)} = Кх (τ) [Rx (τ) - Ri2 (τ) - Rn (τ) + + /?2 (τ)] + mx IR12 (τ) + R2l (τ) - 2R.2 (τ)\ + R2 (τ). (2.9.2) Эта формула позволяет определить корреляционную функцию составного сигнала s (t) через характеристики манипулирующего сообщения λ (t) и элементарные сигналы sx (t) и s2 (ή. Зная корреляционную функцию, по формуле (2.3.33) можно найти спектральную плотность со S (ω) = 2 Г R (τ) cos ωτάτ. (2.9.3) Применительно к амплитудной манипуляции в формуле (2) нужно положить s2 (t) = 0. Тогда получим R (τ) = Кх (τ) Rl (τ). % (2.9.4) Согласно (2.3.60) спектральную плотность AM сигнала можно найти как свертку спектральных плотностей, соответствующих ковариационным функциям Кх (τ) и Rx (τ): оо S(<i>) = -l-Sx(<u)*Sl(<u) = -L Г 5λ(ω')51(ω — ω')Λο'. (2.9.5) 2я 2л J — оо При фазовой манипуляции с углом манипуляции π имеем sx (/) = =* — s2 (t) и, следовательно, /?х (τ) = R2 (τ) = — Rl2 (τ) = — R2l (τ). При этом из (2) получим # (τ) = [l + 4 Κλ (τ)Ι Rt (τ) ~ 4 m^ (τ). (2.9.6) При тх = 1/2 спектральную плотность можно найти по формуле S(o)) = 4 -i-S^co^S^co) — S (ω). (2.9.7) 2я При частотной манипуляции с разрывом фазы, когда составной сигнал s (/) образуется поочередным подключением двух независимо работающих генераторов, Rl2 (τ) = /?21 (τ) = 0 и корреляционная функция равна R (τ) = Кх (τ) [ /?i (τ) + R2 (τ)1 + (1 - 2 mK) R, (τ). (2.9.8) Если тх = 1/2, ίο спектральная плотность определяется выражением s (ω)=~L·Sx (ω) *iSi (ω)+s*(ω)1' (2·9·9) Конкретизируем полученные выражения применительно к типовым манипулирующим сообщениям λ (t) и сигналам sx (t) и s2 (0· В качестве информационных сообщений λ (/) возьмем два: случайный двоичный сигнал (пример 2.2.2) и квазислучайный телеграфный сигнал 294
(пример 2.2.4). Если сообщение λ (/) представляет собой случайный двоичный процесс со значениями 0 и 1 и с пуассоновским законом распределения точек смены значений, то с учетом формул (2.2.64) и (2.2.67) получим Кх(х)«-i-<l+e-'vit|)f 5λ(ω) = ^-6(ω)+ » ω>0, 4 δ ω4 -j- 4 ν2 где ν — среднее число точек смены состояний сообщения λ (f) в единицу времени. Ковариационная функция квазислучайного телеграфного сигнала дается формулой (2.2.74): /CxW = -j-+T(p"</)'"[1~2<'(i71—|,|)l· Соответствующая спектральная плотность равна <5λ(ω)==ϋ.δ(ω) + 2£ /ilnomy ω>0. (2.9.10) Зададимся узкополосными радиосигналами вида st (0 = Л cos [ω4< + θ, + Ф< (t) + φ,0|, (2.9.11) где Л, (Oi и 6г- — постоянные величины; φ?·0— случайная начальная фаза, равномерно распределенная в интервале [— π, πΐ, φ* (t) — случайный процесс, описывающий флюктуации частоты и фазы сигнала. В дальнейшем ограничимся случаем, когда процесс φ^ (t) представляет собой фазовые флюктуации, описываемые простейшим стохастическим дифференциальным уравнением d^ildt = ηφ (/), где ηφ (t) — гауссовский белый шум с нулевым математическим ожиданием и корреляционной функцией Rn (τ) = Nffi(x)/29i В [44] показано, что в данном случае /?.(Т) = ±.Л2ехр/Г— j5k|x|\cosa>,T, (2.9.12) А* А/ /4 δίίω)-— 2ί , ω>0. (2.9.13) Отметим, что получение результатов при другом характере фазы q>j(/) не имеет особенностей. Для общего случая фазовой манипуляции нужно полагать (ог = = со2 = ω0, φι (/) — φ2 (0 = Φ (0> Фю = Фго = Φο· При этом выраже-, ния для корреляционных функций Rx (τ) = R2 (τ) и спектральных плотностей Sj (ω) = S2 (ω) даются формулами (12) и (13), а выражение для взаимной корреляционной функции имеет вид Ri2^)^Y^exp(-^\T\yos^0% + ^-Q1). (2.9.14) 295
CM cr « О Η a о в Η о СО О 5 8 || о ■ S в s 5 3 .5. §* s § В ЕВ В Л sf & о о л 3 + + + + ее 5 3 + О Л 3 СМ + з + см СМ + I + \ + зм I з + θ- > *Т Θ· 3 I 3, | + &Ι О Л з 3 + СМ см + + >*1 *+ з + ^> СМ + X *1* 1 1 I «? + V-H 1 (А О О ■ ы 3 (cos X •я я ς S » «■ >>о и, 296
С* "5 4) IS as о о Ш 5 α & о Λ з + ^т*. О э 1 3 ю л 1 "5 оо Б 1 S- I с О* ^ е- Я | У <N с «л К <> < * Ι «Χ .+ у^ • о 3 I я Я о Сг | сх с* 1 + < о Л 3 3° £ 1 1 3 ем с СО 1 *- £ га | «5 с & Yi 8 | 1 U. (N | ψ^ + 1 χ I Ι Ε CI I X * Г χ + +" 3 I 3 ih + л 3 + I г 3> 1 I <N CM + X см X ι-Π-ι * iff *- fa /*J «О СО 297
Рис. 2.58. Спектральная плот- Рис. 2.59. Спектральная плотность ность радиосигналов, манипу- радиосигналов, манипулированных лированных квазислучайным случайным двоичным сообщением телеграфным сообщением При θ2 — Qt = π эта формула упрощается: /?12(т)=~-~Л2ехр/^--^|х|]со5ШоТ-— ^(τ). (2.9.15) На основе указанных результатов можно найти корреляционные функции и спектральные плотности сигнала s (t) при разных видах манипуляции. Соответствующие результаты приведены в табл. 2.2. К сожалению, при нахождении спектральной плотности интеграл свертки иногда можно вычислить лишь численными методами. Так обстоит дело, например, в случае квазислучайного телеграфного сигнала, когда Sx (ω) определяется формулой (10). Поэтому выражения спектральных плотностей этих сигналов в таблице указаны только при Л/ф = 0, т. е. в отсутствие флюктуации фазы. Спектральные плотности радиосигналов при манипуляции квази- случайным телеграфным сообщением были вычислены с использова- 298
нием интегралов свертки (5), (7) и (9) на ЭВМ. На рис. 2.58 представлены результаты вычислений спектральной плотности AT, ФТ и ЧТ радиосигналов. Аргументом для AT и ФТ является отклонение от центральной частоты со0, а для ЧМ — отклонение от средней частоты ω0 = (α>! + ω2)/2, умноженное на длительность тактового интервала Т. Спектральная плотность симметрична относительно со0. Спектральная плотность AT, ФТ и ЧТ радиосигналов при манипуляции случайным двоичным сообщением приведена на рис. 2.59. Здесь аргументом является отклонение от частоты ω0, умноженное на среднюю длительность 1/ν постоянства сообщения λ (/). • β - ω7 0 & _ 6)2 Г и <*т-1 6>т I I 6>Л7+/| Г г t Рис. 2.60. Скачкообразный характер изменения частоты ЧМ радиосигнала Получим теперь аналитические выражения для корреляционной функции и спектральной плотности случайных частотно-манипулиро- ванных радиосигналов с непрерывной фазой (ЧМН) с зависимыми символами, описываемыми однородной симметричной цепью Маркова. Такие сигналы широко используются в современных цифровых системах связи, поскольку их сравнительно просто генерировать и при оптимальном приеме они обеспечивают более высокую помехоустойчивость, чем ЧТ радиосигналы с разрывом фазы. ЧМН радиосигнал можно записать в виде s (t) = Л cos ω0/+ |ω (/ι)Λι + ψ0 (2.9.16) Здесь Л, ω0 и ω (ί) — соответственно амплитуда, несущая частота и случайная частотная манипуляция, φ0 — случайная начальная фаза, равномерно распределенная в интервале I— π, π]. Предположим, что ω (t) представляет собой скачкообразный случайный процесс, принимающий одно из k возможных фиксированных значений Ω?·, / = 1, k, причем смена этих значений возможна только в моменты времени tm = тТ + Δ, m = 0, 1, 2,... (рис. 2.60). Здесь по-прежнему Τ — постоянная и известная длительность тактового интервала; Δ — случайная величина, равномерно распределенная в интервале [0, Т]. При указанных характеристиках случайных величин <Ро и Δ сигнал s (t) является стационарным процессом. 299
Обозначим последовательность значений случайной частоты манипуляции ω в полуинтервале [0, τ) соответственно через o>lf ω2, ..., ωη+1. Принято, что эта последовательность представляет собой цепь Маркова 117], для которой задана матрица одношаговых вероятностей перехода [πιι ··· nri Lnhl ··· nkk J и вероятности начального состояния Λ = Ρ(ωι = Ωί) = ... = ρ(ωΓη+1 = Ωί), совпадающие с финальными вероятностями. Запишем выражение для корреляционной функции радиосигнала (16) /?(t) = M{s(/)s(/ + t)) = = -y-Re eK^Mjexpj Γω(0ΛΠ« (2.9.17) Фигурирующий здесь интеграл можно представить в виде (см. рис. 2.G0) τ ί ω(ί)·άΙ = <ο1Δ + Τ 2 <о, + а>т+1[т—Δ—(m— l)T]. (2.9.18) /=2 Вследствие марковского характера последовательности сош справедливо соотношение т Ρ (ωχ,..., cow+1) = р((от+1Ц\ p((ut |com). (2.9.19) г=1 Обозначим через ψ(Δ) = Λΐ|βχρ j f ω(/)Λ|ΔΙ условное (при фиксированном Δ) математическое ожидание. На основании (18) и (19) можно записать ψ(Δ)= 2 Λ··ί2ββ,Δ^^(ωιΙω^θ,Γ^^(ω2ΐω«)ν·· ωτη+Α \ω2 \ο>, J J iiefam+l[WHm-.»n/)(fflra+i)j> Это выражение удобно представить в матричной форме: * <ф(А) = а(т~ Δ— (т— 1) Г)В"-»Пте(А), где обозначено a(T) = [fte»' Pk^°h\ S0O
Β = ΠΤΕ, Ε= [е№.г ο *j 0 Vfi*rJ ет(Д) = [е^* eJofcAjf τ — символ транспонирования матрицы. Как следует из (17), корреляционная функция получается осреднением ·ψ (Δ) по Δ. При фиксированных Δ и τ число разрешенных точек перехода т = i + 1, если 0< Δ<τ', и η = i, если τ'^Ι Δ < Т. Здесь τ' = τ — iT при ιΤ < τ < (ί + 1)7", т. е. ί — целая часть дроби τ/Τ. Поэтому (17) можно записать в виде {Γτ' е^от Г а(т'—Δ)Β'ΠΤθ(Δ)ίίΔ+ + §а(т1 — к+Т)&е(к—Т)с1Ь L (2.9.20) Используя обозначение следа матрицы tr{·}, представим (20) в виде #(x) = -^-Re erotic tr{BinTe(A)a(T/—Δ)}</Δ + + J tr{B'e(A — Г)а(т'-Д + Г)}<&||. Меняя порядок операций интегрирования и tr {·} в силу их линейности, получаем R (^) = ~ Re {eJoot tr{B'D}}, (2.9.21) где D = IItD1(t') + E-1D2(t'). Здесь введены матрицы Dx (τ') и D2 (τ'), элементы которых определяются из соотношений х' Г D^x'^f е(А)а(т' —Δ)</Δ, D2(0= [ β(Δ)α(τ'—Δ + Γ)<ίΔ и равны рт[е,й»т-е^] j (Ωη-Ω„,) ^(τ)^^ .,η ' -. «¥»«, (2.9.22) dlmmW = pmxeiQ-\ d2mm(T)=pm(r-T)eJ(«m^+«m'). 301
В нематричной форме (21) имеет вид к k R (τ) - ■£- Re lei- - % 2 &™ d»« <τ>]· <2·9·23> где fcm/i — элементы матрицы В', a <2nm (τ) — матрицы D. Спектральная плотность рассматриваемого сигнала находится по известной формуле оо S((o)= f /?(т)е-*»**. Нетрудно показать, что для узкополосных процессов эту формулу можно привести к виду S(Q) = —Rej f ρ(τ)β-ίΩΜτ), Ω>0, (2.9.24) --Hi где ρ (τ) — комплексная огибающая корреляционной функции R (τ)= = Re {ρ (τ) eju,*T}, Ω = ω — ω0. Выражение для ρ (τ) сразу следует из (21). Для отрицательных частот спектральная плотность определяется из условия S (— Ω) = S (Ω). Подставив ρ (τ) в (24) и интегрируя, получим S(Q) = ^ReJjg tr{e~^B<D'}|, (2.9.25) где D' = llTDi (Ω) + E^D* (Ω). τ Здесь введены матрицы Di (Ω) = ( Dx (τ) e~№ άτ и Щ (Ω) = Ό / == J D2 (τ) e—jQxdx, элементы которых равны о V j(0«-0) ^(Qw-fi)«l (2.9.26) r(l-e,<°"*""Q>7) ^β/72η(Ω) 2n—Qm J_ ]■ Ωη-Ω " m*"· 302
Поменяв местами операции tr {·} и суммирования в (25) и учитывая матричное тождество ι = 0 где I — единичная матрица размерности k X k, можно привести (25) к виду S(Q) = ^Re{tr{[I-e~-^B]-iD'}}. (2.9.27) В радиотехнике наиболее распространен бинарный случай (k = 2). При этом Ωχ = β, Ω2 = — β. Ограничимся случаем симметричной цепи Маркова, когда матрица перехода и вектор финальных вероятностей заданы в виде Π = ίΡ ч\ p* = [0,5; 0,5]. Основная сложность при получении корреляционной функции по полученной общей формуле (21) связана с возведением матрицы В в степень /. Воспользуемся для этого с/андартной методикой. Характеристические корни матрицы В равны ^#2 = ρ cos βΤ ± Kp*cos2pr— 2/?+1. (2.9.28) Если характеристические корни матрицы В простые, т. е. ^фк2, то элементы матрицы В' равны ty — λ!λ2(λι"~ —λ2~ ) nCifir λ*ι—λ2 λ2 — λ^ λ2—λι &*12 = -^е'Эг * 2 + —λ!λ2λζ λι + -£-λ* ~λ* + q λ2—λχ ? λ2—λχ <7 ^2—λχ + λ2 λ! e - »τ λΊ-λ', ^ (2 9 29) λ2 — Af Л2—Λχ '«>'""" ™1 ^■2"~~^'l Если характеристические корни матрицы В кратные, что на основании (28) имеет место при ρ cos βΤ = ± |/р — q, то λχ = λ2 = λ = = ± W — 9 и элементы матрицы В' равны + 2-2- V— ίβ-^'λ'+ι, (2.9.30) Нетрудно заметить, что выражения (λ'2 — λ\) /(λ2 — λ^ и λ2λχ действительны при всех значениях /=0,1,... Учитывая это, можно показать, 303
что выражение tr {B'D} тоже действительно, поэтому (21) для R (τ) можно записать в виде ^(τ)=~1^ι^ι(τ) + &ί24ι(τ) + &/21^2(τ) + + Ъ\ъ d«(Ol cosco0t, (2.9.31) где blmn определены (29) или (30), a dmn (τ) легко получаются конкретизацией (22). Из (27) нетрудно получить выражение для спектральной плотности бинарного ЧМН радиосигнала: S(Q) = -±- Re{Auif11(i3) + Aurfll(Q)+ + Λ2ι d12 (Q) + h22d22(Q)}. (2.9.32) Здесь hmn — элементы матрицы [I — er~J°r BJ-1, равные h ^ i-pe-HH-o>r 1— 2pcos$Te-iQT + (p—q)e~2iuT h _. 2S l~2pcospTe*"j$2r+(p~(7)ete2ig7' * 1 —2p cos βΓβ^]ΩΓ +(p—q) e^2m bn |-^-,f. ,„, P.9.33) 1 —2p cos βΓβ-'ΩΓ+(Ρ—<7) e~2jQr а выражения (26) при Ω! = — Ω2 = β и pm = 0,5 определяют dwn (Ω). Известные результаты [1021 для корреляционной функции и спектральной плотности ЧМН радиосигнала с независимыми символами (Р = Я = 0»5) можно получить из (31) и (32) как частные случаи. Действительно, при q = ρ = 0,5 из (28) находим λ2, λ2: ^ = 0, λ2 = cos βΓ. (2.9.34) Подставив (34), (29) в (31), после некоторых преобразований получим R (τ) = ρ (τ) cos ω0τ, (2.9.35) ' W[β (2Τ~τ) cos βχ+sin N> ° <τ < r· И2 cos'"1 βΓ [βΓ cos β (Γ+τ') +βτ' sin βΓ sin βτ' + ρ(τ) = 4ГР + stoprcosfc'l, τ>Γ. Выражение для спектральной плотности ЧМН радиосигналов с независимыми символами получается путем подстановки (26) и (33) при ρ = q = р,5 в (32): 304
Рис. 2.61. Огибающая корреляционной функции бинарного ЧМН радиосигнала с различными вероятностями перехода и индексами модуляции №[\Г 0,6 ωΤ/Zrr 7Ψ] 45 О Щ а=0,55 1 / ,«' 4» 5 1 / L^-~L-^ А ρΑΰ,Ζπ \ | 1 0,1 0,ь Οβ ωτ/ζπ f-4f / / 0,4 .1—-■ J / л /) А 1L ZL J3T~0,9rt ±=3э* ο,ζ w Ofi ωΓ/гп Рис. 2.62. Спектральная плотность огибающей корреляционной функции бинарного ЧМН радиосигнала с различными вероятностями перехода и индексами модуляции S(Q)- 2А* 1 — 2 cos βΓ cos QT +cos2 βΓ [— —1\ (2.9.36) [Ω—β Ω+β] ν Эту же формулу можно получить преобразованием Фурье от корреляционной функции R (τ), определенной формулой (35) 1102]. На рис. 2.61 в виде графиков представлены результаты расчетов πα формуле (31) огибающей корреляционной функции R (τ) для трех значений вероятности перехода и трех значений индекса модуляции βΤ^π. Соответствующие вычисления спектральной плотности по формуле (32) приведены на рис. 2.62. Из рис. 2.62 видно, что спектральная плотность существенно зависит от значения q. Даже малые отклонения q от 0,5 (т. е. от случая 3GS
независимых символов) приводят к существенному изменению спектральной плотности. Увеличение индекса модуляции βΤ от 0 до π приводит к расширению спектра ЧМН радиосигнала. С приближением рТ к π в спектральной плотности увеличивается пик, переходящий при βΤ = π в дельта-функцию. Соответствующая ей гармоника не доставляет информации, и поэтому такие радиосигналы неэффективны. Отметим, что для упрощения выше не учитывались флюктуации частоты и фазы генератора, которые приводят к искажению спектральной плотности. Соответствующие выражения можно получить на основе приведенных результатов применением известной методики (17]. Например, наличие у ЧМН радиосигнала (16) фазовых флюктуации, описываемых уравнением άφ/άί~ηφ (/), приводит к появлению в выражениях для корреляционной функции (21) и (31) дополнительного сомножителя ехр (— Α/φ |τ|/4). При этом очевидным образом изменяется выражение для спектральной плотности. Изложенный выше метод распространяется на некоторые другие, не бинарные радиосигналы. Рассмотрим нашедшие в последнее время широкое распространение радиосигналы двукратной фазовой телеграфии (ДФТ) и двукратной фазовой телеграфии со сдвигом [103]. Сигналы ДФТ и ДФТ со сдвигом имеют вид s (t) = A cos Ιω0ί + %с {t)n + φ] + A sin [ω0ί + λ$ (t) π + φ], (2.9.37) где λ0 (/) и λ8 (t) — не коррелированные квазислучайные телеграфные сообщения, принимающие постоянные значения на интервалах длиной 2Г. У радиосигналов ДФТ моменты времени возможной смены значений сообщений Xc(t) и λ8 (ί) сопадают, а у сигналов ДФТ со сдвигом моменты смены состояний сообщения λ8 (t) сдвинуты относительно таких же моментов Кс (t) на временной интервал Т. Оба радиосигнала можно представить в виде s (0 = К (0 Sl (0 + [1 - λ, (01 s2 (t) + λ$ (t) 53 (t) + + 11— λ,ίΟΙδβίΟ. (2.9.38) где Si (0 = — $2 (0 = cos Ιω0* + φ (t)], s3 (t) = — s4 (0 = sin |ω0* + φ (ί)1. (2.9.39) Корреляционная функция R (τ) как сигнала ДФТ, так и сигнала ДФТ со сдвигом определяется формулой R (τ) = 2 R± (τ), (2.9.40) где /?! (τ) — корреляционная функция одной квадратурной составляющей сигнала; согласно (37) она совпадает с обычным ФТ сигналом, но с длительностью тактового интервала 27\ Выражение для корреляционной функции R (τ) и спектральной плотности S (ω) берем из табл. 2.2: 306
— Ι τ Ι R(x) = A*(p-q)\'\\l-2q(^--\i\j\e 4 cos<D0<r, (2.9.41) где i — целая часть дроби τ/2Τ, 5(g>)^ ^wr[8in(tt^)T/((p^7T 0 2>9Л2) Заметим, что корреляционная функция и спектральная плотность не зависят от еоотношения между λβ (/) и λ8 (/), Следствием этого является, в частности, то, что характеристики сигналов ДФТ и ДФТ со сдвигом одинаковы. ГЛАВА 3 ФУНКЦИОНАЛЬНЫЕ ПРЕОБРАЗОВАНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН И ПРОЦЕССОВ 3.1. КЛАССИФИКАЦИЯ ПРЕОБРАЗОВАНИЙ Любое радиотехническое устройство обычно состоит из комбинаций линейных и нелинейных звеньев (каскадов). К линейным звеньям можно отнести усилители, фильтры, длинные линии и др. К числу нелинейных относятся все автоколебательные системы (автогенераторы, мультивибратор, блокинг-генератор), детекторы различных видов, дискриминаторы, смесители, умножители, модуляторы, ограничители, триггеры и др. К чисто линейным системам мы приходим, как правило, в результате упрощений, допустимых лишь при определенных условиях. Так, выше усилители были отнесены к числу линейных систем. Однако вольт-амлерные характеристики ламп и полупроводниковых приборов являются, вообще говоря, нелинейными и их приближенно можно считать линейными лишь в определенной области. Точное указание области, где допустима линеаризация характеристики, для случайных сигналов является более сложной задачей, чем для детерминированных сигналов. При выяснении возможности линеаризации необходимо учитывать, что хорошая аппроксимация характеристики должна быть на том участке, где имеет место достаточно большая вероятность пребывания случайного сигнала. Применительно к га- уссовским случайным процессам часто стремятся подобрать хорошую аппроксимацию в интервале ± 1,5 σ около математического ожидания (вероятность пребывания 0,87), где σ — среднее квадратическое значение процесса. Часто применяются следующие три вида аппроксимации: полиномом, ломаной линией (кусочно-разрывная аппроксимация) и трансцендентными функциями. Каждый из этих видов имеет свои преимущества и недостатки. При этом нужно иметь в виду, что требования точности аппроксимации и простоты аналитического выражения в известном смысле противоречивы и, как правило, плохо согласуются между собой. 307
Запишем в общем виде преобразование случайного процесса I (/) η(0= Т1ЪЦ)]. (ЗАЛ) Такая запись означает, что каждой реализации £г (/) процесса ξ (/) по определенному правилу, определяемому оператором Т, ставится в соответствие некоторая реализация η* (/) процесса η (t). В дальнейшем будем применять следующую трактовку (рис. 3.1): ξ (/) есть случайный процесс на входе системы, η (/) — процесс на выходе системы и конкретный вид оператора (преобразования) Τ определяется рассматриваемой системой. Оператор (преобразование) Τ может быть детерминированным и случайным. Преобразование Τ называется детерминированным, если каждой конкретной реализации ξ*(ί) входного процесса ξ (t) соответствует вполне определенная реализация r\i(t) выходного процесса η (t). В данном случае оператор Τ является детерминированной функцией, Рис. 3.1. Преобразование выражающей η (ί) через ξ (<), и вся «слу- процесса системой чайность» выходного процесса η (t) обусловлена только случайным характером входного процесса ξ (t). Преобразование Τ называется случайным, если одной и той же реализации lt (ί) могут соответствовать разные реализации r\i(t) и v\j(t)t причем η< {t) Φ η7· (t). Если поведение системы определяется ее внутренними элементами или соответствующим дифференциальным уравнением, то система является детерминированной (случайной), когда элементы или коэффициенты дифференциального уравнения являются детерминированными (случайными). В дальнейшем пойдет речь в основном о детерминированных преобразованиях Т. Среди преобразований общего вида (1) следует различать линейные и нелинейные преобразования. Преобразование L называется линейным, если для него справедлив принцип суперпозиции, т. е. выполняется равенство η (/) = L la^i (0 + a£t (0]=βιΠ6ι (OJ + <**L IU (01 (3.1.2) лри любых аъ я2, 1г (ί) и ξ2 (ί). Здесь коэффициенты ах и а2 могут быть постоянными или случайными величинами, не зависящими от t. Различные линейные преобразования случайных процессов изучаются в гл. 5. Среди нелинейных преобразований можно выделить два класса: безынерционные (функциональные) и инерционные. Наиболее общими и сложными являются нелинейные инерционные преобразования. В частности, при таких преобразованиях интересующий нас выходной процесс или сигнал может быть связан с входным процессом или сигналом при помощи нелинейного дифференциального уравнения. Примеры таких преобразований будут рассмотрены позже. Простейшие безынерционные преобразования (линейные и нелинейные) можно определить так. Пусть выходной процесс системы χι (t) связан с входным процессом ξ (t) соотношением ът Система (Т) 308
η (Ο-β (6(0). (3.1.3) где детерминированная функция j (χ) не зависит явно от t и является функцией только χ (например, g (χ) = χ2). Это означает, что при заданном i = ίΎ выходной процесс η (tt) зависит только от ξ (/г) и не зависит от прошлых и будущих значений ξ (t). Поэтому преобразование (3) называется безынерционным или функциональным. Поскольку функция g (x) не зависит явно от времени, то будет выполняться равенство η(' + Ό = «(δ(< + τ)). (3.1.4) чю Линейная система Z/ftftW, Нелинейный элемент дШШ\ Линейная система L2 \ Рис. 3 2. Комбинированная система Системы, удовлетворяющие этому условию, называются стационарными (инвариантными во времени). При анализе преобразований случайных процессов линейными и нелинейными системами задача ставится так: предполагая известными параметры системы (т. е. конкретный вид преобразования) и вероятностные характеристики входного процесса ξ (/), требуется найти необходимые вероятностные характеристики выходного процесса η (/). Те характеристики выходного процесса?] (/), которые нужно находить, определяются физическим содержанием конкретной задачи и, в частности, тем устройством, на которое воздействует случайный процесс η (/). Обычно интересуются плотностями вероятности (чаще всего одномерной и двумерной) выходного процесса или же моментами (чаще всего математическим ожиданием и корреляционной функцией). В данной главе будут приведены общие правила решения этих задач применительно к различным видам функциональных преобразований вида (3) и будет рассмотрено большое число конкретных примеров. Отметим, что в § 5.2 приведены общие правила «пересчета» вероятностных характеристик случайных процессов через линейные системы. Зная аналогичные правила и для нелинейных функциональных преоб- разэваний (3), можно производить расчеты различных систем, представляющих, собой последовательное соединение линейных и нелинейных звеньев. Пусть, например, интересующая нас система (рис. 3.2) есть последовательное соединение линейного звена Lb нелинейного безынерционного элемента и второй линейной системы L2, причем линейные системы не оказывают реакции на нелинейный элемент. В данном случае результирующее преобразование можно записать в виде Я (0 = L% {g UaG (0)1), (3.1.5) где L± и L2 — линейные операторы. При известном правиле (5.2.3) преобразования моментных функций линейными системами изучение 309
преобразования (5) сводится к анализу нелинейного преобразования вида (3). 3.2. ПРЕОБРАЗОВАНИЕ ПЛОТНОСТЕЙ ВЕРОЯТНОСТЕЙ И МОМЕНТОВ Рассмотрим функциональные преобразования последовательно» сначала одномерных плотностей вероятностей и одномерных моментов, затем двумерных плотностей вероятностей и двумерных моментов и, наконец, получим аналогичные результаты для многомерного случая. Теоретические результаты будут иллюстрироваться большим числом конкретных примеров. Преобразование одномерных плотностей вероятностей и моментов Пусть известна плотность вероятности р$(х) случайной величины ξ и нужно найти плотность вероятности рц (у) случайной величины η= = g (#), где g(x)— однозначная дифференцируемая функция. Тогда существует однозначная обратная функция £ = h (η). Так как случайные величины связаны однозначной детерминированной зависимостью, то из того факта, что полученное значение случайной величины ξ заключено в интервале 1х, х+ dx\, достоверно следует, что величина η будет находиться в интервале [у, y + dy], где # = g (x), dy = g'(x)dx (рис. 3.3). Отсюда следует, -что вероятности этих двух событий равны, т. е. выполняется свойство инвариантности дифференциала вероятности: РпШу = Pt{x)dx (3.2.1) или /Ы (У) = Pi (х) I-£- I = ft (h (у)) \h'(y) |. (3.2.2) Заметим, что при dx > 0 дифференциал dy>0, когда функция g (x) возрастающая, и dy <i О, когда функция g (x) убывающая. Поскольку вероятность и плотность вероятности не могут быть отрицательными, то в формулы (1) и (2) нужно подставлять модули. Более сложным является случай, когда обратная функция ξ = /ι (η) неоднозначна, т. е. одному значению у соответствует несколько значений х. Пусть имеется две ветви обратной функции h± (x) и h2 (у) (рис. 3.4). В данном случае выполнение неравенства У<П<У + <1у (3.2.3) обеспечивается двумя несовместными возможностями Χι ^ Ε < Χι + dxx или х2 + dx2 <ξ < χ2. (3.2.4) Поэтому вероятность выполнения неравенства (3) должна равняться сумме вероятностей выполнения каждого из неравенств (4): Ръ (У) dy = рг (хг) ахг + рх (х2) | dx2 |. Выразив в правой части χ через у, окончательно получим Рп (У) - ft (hx (у)) | h[ (у) | + ft (A2 (у)) | Ц (у) |. (3.2.5) 310
Если имеется большее число ветвей обратной функции, то в правой части формулы (5) следует брать сумму по всем ветвям. С учётом этого формула (5) будет давать правило преобразования одномерных плотностей вероятностей при функциональных преобразованиях непрерывных и дискретных случайных величин. Отметим, что при неоднозначном или вырожденном преобразовании у = g (χ) нарушается однозначное соответствие между плотностями вероятности случайных величин ξ и η: по известной плотности вероятности /?η (у) нельзя однозначно определить плотность вероятности р% (х). Рис. 3.3. Взаимно одно- Рис. 3.4. Двузначное не- значное преобразование линейное преобразование Если требуются лишь моменты (начальные или центральные) преобразованной случайной величины η, то их можно найти без предварительного вычисления плотности вероятности рп (у), а пользуясь формулами оо Μ {η"} = Μ {£"(!)}= j* gn(x)Pi(x)dx, /ηη = Μ{η}, (3.2.6) — оо оо Μ{(η-/ηη)»} = Μ{[§(ξ)-/ηη]"}= J [g(x)-mrtnpt(x)dx. (3.2.7) — 00 Отметим, что закон распределения преобразованной дискретной случайной величины η находится проще непосредственно, а не с помощью формулы (5). Пусть дискретная случайная величина | принимает значения xk о вероятностями ph = Ρ {ξ = xk}> k = 1, 2, 3,... Тогда случайная величина η = g (ξ) будет также дискретной, принимающей значения yk = g (xfe). Если yh = g (xk) только для одного значения хк, то ρ {η = Ы = ρ {1 = 4} = Pk< Если же ут = g (xm) = g (хг) (рис. 3.5), то Р{Ч = Ут} = Р{1 = *т} + P{l = Xt} = Pm +Л- 311
Заметим, что если число возможных значений случайной величины ξ равно л то число возможных значений η меньше или равно п. На с 407 приведен пример линейного преобразования закона Пуассона. Укажем методику непосредственного определения функции распре- деления Fn(y) преобразованной случайной величины η = g (§) (рис. ?6) по функйии распределения F, (х) случайной величины ξ. Пусть с есть верхнее граничное значение функции у = g (*)· 1огДа FnU/)-P{i\<c) = l. Если у = Уг, тоё(х)<Уг при χ < хх (см. рис. 3.6). Поэтому F„ Ы = ^ (ΤΙ < Ух) = Р & < *ι> = *Ч <*ι). У- Уда ft 0 ι jto> / 7 ι I 1- \/xk ·% ^ ^ ψχζ xr£ xr Ϊ" Рис. З.5. Неоднозначное нелинейное преобразование Рис. 3.6. Неоднозначное нелинейное преобразование Если у = Уь то уравнение g (х) = у2 имеет относительно χ три ре- шения х'ъ x'i и х'2": g (*ί) = £ (*5) = £ (*П = #2· Следовательно, Наконец, если d — нижнее граничное значение г/, то событие {η <у} невозможно и /%(#) = 0 при y<d. При любой другой функции g (x) можно рассуждать аналогично. Рассмотрим несколько частных случаев (дополничельные примеры помешены в § 3.8)* Линейное преобразование η = g (ξ) - а\ + b, (3.2.8) где а и Ъ — постоянные величины. Так как обратная функция однозначна, то по формула (2) получим 1 рп (у) =- Ή т (3.2.9)· Если, например, величина ξ имеет отличную от нуля и равномерную плотность вероятности в интервале (с, d), то η будет равномерно распределена в интервале- (ас + bt ad + b), Следовательно, при линейном безынерционном преобразова- 312
нии равномерная плотность сохраняется. Нетрудно убедиться, что этот результат распространяется и на нормальную плотность вероятности. Квадратичное преобразование (безынерционный двусторонний квадратичный детектор) η = £(£) = 0ΐ2, Д>0, (3.2Л0) В данном примере η не может принимать отрицательные значения и поэтому Рц (У) = 0 Для У < 0· При у > 0 обратная функция имеет две ветви (рис. 3.7): xi = (y/a)l/2, х2 = ~(у/а)1'2. РчЩ \у=ая2 Ρξ(Χ*}1ΐ/6ς№? •%2 0 &1 Φ О Рис. 3.7. Квадратичное преобразование и плотности вероятности Поскольку g'(*i) = 2axt = Т\/ay, g'(*a) = 2α*2 = —2l/ayf то на основании формулы (5) получим I η 2 У ay HVЧМ-ι/т\\ ">о· <з·2·"' Если плотность вероятности pt(x) есть четная функция, <г· е. /?*(—х) = р*(х), то формула (11) упрощается: Pq (y)~(ay)-XnPbW7la)> У > 0; Рл(у)-0, у < 0. (3.2.12) Если ξ имеет нормальную плотность вероятности Η {χ) ™(σδ V2S)~l exp (-*2/2o£), то формула (12) принимает вид (см. рис· 3.7)· ^η(^)=(σξ V2^)"1exp(—ί//2ασ|), */> 0. (3.2.13) Для нелинейного преобразования (безынерционный односторонний квадратичный де!екгор) вида η Ι ο, ξ<ο, (3.2.14) вместо формулы (13) получим Ρη(ί/)=δ(ί/)/2 + (2σΕν2^)-|6χρ(-ί//2ασ|), ^>0 (3.2.15) ■ Ρη (9) β 0 при у < 0 (см· ниже)· Нетрудно показать, что если преобразованию (10) подвергается случайная величина ξ α равномерной плотностью вероятности рг (х) = \/(d — с), с < * < dt с < 0, d > 0, (3.2.16) 313
то плотность вероятности преобразованной величины η равна f 0, у<0, РЦ(У)=\ l/(d—c)Vay9 0<ί/<α*2, (3.2.17) 1 l/2(d—o)Vay, ac*^y<ad*. Применительно к этому случаю особенность преобразования (10) состоит в том, что при | х\ < | с\ обратная функция двузначна, а в интервале [—с, d] однозначна. При с, d > 0 или с, d < 0 преобразование будет однозначным. Условие нормировки к единице для плотности вероятности (17) выполняется: оо Г ас 1 ad2 —-- 2 ас2 ***— 2 1 Г» У * rf^+YJ У 0 <И>* 4у 2| с ) d—\c\ d+\c\ d—c d—c d—c «1. /^ft/ji 0 a 1 * tf-я .? **W' g5Vj ?7 0 Irm Ιηύ у Рис. 3.8. Логарифмическое преобразование Логарифмическое преобразование. Пусть преобразованию t| = In 6 (3.2.18) подвергается случайная величина ξ с равномерной плотностью вероятности (рис. 3*8) ра(*) — \/(Ь — a), a, b > 0. (3.2.19) В данном случае Ρη(£) β е*/№ — α), In a < у < In b. (3.2.20) Кусочно-линейные преобразования. Рассмотрим несколько примеров кусочно-линейных преобразований, которые покажут, что в результате таких преобразований из непрерывной случайной величины можно получить непрерывную, дискретную или непрерывно-дискретную (смешанную) случайную величину η, Принцип определения плотности вероятности выходной величины подробно опишем на примере ограничителя (рис» 3<9), имеющего характеристику —b при ξ< — β, η = ;>(ξ)= s5 при —β <ξ<α, при ξ>α. (3.2.21) На интервале [—bf а] данное преобразование является линейным: у = sx, Поэтому в этом интервале т. е. плотность вероятности для η по виду совпадает с плотностью вероятности для |. Вероятности того, что η < —b или η > α, равны нулю. Все значения х, 314
для которых ξ > α. преобразуются ограничителем в одно значение ц = а (рис. 3.9). Аналогично все значения χ < —β преобразуются в значение у = — Ь. Следовательно, вероятности -β p1==J pl{x)dxt р2 = [ ρ, (дс)^лг (3.2.22) преобразуются для η в дельта-функции, расположенные соответственно в точках у = а и у = —6. Pz*(y+d) -ρ о Рис. 3.10. Квантование непрерывной случайной величины Рис. 3.9. Преобразование плотности вероятности ограничителем Следовательно, плотность вероятности случайной величины на выходе ограничителя можно записать Рп <0> в Ρξ (y,s^s + Pi6 (9 —<*) + ρ2δ (у + b), — ft < у < α (3.2.23) и Ρη (#) равна нулю при у < —& η у > а> Если на вход ограничителя воздействует непрерывная случайная величина ξ (например, нормальная — см. рис 3.9), то на выходе ограничителя в общем случае получится смешанная случайная величина η, которая принимает непрерывное множество значений в интервале t— b, а] и два дискретных значения у = —Ь, а соответственно g вероятностями р2 и Рь Очевидно, что для идеального несмещенного ограничителя, имеющего характеристику η=£(ξ) = —6 при ξ<0, 0, при ξ=0, at при ξ >0, (3.2.24) выходная величина η является дискретной g плотностью вероятности Pn ig) - Pfi (У - а) + р2 δ (у + Ь), (3.2.25) где вероятности ρχ и р2 определяются выражениями (22), в которых нужно положить α = β = 0. Пусть случайная величина ξ подвергается квантованию, причем нелинейная характеристика квантующего устройства лестничная (рис. 3.10): η = g (I) = "Δ, ηΑ < ξ < (η + 1)Δ, (3.2,26) где η — целое число и Δ — постоянный шаг квантования. 315
HXU Рис. 3.11. Нелинейное преобразование и плотности вероятности В результате квантования получится дискретная случайная величина η принимающая значения у = яД с вероятностями * Ρ{η=ηΔ}=Ρ(ηΔ<ξ<(Λ+1)Δ}=^((η + 1)Δ)—/?,(ηΔ), (3.2.27) где F| (χ) — функция распределения случайной величины ξ. Функция распределения F^ (у) имеет вид лестницы, высота ступенек в точках «Δ определяется выражением (27). Соответствующая плотность вероятно· сти представляет собой последовательность эквидистантных дельта-функций с сомножителями. (27). J Рассмотрим нелинейное преобразование (безынерционный двухполуперйодный линейный детектор — рис. ЗЛ1) Л =4 Si» (3.2.28) Очевидно, что значения η < 0 невозможны и поэтому ρη (у) = О при ц < 0. При η > 0 обратная функция имеет две ветви xt = у и лг„ = yt Воспользовавшись формулой (5), получим PX{(y)=3Pl(y)+Pl(—y)1 y>Q. (3.2.29) Характер плотности" вероятности рц (у) для случая, когда ξ — нормально распределенная случайная величина, показан на рис. 3.11. Для безынерционного однополупериодного линейного детектора с хаоак- теристикой ν η^(ξ)-Γς+|ξΙ)/2=ί I ПРИ \>0* (3.2.30) I 0 при ξ<0, ν ν/ вместо формулы (29) получим РХ](у)=^Ф)^(у)+Р1(у), у>0. (3.2.31) Преобразование заданной плотности вероятности в равномерную Рассмот- рим преобразование, представляющее практический ингерес. Пус?ь^пр^ ¥\ Р$) t 0 а, д у 316 Рис. 3.12. Преобразование заданной плотности вероятности β прямоугольную
случайная величина ξ с функцией распределения F* (х) подвергается преобразованию (рис. 3.12) η = а + (Ь — a)Fl (ξ), (3.2.32) где а и Ь — заданные значения. Убедимся, что в результате преобразования (32) непрерывная случайная величина ξ с заданной функцией распределения преобразуется в равномерно распределенную на интервале [а, Ь]. Действительно, для предельно возможных значений случайной величины ξ, равных —оо и оо, должны всегда выполняться равенства /ν (—<») = 0 и /ч (оо) = I. Тогда из (32) следует, что все возможные значения случайной величины η могут быть заключены .только в интервале [а, Ь\. Запишем формулу (2) в виде Ρη (ί/)=Ρξ (*) I dyfdx\-K (3.2.33) Из (32) имеем dy/dx = (b—a) F; (χ) = (& — α) /?ξ (лг). Подставив это выражение в (33), получим нужный результат (рис* 3.12) Ρη (У) = У(Ь — α), α < ^ < *, (3.2.34) Следовательно, всякая непрерывная плотность вероятности может быть преобразована в прямоугольную [16, 93]. На практике (при получении на ЦВМ случайных чисел с заданным законом распределения р^ (х) из равномерно распределенных случайных чисел ρ (у)} часто пользуются обратным преобразованием 1=Ρςχ «r\-a)/(b~a))t (3.2.35) где Fg"1 (x) — функция, обратная заданной функции распределения F^ (x). Такое преобразование в принципе всегда позволяет получить из равномерного распределения распределение с заданным законом р% (х). Например, если в (35) под F, {х) понимать функцию распределения гауссовской случайной величины (1.4.4), то преобразование (35) будет давать из равномерной плотности вероятности нормальную. Рассмотренный пример позволяет сделать следующий вывод: всякая непрерывная плотность вероятности (функция распределения) в принципе может быть преобразована в любую другую (в том числе и нормальную). Это можно сделать сразу или в два приема: сначала преобразовать исходную плотность вероятности в равномерную, а затем при помощи преобразования вида (35) равномерную в требуемую. Этот результат распространяется на совместные плотности вероятности (функции распределения) нескольких случайных величин [94]. Неоднозначные преобразования. До сих пор рассматривались нелинейные преобразования, однозначные по выходному процессу и неоднозначные по входному, т. е. такие преобразования у = g (дс), для которых неоднозначны только обратные функции xt = hf (у), i = I, 2, *.♦ Допустим, что нелинейное преобразование неоднозначно по входному процессу, т. е* одному значению χ может соответствовать несколько значений yt =» gt (χ) (рис. ЗЛЗ). Применительно к такому неоднозначному преобразованию на основании свойства инвариантности дифференциала вероятности (2), (5) можем написать P*l*)[p4lte)\gi(x)\+Pii(y)\ei(x)\· х>а> У>с=8(а)· Из этого соотношения невозможно однозначно определить плотность вероятности 0η (у) и, следовательно, в приведенной выше формулировке задача не имеет решения. Чтобы решение существовало, нужно доопределить характер работы соответствующего нелинейного устройства. Поясним это на частном примера нелинейного преобразования гистерезидного типа, когда преобразование являет- 317
ся двузначным как по входному, так и по выходному процессам (рис* 3.14). Ха «рактер работы нелинейного устройства определим следующим образом: g$(x) при — оо<х<д, g2 (χ) при а < χ < Ь9 χ' \χ=α > О, gi(x) при а<х<Ь, х' \xssb <0, g±(x) при 6<*<оо. $/=£(*) = (3.2.36) Рис. 3.13. Неоднозначное нелинейное преобразование по входному процессу Рис. 3.14. Нелинейное преобразование гистерезисного типа Преобразования g$ (x) и g4 (*) являются однозначными. Поэтому обратные функции χ = hs (у) и χ = Л4 (у) будут также однозначными, и по формуле (2) получим ( Р$ № (У)) \^(У)\> ί/ < £з Ф) * р*{х)Лн1ът\ът* у>*аь). (3'2'37) Поскольку на интервале [а, Ь] преобразование двузначно, то согласно формуле (5) можем написать (3.2.38) ΡΆ (У) dy =рх рг {хг) dXf +р2 ρξ (χ2) dx2. Здесь χι = hi (у) и *2 = Л2 (*/) — функции, обратные соответственно функциям £ι (*) и g2 (*); Pi и Р2 ~~ вероятности того, что работа осуществляется на ветви gi (χ) или g2 (x)t Согласно условиям, указанным в (36), для дифференцируемого случайного процесса ξ (t) вероятности pi и р2 равны: Ν" Р1 = ·(*» Л W+ (а, Г) Л/+ (а, Г) +Ν- (Ь,Т) ' И2 Ν+ (α, Τ) +Ν- ф9Т)9 (3.2.39) где Ν+(а, Т) — среднее число пересечений процессом ξ (/) уровня а снизу вверх в течение интервала времени Т; N-(b, Τ) — среднее число пересечений процессом ξ (t) уровня Ь сверху вниз в течение времени Τ [70]. Таким образом, для решения сформулированной задачи необходимо знать совместную плотность вероятности ρ (χ, χ') для дифференцируемого процесса ξ (/) и его производной I' (t) в совпадающие моменты времени. В том случае, когда дифференцируемый процесс ξ (/) стационарен, в выражения (39) вместо Ν± (с, Т) можно подставлять Νψ(с) — средние значения соответствующих пересечений в единицу времени. При этом для гауссовского стационарного процесса ξ (() получим [70] Ρι = Ντφ) РФ) Ν* (a)+Nt φ) ρ(α)+ρφ) Λ=" ΜΐΦ) NT (a)+N 7(b) 318
= Р№ (3.2.40) p(a)+p(b) y где ρ {χ) — нормальная плотность вероятности процесса ξ (/)* Правые части формул (40) можно рассматривать как результат предельного перехода при σ*, ^ 0. Поэтому они применимы и для недифференцируемого га- уссовского процесса. Применительно к нелинейному преобразованию, изображенному на рис. 3.15, получим ΡΆ (У) = (Ра + P2Pab)8{y) + (Рь + PiPdb)b(y — с), а Ь во где ра = I P(x)dx, Раь = ί P(x)dxt Рь = ί p(x)dx. — во а Ь Преобразование двумерных и многомерных плотностей вероятностей и моментов Рассмотрим функциональное преобразование двух случайных величин ξχ и ξ2 или ДВУХ отсчетных значений ξχ = ξ (ίχ) и ξ2 — ζ (^s) случайного процесса | (ί)· Пусть преобразованные случайные величины х\х и г]2 заданы выражениями ηι-ftib. δ.). 4·-Α(δι, δι). (3.2.41) Здесь g!Hg2 — заданные детерминированные функции, случайные величины \х и ξ2 принимают только вещественные значения хх и х2. Требуется найти совместную функцию распределения /^η, (УиУ2) и совместную плотность вероятности рЦ1щ(Уи У г) случайных величин % и η2 по известной совместной плотности вероятности р^\г (х1% х2) случайных величин ξχ и ξ2. Запишем сначала формальное выражение для функции распределения. Обозначим через sy область на плоскости хи х2% определяемую двумя неравенствами gi (*ι, *2) < Уи g2 (*ъ *2) < У* События {r]i < ух> ц2<.Уг} и {(ii, ^2) €sy} являются эквивалентными в том смысле, что осуществление одного из них влечет обязательное осуществление другого и наоборот. Поэтому вероятности этих событий равны: Ρ {ηχ < уи η2 < у2} = Ρ {(lu ξ2) £sy}, т. е. Fni щ {Уъ Уг) = J J Pi, u (χν χ2) dxi dxz* (3.2.42) sv Отметим, что область sy может оказаться многосвязной и поэтому фактическое вычисление интеграла (42) в общем случае является не простым. Получим теперь формулу для плотности вероятности рЦг^г (у1% у2). Определим маленькую область Asy на плоскости ххх2 неравенствами У ι < §ι (χι> х*) <У1+ аУи У г < ёч (*ъ *2) < У г + dy2. 319
Из такого определения элементарной области Asy следует, что два события {ух < %< ух + dyu у2<:Ч2<Уг + <1у2} и {(1и ξ2) € Ή> являются тождественными и вероятности их одинаковы: Ръгщ(У1, Уг)аух(1у2 = Р{yl<i'r\1<y1 + dy1, у2<Цг<Уг + <1у2} = = Ρ {&. h) € As,} = J J />ξι lt (xl9 xj dxx dxz. (3.2.43) As,. Предположим, что система из двух уравнений gi (*ι, *2) = ft, g2 (*ъ *«) = J ft 72 *s« :::шщ %. I Рис. 3.15. Двузначное нелинейное преобразование О Щ У1 Рис. 3.16. Случай двузначных обратных функций разрешена относительно хи х2 и при этом получены две пары решений <х\1\ *Ь1)) и (х\\ 42)): *<<> = /*</> (у1# у2)у χψ - fcjf) (л, */2), t ~ 1,2. (3.2.44) Рассмотрим две прямоугольные системы координат: хгх% и уху2 <рис. 3.16). При заданных значениях yt и #2 элементарной прямоугольной площадке dyxdy2 на плоскости угу2 будут соответствовать две разные элементарные площадки в виде параллелограммов; они определяются двумя решениями (44). Известно, что площадь i-ro параллелограмма равна dyxdyJlJtW.xWl / = l,2f где <?(*<", 4°) dx\l) dxV δχψ дх^ — якобиан преобразования переменных. Поэтому интеграл справа в (43) равен As /=1 320
Подставив это выражение в (43), имеем Ль η, (Уъ Уг) - Σ Л. Ь (*(Л *,°> I Л (*(Л 4л) Г1. - где в правой части нужно выразить х[*\ х%\ i — 1,2, через уг и у2 согласно* (44). При этом целесообразно сразу воспользоваться известным соотношением Поэтому окончательная формула примет вид Ль % (ί/ь Уг) - 2 Л* δ. (Λ(.0 (ft. У А >*</> (ft, №)) 1 /. ОД'\ </</>) I, (3.2.45) /=l где ШКуУ) д(4КхУ)_ dytdy* 3*ί° to. 02) tyi за*.0 (г/t. г/г) % М° to, г/г) й/г М° (г/i. г/2) дУг (3.2.46) Выше предполагалось, что обратные функции (44) двузначны. Если получается большее число обратных функций, т. е. i = 1, 2,..., я, то в правой части формулы (45) будет сумма не двух, а п аналогич ных слагаемых. Наоборот, если обратные функции однозначны, то в правой части формулы (45) должен быть только один член. Если же для некоторых значений (уи у2) нет вещественных решений, то для них следует полагать /?%гь (уъ у2) = 0. Приведем обобщение формулы (45) на многомерный случай. Принципиальное решение задачи о функциональных преобразованиях случайных величин и процессов в общем виде дается следующей теоремой. Пусть известна совместная /г-мерная плотность вероятности р% (xlt хъ ..., хп) случайных величин 119 ξ2» —э £п и нужно найти плотность вероятности /?η (уи у29 ...» Уп) для случайных величин ν\η—§п (fei> §2>···> fen)» (3.2.47) где функции gk, k = 1, я, — кусочно-непрерывные. Если существуют однозначные обратные функции &l=*Ai(%. Ή*···. η„), £2 = М%, η*—» η»), (3.2.48) 1п=йл(%, η2,.·., %), то интересующая нас плотность вероятности определяется формулой Рц(Уи ί/2»··Μ Уп)=Р$(Х1> *2>···> Xn)\Jn(Xl> *2,.··> ^n)l"1 = 11 Зак. 956 321
где Jn = Р% Φι(&...., Уп) К (ft,.··. Уп)) I К (&,.... 0п) I, якобиан преобразования переменных dh± dh± ЛЛ#ь···» У η) __ д (хх,..., хп) __ 001 fyi 0Уп 0ftn дУп (3.2.49) (3.2.50) В тех случаях, когда обратные функции hk неоднозначны, следует в правой части формулы (49) взять сумму по каждой из подобластей. Отметим, что число уравнений системы (47) может быть меньше ri. Пусть, например, имеется только m(m<n) первых уравнений, определяющих случайные величины T)lf...f r\m. Тогда обычно одним из простейших способов вводят дополнительно η — т вспомогательных случайных величин T)m+i,..., ηΛ (например, полагают r)m+1 = |т+1, ···, Цп " En)· После этого решают задачу указанным выше методом. Затем получают плотность вероятности т первых случайных величин Ήι, ···, Ήτη на основании свойства согласованности плотностей вероятностей (1.2.30), т. е. путем интегрирования плотности вероятности (49) по вспомогательным переменным. Укажем, что различные моменты преобразованных случайных величин т|1э η2,..·, У\п можно вычислить без предварительного определения их совместной плотности вероятности, а на основании формулы, являющейся обобщением формулы (1.3.1): Μ (η?* τβ·..# τ)>} = J ·»» Jgryi (xl9..m9 xn)... gln (xl9m..9 xn) χ X pi (хг, хъ♦.., xn) dxx dx2... dxn. (3,2.51) Заметим, что при применении формул (2), (45), (49) и (51) к практически интересным нелинейным функциональным преобразованиям могут возникнуть затруднения. Так, если функции gt являются полиномами выше третьей степени, то в общем случае трудно найти функции ht, т. е. аналитически разрешить систему нелинейных уравнений (47) относительно lt. Аналогичные трудности возникают при трансцендентных функциях gt. При кусочно-линейной аппроксимации функции gt обычно оказываются разрывными и производные dhildxh во многих типовых случаях оказываются равными бесконечности в некоторых точках. Более подробно эти случаи рассматриваются в § 3.4. В дальнейшем преимущественно будут рассматриваться различные характеристики совокупности двух случайных величин. В связи с этим приведем дополнительные сведения, относящиеся к этому случаю. Иногда бывает нужно найти плотность вероятности одной функции двух случайных величин lt и 1г: Яв*(Бь У- (3.2.52) Такую задачу можно решить двумя по существу эквивалентными способами: непосредственно и введением вспомогательной переменной. 322
Расссматривая непосредственно одно преобразование (52) и повторив о небольшими изменениями рассуждения, приведшие к формуле (45), получим Рп (У) — J J Ри ·, (*ι> *2) dxx dx2t (3.2.53) As где элементарная область интегрирования ksy на плоскости х1х% определяется неравенствами у ^g (хъ х2)<, У + d#. Введем вспомогательную случайную переменную tit = Ει (или г)2 = ξι). (3.2.54) Рассматривая совместно преобразования (52) и (54) как частный случай общего преобразования (41), сначала по формуле (45) находим совместную плотность вероятности /?ητΐ2 (у, у2) для случайных величин (П и η2, а затем интегрированием по у2 получаем плотность вероятности для η: σο Pn(i/) = J PrmAy,y2)dy2. ■— ОО Если обратная функция xL = ft (ί/, #2) = ft (ft ft) однозначна, то Апь (ft ft) = ft» &2 (А (у, ft), ft) Ι -|- Λ (ft ft) I и 00 Ρη (ί/) = J PS,e, (A (У. ί/a). ^) I -^-^ (У. ft) Ι <*</2. (3.2.55) — 00 Последняя формула позволяет найти плотности вероятности суммы, разности, произведения и частного двух случайных величин: оо Рц(У)~ $ РЪ1%ЛУ^Хг>Хг)аХ2, η = 1ι±1ϋ, (3.2.56) — 00 оо /М</)= J Λ·8.(-^-.^)-^. Ч-ЬЬ. (3.2.57) —· оо 00 Рп («/) -» J рь г* (ух* *2) I *г I dx* η=Ь/S·· (3.2.53) «—00 Для независимых случайных величин ^ и ξ2 g плотностями вероятности ръх (хг) и Ρξ2 (#2) в предыдущих формулах нужно положить Pit ξ2 (*ι> *«) = Ри (χι) Р\г М- При этом формула (55) примет вид 00 Рп (У) -» J PI» (А (У. ft» Pt* <&) I -^- Л <У» ^) | ^а· (3.2.59) II· ~°° 323
Соответственно упростятся формулы (56) — (58): оо Рч (У)β J Pit (У 4= *2) Pi, (x2) dx* Л = It ± Is. (3.2.60) — оо ее *.<?>= Jft,(-^)^.<*·)^. чвЬЬ, (3·2·6Ι> -*-0О оо /Mi/)"5' J PS,(y*i)ft.(J%)l*il^ П^УЬг. (3.2.62) — 00 В связи о этими формулами сделаем два отступления: 1. Формулы (60) — (62), а также некоторые дополнительные результаты можно получить методом рандомизации. Поясним это двумя примерами. При выводе формулы (Θ2) можно применить следующие рассуждения. Считая величину |а фиксированной и равной ха, для случайной величины η =» ljx2 записываем плотность вероятности р^х (ух2) \ х2 |. Рассматривая теперь параметр х2 как случайную величину с плотностью вероятности ρ δ, (дс2), приходим к плотности вероятности (62) для η - b/S,. Методом рандомизации можно воспользоваться для формирования плотностей вероятностей е различными аналитическими выражениями. Пусть ρ (χ\ λ) — плотность вероятности, зависящая от параметра λ, и ρ (λ) — некоторая, вообще говоря, произвольная плотность вероятности. Тогда функция Р(х)= J ρ(χ·Λ)ρ(λ)άλ (3.2.63) -— оо будет также плотностью вероятности. Если параметр λ принимает дискретные значения λΐ9 λ2,,.. с вероятностями рк = Р{% = Xh}t k = 1, 2, ...f то вместо (63) для плотности вероятности получим выражение Ρ(χ) = Σρ(*>Κ)Ρκ> (3.2.64) k которое иногда называют смесью (непрерывного а дискретного распределений) 112]. 2. Отыскивание плотности вероятности (закона распределения) суммы независимых случайных величин по изветным плотностям вероятности (законам распределения) влагаемых называется композицией плотностей вероятностей (законов распределения). Формула (60) показывает, что композиция двух плотностей вероятностей представляет собой интеграл свертки вида (2.3.61). При определении плотности вероятности суммы не двух, а большего числа независимых случайных величин фактическое вычисление последовательных интегралов свертки может оказаться кропотливым и трудоемким делом. В подобных случаях проще оперировать с характеристическими функциями. 324
Рассмотрим линейную сумму η независимых случайных величин ίη β axlt +а<&2 + ... + ап%п, (3.2.65) где al9 аъ ..., α^ — постоянные коэффициенты. Характеристическая функция этой суммы по определению равна Φζη № - Μ {ехр (№п)} =*Ф&, Q(h *)· · ·Φ|η (К Φ). (3.2.66) В частности, при аг = а2= ... = аЛ я 1 отсюда получим Фсп (JO) - Ф|, 0*) · · · ΦξΛ (J*). (3.2.67) а при выполнении дополнительного равенства Φ »4 0$) = Φ» (ίθ) β ΦςΛ0*) = Φ?(ί^)· (3.2.68) Следовательно, оо РЕ„ (У) = -^- J е-и* Φ? (JO) Λ>. (3.2.69) —■»00 Таким образом, характеристическая функция линейной суммы независимых случайных величин равна произведению характеристических функций отдельных слагаемых. При вычислении плотности вероятности суммы нескольких независимых случайных величин целесообразно сначала по формулам (66) — (68) найти характеристическую функцию суммы, а затем из обратного преобразования Фурье (69) получить плотность вероятности. Рассмотрим сумму случайного числа случайных величин С»- Σ Ь. (3.2.70) Здесь ξχ, ξ2»···ί £лэ··· — случайные величины и η — случайная величина, принимающая неотрицательные целочисленные значения 1, 2,..., не зависящая от ξΑ при k ^ η и такая, что Μ {η} < оо. Тогда для суммы (70) справедливы следующие формулы: 1) если все случайные величины ξ& имеют одинаковое математическое ожидание Μ {lh} = m^ то математическое ожидание суммы Μ{ζη}-/ηδΜΜ; (3.2.71) 2) если в дополнение случайные величины |ft не коррелированы и имеют одинаковую дисперсию Μ {(lh — ws)2} =D|,to , Μ {ζ£} = mf Μ {η2} + D| Μ {η}; (3.2.72) 3) если, кроме этого, случайные величины |ft с плотностями вероятности ρ ih (x) взаимонезависимы, то плотность вероятности суммы равна PuW-S^^^^^W· ^М^лЛ*)*-*^*)- (3·2·73) 325
Здесь p(k) (χ) — интеграл свертки плотностей вероятностей первых k случайных величин, являющийся обобщением интеграла вида (2.3.61). При доказательстве формул (71) — (73) воспользуемся методом рандомизации. Считая пока величину η фиксированной, очевидно, можно написать Здесь предпоследнее равенство написано на том основании, что случайные величины |ft при k ^ η не зависят от п. Осреднение этого равенства по случайной величине η приводит к формуле (71). Эту формулу, являющуюся частным результатом общего тождества Вальда, часто также называют тождеством или равенством Вальда 171]. Аналогично можем написать й= Σ Σ δ*δ« и м{И|л} = 2 2 MG*W. k=l m=l k=z\ m=l Двойная сумма содержит всего η2- влагаемых, из них η слагаемых с k = = т и п2 — η слагаемых прь к ψ. т. Поскольку Μ{ξ|} = D ξ + + т\ и Μ {£ь£т} «* mf при кФ m9io Ш{11\п}^ф1^т1)гГ^{п2—п)т\^01п+т1п2. Взяв математическое ожидание от обеих частей этого равенства по случайной величине п9 приходим к формуле (72). При выводе формулы (73) следует воспользоваться выражением (64), которое для нашего случая примет вид Pin(x) = Pin(x\n~l)p{n = V+-.<+Ptn(x\n = k)P{n = k} + ... (3.2.74) Распишем один из членов^ определяющих условную вероятность* Pljx | η «=* k) dx = P{x < |х + ..,+ lk<x + dx}. Так как слагаемыми являются независимые случайные величины 1Х..., ·.., Ък> то р {* < & + — + Ън < * + d*}β ft, (*)*ft* (*)*—*ftfc (*) d* ~ P(k) (*)dx* Подстановка этих выражений в (74) убеждает в справедливости формулы (73). Рассмотрим несколько примеров. Линейное преобразование двух случайных величин. Пусть % = aii + Ь12, <г)2 « elx + а\ъ (3.2.75) где at Ь, о, d — постоянные коэффициенты. Если определитель системы, составленный из этих коэффициентов, отличен от нуля, то система из двух линейных алгебраических уравнений уг = ах} + Ьхъ у.2 = схЛ + dx2 326
имеет однозначное решение *\ *= Wi + bty29 x2 - ег gi-l·^ у29 где коэффициенты аи Ьи оъ dx выражаются через а, Ь9 о, d. В данном случае якобиан преобразования переменных равен ο(χι,χ2) ι ad—bo. Поэтому формула (45) примет вид Pr\t^(yuy2) = \ad—bo\-1pilli(a1yl + biy29 olyt + d1y2). (3.2.76) Случай двузначных обратных функций. Предположим, что %=»+V!f+Il, η2 = 1ι/^ (3.2.77) При уг > О система из двух нелинейных алгебраических уравнений Vx\+x%=*ylf xjx2^y2 имеет два решения: 4й =УъуЛ1+у1)-Х12> *Ь1} -0i(i+ifl)-1/2; *ifl =-хГ, #} - -#\ Якобиан преобразования переменных равен На основании формулы (45) получим *»to*--i£rM-i*ftrTfcr)+ +й--(^ад--т^г)]"">°· <3·2·78> При ί/ι < 0 система не имеет вещественных решений и поэтому Рпл (Уг> У*) β °· Плотность вероятности наименьшей из двух случайных величин. Результады этого и следующего примеров будут использованы при расчете надежности систем. Вычислим функцию распределения и плот· ность вероятности случайной величины П = min (ξχ, ξ2). (3.2.79) Исходя из смысла задачи, для функции распределения можем написать — 00 \—OO — OO/ — oe> y—oo —oo / 327
= Fh (У)+A, (У)-Л. I. (У. У). (3·2·80) так как У У Pitt, (У* У)" J J Ρ δ. s.(*i>*k) dxrdx% = . οο ·»··» οο У сти *-oo -** 00 -—00 -—00 Дифференцируя третье равенство (80), находим плотность вероятно- 00 ОО Ρη (У) = J Pit ё, (У> *ώ dxt + J ριχ i2 (xu y) dxt. (3.2.81) У У Если случайные величины 1г и ξ2 независимы, т. е. р^ (хъ х2) =* *** Pli(*i) Pb (*2)> то формулы (80) и (81) примут следующий вид: Р* (У) = Рь (У) + ^i2 (if) -Рь (У) Pi, (У)> (3.2.82) Ρη (У) - Л, (0 U - Рь (У)] + Рь (У)11- Pi. (У)]· (3.2.83) Получим функцию распределения и плотность вероятности наибольшей из двух случайных величин: Ώ = max (ξχ, ξ2). (3.2.84) Аналогично предыдущему примеру записываем выражение для функции распределения Pn(y)=P{*\<y}=P{li<y\xi>U+P{t2<y\*2>ti} = V *1 У Хг ~ J dXl ί ^«.6.^»^^+ J d*2 J Λ.δ.(*ι»*ι)<&ι- s-»oo ~* 00 —00 «-00 У У Следовательно, Ръ{У)="Ры>(У>У). (3.2.85) Дифференцируя предыдущее выражение по у, получаем /М#)= | «■*,(». **)<&!+ J fti ξ,(*ι.^)^ι. (3.2.86) ta-OO Εέ9 ОО Для независимых случайных величин ξχ и ξ2 формулы (85) и (86) принимают вид РЛУ) = р1ЛУ)РъЛУ)> (3.2.87) Рл(У) = Р1г(у)р1ЛУ)+Р1ЛУ)Рь(У)- (3.2.88) 328
Расчет надежности систем· Полученные формулы позволяют рассчитывать надежность сиа^м, составленных из элементов с зависимыми отказами. Будем интерпретировать случайные величины lt и |2 как случайные времена отказов двух элементов 1 к 2$ начавших работать в момент времени *= О, В том случае ^(0 есть вероятность того, что элемент / откажет до момента времени tt a p^x(t)dt — вероятность того, что он откажет в интервале времени (t, t+ dt). Совместная функция распределения F** (tu i2) определяет совместную вероятность того, что элемент 1 откажет до момента времени tti а элемент 2 <— до момента времени t%. Сравним надежность систем, состоящих из двух элементов I и 2, при трех равных способах их соединения: оеновном (последовательном)» ревервном (параллельном) и дублирующем (рис» ЗЛ7). Обозначим через η случайное время 0 у «Г/ 0 у щ 0 у Щ Рис. 3.17. Три системы, состоящие из двух элементов, и соответствующие области интегрирования работы систем до отказа* В соответствии с определением основного и резервного объединения элементов в систему (с. 14), нетрудно прийти к заключению, что при основном соединении элементов η0 = min fa, ξ2), а при резервном ηρ = max (Ь, У- Здесь и в дальнейшем индекс указывает, к какому соединению элементов относится соответствующая величина* Работа третьей системы (дублирующее соединение элементов) осуществляется следующим образом. Пусть первый элемент начинает работать при t = 0. Если он откажет через промежуток времени %ъ то автоматически и мгновенно подключается второй элемент. Если отказ второго элемента наступит через интервал времени τ2 после его подключения, то время безотказной работы системы будет равно сумме τ = Tj + τ3. Следовательно, для третьей системы Функции распределения F^ (у), онределяющие вероятность того, что система откажет до момента времени t~ д§ для указанных трех систем определяются соответственно формулами (80), (85) и Fv <У) = 5 S P& и (*i« *t> d*x dx%. (3.2.89) е«оо ею Как следует из этих формул, функции распределения равны вероятностным массам в соответствующих областях (на рис. 3.17 они заштрихованы). Задав совместную плотноеть вероятности р^ или функцию распределения Fgig|, мoжнoj вычислить разные характеристики надежности систем. Рассмотрим частный случай, когда отказы элементов / и, 2 независимы и описываются простыми пуассоновскими потоками с параметрами интенсивности Аз и &2» Вероятность безотказной работы первой системы (при последовательном 329
соединении элементов) в течение времени Iопределяется формулой (1.1*22), Под· ставив в нее согласно (2.7.22) вероятности pt (t) *= exp (—-λ,- if), i = 1, 2, безотказной работы отдельных элементов в течение времени t, получим Ро (0 - exp [- (Xj + λ2)ί]. При этом среднее время безотказной работы mt системы до первого отказа равно 00 При λ3 = λ2 = λ эти выражения принимают вид ро(0=ехр (—2λ/), /ηίο=1/2λ. (3.2.90) По формуле (1.Ь23) находим вероятность безотказной работы второй системы (при резервном соединении элементов) рр (t) = exp (~ht) + exp (~λ20 — exp [—^ + X2)t], а также среднее время безотказной работы ^ίρ = (λ?+λιλ2+λ|)/λί λ2 (λί+λ2). При λί == λ2 == λ ети выражения упрощаются: ρρ(0 = [2—exp (—λ*)] exp (—λ/), m* -=3/2λ. (3.2.91) Плотность вероятности временных интервалов между соседними точками пуассоновского потока определяется формулой (2.7*44), Поэтому при дублирующем соединении элементов плотности вероятности случайных величин τ% и т2 — времен работы до отказа элементов 1 и 2 задаются выражениями Ρϊ (Ч) β ^1 exp (—λι%ύ, ρ2 (τ2) « λ2 exp (—λ2τ2). Плотность вероятности времени отказа третьей системы есть плотность вероятности суммы двух независимых случайных величин τχ и τ2ϊ она определяется формулой вида (60), ф« е. τ )=J Pi(*i Вероятность безотказной работы системы в течение времени t равна t рд (ί) = ι —J ρ (τ) <*τ«(λ2 ββλι ^λϊ β-λ» 0/(λι—Xt)t а среднее время безотказной работы При λι == λ2 = λ эти формулы принимают вид ρΗ(*)=(1+λ0βχρ (—λ*), т<д«2М. (3.2.92) Вероятности безотказной работы для трех систем, определяемые соответственно формулами (90), (91) и (92), изображены на рис* 3.18, Видно, что наименее надежной является первая система и наиболее надежной — третья* По среднему времени безотказной работы третья система лучше первой в четыре раза, а второй — в три* Разумеется, что такой результат справедлив лишь при наличии в третьей системе переключающего устройства g очень высокой надежностью* Если это не так и известна надежность переключающего устройства, то надежность третьей системы следует вычислять по формулам для смешанного соединения (с. 15). ЗЗР
Плотность вероятности модуля суммы (разности) двух случайных величии. Получим формулу для плотности вероятности случайной величины Рассмотрим предварительно вспомогательную случайную величину ξ = ii ± 12« Плотность вероятности ее оо р1 (х) = J ph 1г (χ Τ *2* χ2) dx2. α? ι ' Τ r t l -Ζ-1 012 « ^4 «с ■ *4 Рис. 3.19. Случайное блуждание частицы Рис. 3.18. Вероятности безотказной работы систем рис. 3.17 0,4 0,8 1fi 1fi Ζβ Zfi ZfiU Интересующая нас случайная величина η связана с \ равенством (28), и следовательно, ее плотность вероятности определяется формулой (29): ОО 00 Ρη (У) = J Р\ (У Ψ Ч> Ч) dx2 + J Pi (—У Τ *2> *2> d%2t У> 0. (3.2.94) fcsoo —oo Если |i и ξ2 — независимые величины, то оо Ρη fe)e J Ρξ2 (*2) [Ρδι (l/T ^ί + Ρξ, (—У Τ *2)] ^2· (3.2.95) «в* 00 Совокупность непрерывной и дискретной случайных величин. Вычислим плотность вероятности случайной величины η - 0,6 (1 + λ)αξι + 0,5 (1 - λ)*|2, (3.2.96) где ξ| и 12 — случайные величины о совместной плотностью вероятности Р|« (xf9 *a)j аи/>- постоянные, λ — дискретная случайная величина, принимающая два значения +1 и —I с вероятностями ρ и д = 1 — р. Заметим, что αξί с вероятностью р, с вероятностью <7== 1 -—р. Поэтому для условной плотности вероятности можем написать Ρ (#Ι*ι, *2> β Р% — 0*i) c+ <?% — 6*2)> Безусловная плотность вероятности будет равна Ρη&)= f J Ρ (# I *i> *2) Ρδι|, (^, *2) ^ϊ rf*2'=* SOB «SCO 00 00 J J [Ρ Hy—axu+qty—bXz)] phh (xu *2) dxt dx2. 331
97) Выполнив интегрирование с дельта-функцией, окончательно получим '00 ОО рч&)="и" ί p|,8s ^'fl* ^ dJCa+ТбТ J р^«^ <?*· у ι*> d**· (3·2 «900 Ив 00 Если случайные величины ξ| и ξ2 независимы, то эта формула упрощается: Pr\ <w- |fp^, <* ifl)+ "щ% to'w" <3,2'98) Результатами данного примера и примера 2.2*5 можно практически восполь- воваться для формирования случайных процессов с требуемыми одномерными плотностями вероятности и ваданными корреляционными функциями. Случайные блуждания. Пусть ξ^, ξ2» ♦·· — независимые случайные величи- ны, каждая из которых принимает два значения с вероятностями ри^= 1 — р* Пусть далее η независимая от ξ^ случайная величина, имеющая пуассоновское распределение с параметром λ, Покажем, что закон распределения случайной величины ζη« S Eft (3.2.99) определяется выражением Ρ {ln=m} = z-% (p/q)m/2 I|w| (2λ Vw"), (3.2.100) где /v (χ) — функция Бесселя v-го порядка от мнимого аргумента. Данную задачу можно рассматривать как частный пример теории случайных блужданий».Считая пока величину я (я > m) фиксированной, она допускает следующую интерпретацию* Пусть частица, имеющая возможность перемещаться вдоль оси χ (рис· 3*19), испытывает случайные толчки. В результате каждого толчка частица перемещается либо на единицу масштаба вправо (с вероятностью р), либо на единицу масштаба влево (с вероятностью q). Считается, что каждый из таких шагов происходит независимо от других. После я шагов частица, первоначально находящаяся в начале отсчета, может оказаться в одной из точек: —я, — я + 1, «««, —1, О, 1, *>*, я — 1, η» Найдем вероятность Ρ {ζη «= т) того, что после я шагов частица окажется в точке т* Обозначим через к число шагов, которые совершила частица вправо* Тогда число шагов, сделанных влево, равно к — т. Так как общее число шагов равно я, т. е* к + (к — т) — я, то число шагов, сделанных вправо должно быть равно (я + т)/2, а число шагов, сделанных влево, равно (я — т)/2. Так как порядок, в котором следуют друг за другом шаги в одном и другом направлениях, не играет роли, то вероятность такого события определяется биномиальным законом [70]: ρ {ζη = /η|Η}= С(п+т)/2р(п+т)/2 q(n^m)/2^ ft > m Безусловный закон распределения получаем отсюда осреднением по всем значениям случайной величины я > m: У ЬУряУ е«я ( , уп/2 V ЬУряТ |ίώβί(ιι+«)/2ϊ «я-т)/2] φ ν={ηΆ2=ο ν1 <ν+^ ' На основании соотношения (3.7*5) отсюда получаем (100), 332
Рассмотрим более общий пример* Пусть случайный процесс η (0 бадан выражением ·»(£) η»- Σ &· (3,2.101) Здесь glf м., In — невависимые случайные величины, имеющие одинаковую плотность вероятности р^ (х)\ η (ί) — целочисленный процесс Пуассона о параметром λ, не вависящий от ξηι Ρ {η (*) = m} = e~v (lf)m/m\t m«I,2«.#. Покажем, что характеристическая функция процесса η (f) дается формулой Φη(|θ; t) - ехр {λ* [Φ, (jo) — IJ), (3.2.102) где Φχ (j$) — характеристическая функция случайной величины Ё& Так как величины |ь независимы, то при фиквированном вначении п (0 — =» m согласно формуле (68) имеем ijexp ш 2 ε»)|-ΦΓα#). «| Путем осреднения по случайной величине п(/) получим Ф„ Ο'θί 0«Μ {ехр (]#*#))} = 2 ФГ (I*) p{" W-«}- ** 1 ве^( J ^ [λ' ФЙ^Г ю ехР {WfOi(j*)-lJ}. Гамма распределение. В § 2*7 было показано, что время tk появления £-го события в просюм пуассоновском потоке представляет собой сумму k независимых случайных величия с одинаковой показательной плотностью вероятности (2*7»46). Плотность вероя*1ности времени th, как композиция k показательных распределений определяется формулой (2.7.50). Эта формула есть частный случай гамма-распределения ρ (χ; α, ν)- a{<tX] . e*~aX> α > 0, ν > 0, 0 < a; < с», (3.2.103) оо где Г (ν) = f χν~~ιε~χάχ — гамма функция [90]. Можно показать, что начальный момент /ι-го порядка равен Μ{¥}**Γ(γ+η)/<χ"Γ(ν)—α-ην (v+1)... (v+n—1). (3.2.104) Нетрудно установить, что два определяющих параметра гамма-распределения α и ν определяются через математическое ожидание т^ и дисперсию D£: α-nig /^ . ν-*ι|/£>ξ . Если в (103) перейти к новой случайной величине η « £/~\/Щи учесть равенство οϊ]/θζ β Τ/ν· *° получим Г (V) 333
На рис» 3.20 приведены графики этой плотности вероятности для нескольких значений параметра ν* Плотность вероятности изменяется, от показательной (при ν = 1) до нормальной (при больших значениях ν). Укажем дополнительные свойства гамма-распределения (103). Воспользовавшись выражением характеристической функции ej** ρ (χ; α, ν) dx= (^Г^У * (3.2.106) нетрудно убедиться, что гамма-распределение обладает воспроизводящим свойством по второму параметру} если случайные величины lh i = 1, 2f ..*, kt неза- Рис. 3.20. Га мм а-распределение безразмерной случайной величины ί Ζ J 4 5 у висимы и каждая из них описывается соответственно своим гамма-распределением ρ (χχ α, Vi), то плотность вероятности суммы & + ».. + %k есть также гамма-распределение ρ (χ; α, Σν$). Отметим, что если случайная величина ξ, имеющая гамма-распределение (103), подвергается преобразованию η = In ξ, то плотность вероятности для η дается формулой М^ = ТТГ βΧΡ 1УУ—а^)> — °° <^< °°' (3.2.107) 3.3. ПРЕОБРАЗОВАНИЯ ГАУССОВСКИХ ПРОЦЕССОВ И ГАРМОНИЧЕСКИХ КОЛЕБАНИЙ СО СЛУЧАЙНЫМИ ПАРАМЕТРАМИ Рассмотрим конкретные примеры различных функциональных (безынерционных) преобразований гауссовских случайных процессов и некоторых гармонических колебаний, зависящих от случайных параметров. Линейное преобразование гауссовского процесса. Предположим, что в линейном преобразовании (3.2.75) случайные величины 1г и £а являются совместно гауссовскими и имеют нормальную плотность вероятности (1.4.21). Если расписать формулу (3.2.76) применительно к этому случаю и выполнить в ней громоздкие, но простые преобразования, то убедимся, что совместная плотность вероятности случайных 0,8 0,6 0,1 ,0,5 ζΛ 4 7 . 10 334
величин ηχ и у|2 является также нормальной, т. е. имеет вид (1.4.21) со следующими параметрами: Μ {%} = ат1 + Ьт2> Μ {η2} = ст1 + dm2, D4l« α2 D± + 62 D2 + 2а6г VlV^, (3.3.1) А,.=с2 Dt + d2 D2 + 2cdr VD^Di Μ {г)ю η2ο} = я<А + bdD2 + (ad + be) г УОгП29 где г— коэффициент корреляции (1.4.23). Предположим, что (П - li + δ.. (3.3.2) Из сформулированного выше утверждения следует, что случайная величина η, представляющая собой сумму двух совместно гауссовских случайных величин, является также гауссовской, т. е. имеет нормальную плотность вероятности с параметрами Μ {η} = щ + m2, A) = Dt + D2 + 2r VdxD2. (3.3.3) Говорят, что семейство нормальных плотностей вероятностей замкнуто относительно операции свертки (композиции) [12] или> иначе, семейство нормальных плотностей вероятностей обладает воспроизводящимся свойством при композиции [81. Г. Крамером доказано обратное положение: если две случайные величины ξχ и ξ2 независимы и их сумма ξχ + ξ2 нормально распределена, то каждая из величин ξχ и ξ2 является также нормально распределенной (гауссовской). По индукции этот результат обобщается на случай нескольких (больше чем двух) случайных величин. В связи с этой теоремой Крамера и линейными преобразованиями двух совместно гауссовских случайных величин уместно сделать следующие замечания. 1) Теорема Крамера несправедлива, если случайные величины зависимы. Приведем следующий пример. Пусть ξχ и ξ2 совместно гауссовские с плотностью вероятности р2 (xlt х2). Тогда случайная величина η = ξχ + ξ2 будет гауссовской. Добавим и вычтем в двух одинаковых кругах (рис. 3.21, а) небольшие одинаковые равномерно распределенные вероятностные массы, в результате чего получим новую плотность вероятности р2 (хъ х2). Обозначим случайные величины, имеющие эту плотность вероятности, через ζχ и ξ2. Ясно, что величины ξχ и"|2 не являются совместно гауссовскими и каждая из них в отдельности не будет иметь нормальную плотность вероятности. - Однако из рассмотрения рис* 3.21, а легко понять, что случайная величина η = ξχ +~|2 будет по-прежнему описываться нормальной плотностью вероятности. 2) Если каждая из двух случайных величин по отдельности гауссовская, но они не являются совместно гуассовскими, то их сумма не обязательно будет гауссовской случайной величиной. Приведем следующий контрпример. Пусть ξχ и £2 совместно гауссовские с плотностью вероятности р2 (х±9 х2). В результате прибавления и вычитания в четырех одинаковых симметрично расположенных кругах (рис. 3.21, б) одинаковых вероятностных масс получим новую плотность вероятности р2 (х%, x2)t Случайные величины 1^, ξ2, имеющие плотность вероятности 7>2 (*ь %2), по отдельности являются гауссовскими (см* с» 71), однако их сумма не будет гауссовской случайной величиной. 3) Можн£ построить та кие две случайные величины % и 12, что три случайные величины |1э |2 и ξχ + ξ2 по отдельности будут гауссовскими, хотя |ί и %2 не 335
будут совместно гауссовскими. Один из примеров такого построения поясняет рис. 3.21, в,' 4) Если линейная сумма η = α\ι + b\2 гауссовская при любых а и Ъ, то случайные величины lt и 12 совместно гауссовские. Примем ради простоты Ш {li} — Μ{ξ2) = 0, Дисперсия суммы равна ϋη ~ a2Dt + ЬЮ2 + +2abr~[/DiD2. Согласно (L4.2) запишем выражение характеристической функции гауссовской случайной величины η при 0*1: Φ (j)=M{e^} = exp Г |-(α2 Dt + Д» D2 +2abrV~DX D2 )1 = φ2 (ja, j*). Здесь последнее равенство, написанное на основании (1.4.22), показывает, что случайные величины lt и |2 являются совместно гауссовскими. Рис. 3.21. Частные случаи суммирования двух случайных величин: сумма негауссовских величин гауссова (а) сумма гауссовских случайных величин негауссова (б), три величины гауссовские, но две из них совместно негауссовские (в) Приведенный выше результат о сохранении свойства гауссовости при линейном преобразовании двух совместно гауссовских случайных величин обобщается на большее число совместно гауссовских случайных величин. Справедлива следующая теорема. Теорема. Пусть случайные величины Гц, η2, ..., ти, т < пу есть линейные функции от совместно гауссовских случайных величин fel» fe2> ···> fen· Til = gllh + gl2 £2 + ··. + glnlrtf (3.3.4) Tim = gmifei + gm2 £2 + ··· gmn in» где gth — произвольные постоянные вещественные коэффициенты. Тогда случайные величины аь т)2, ,.., у)т являются совместно гауссовскими. 336
Характеристическая функция η совместно гауссовских случайных величин It дается формулой (1.4.41): ф^О) = ехр (]т\ О—j <Н Ъг*\ . (3.3.5) Запишем линейное преобразование в матричной форме η = gl, (3.3.6) где η — матрица-столбец с элементами y|lf τ|2* ···» *\ml I —матрица- столбец с элементами ξχ, ξ2»···> SnJ g—матрица преобразования g элементами gu gn ··· gin §21 §22 ··· §2П S L·gml ёт2 ··· ётп ϋ Характеристическая функция преобразованной векторной случайной величины η по определению равна Φη (j*) = ΛΙ {ехр Л Jj #fc % Μ - Μ {ехр (j«T η)}, где # — матрица-столбец с элементами Фь Ф2»..., Ό1™· Учитывая, что г> есть линейное преобразование (6), можем написать Φη (j*>« м {^Ρ (jOT А)} = Ф| (JgT *), (3.3.7) так как (gTO)T = #Tg. Таким образом, из (5) и (7) получим совместную характеристическую функцию для m-мерного случайного вектора η. Φη(]0)= exp^mfg^-^-^gR^fl). (3.3.8) Эту характеристическую функцию можно выразить через математическое ожидание и корреляционную матрицу случайного вектора η. Из (6) следует, что ιπη = Μ {η} = gM {1} = gm|. (3.3.9) Обозначим корреляционную матрицу вектора η с элементами Rkl = = Μ {η^οΉ^ο} через Щ. Можно показать, что для преобразования (6) справедливо соотношение Rn = gR|gT. (З.ЗЛО) С учетом (9) и (10) формула (8) принимает окончательный вид: ΦηΟ^-βχρ^ηΐηθ-^^ΙΙ,*). (3.3.11) Равкрывая произведение матриц, получим запись совместной т-мер- ной характеристической функции случайных величин r\l9 x\2t ..., r\m [m mm Ί (3.3.12) 337
Последние две формулы показывают, что в результате линейных преобразований совместно гауссовских случайных величин (процессов) получаются также совместно гауссовские случайные величины (процессы). Оказывается справедливо и обратное утверждение [8]: если случайный вектор η гауссовский и если он представляет собой линейное преобразование случайного вектора ξ, то ξ должен быть тоже гауссов- ским случайным вектором. Таким образом, если случайный вектор η €сть результат линейного преобразования случайного вектора |, то вектор η является гауссовским случайным вектором, если и только если | — гауссовский случайный вектор. Чтобы случайный вектор являлся гауссовским, все возможные линейные комбинации его компонент должны быть гауссовским вектором [27]. Вероятность попадания в эллипс постоянной плотности. Пусть две совместно гауссовские случайные величины ξ·,, Е2 имеют нормальную двумерную плотность вероятности (1.4,21); Эта плотность вероятности имеет одинаковое значение во всех точках эллипса (1.4.28). Вычислим вероятность ρ (с) попадания случайной точки (|1? |2) ВНУТРЬ области s (с), ограниченной эллипсом (1.4.28). Очевидно, что Ρ (£)= I Jp2 (*i. *2) d*i dx2. s(c) Перейдем в этом интеграле к новым переменным й_й=га-_г_а=!ъ_, fc./jz?r-a=f5L. (3.з.13) σ, σ2 σ2 Якобиан преобразования переменных равен д{хъ х2)/д(у±> у2) = а1о2/"\/Г^~г\ Рассмотрим новые случайные величины % и η2, получаемые из. |j и ξ2 путем линейного преобразования (13). Ясно, что % и η2 являются совместно гаус- совскими случайными величинами, причем из (13) следует, что они не коррели- рованы, имеют нулевые математические ожидания и одинаковые дисперсии σ* = = <?η =1 — Λ Поэтому плотность вероятности для ηχ и η2 имеет вид л<ь. м- 2г;()_гг) ^р[-т7Г^)(у'+у4 (3-ЗЛ4) ζ эллипс переходит в окружность у\ + у\ = с2. На основании этого или же формально применяя формулы (3.2.49), можем написать У\+У\^г Переходя к полярным координатам #j = ρ cos φ, y2 = ρ sin φ, где 0 < φ < 2π, О < ρ < су получаем ρ (с) « 1 — exp [—с2/2 (1 — г2)]. (3.3.15) Преобразование (13) показывает, что две коррелированные случайные величины с помощью линейного преобразования всегда можно привести к некоррелированным. Отметим, что рассмотренный пример попадания двух совместно гауссовских случайных величин в эллипс равных вероятностей относится к одному из немногих случаев, когда требуемая вероятность вычисляется просто, В большинстве других случаев вычисления- оказываются более сложными» Так, например, вероятность попадания точки (%, η2) с плотностью вероятности (14) внутрь эллипса у\ + а2у\ = с2 определяется интегралом 338
1 Г Г (1+«2)р2 1 / 1_«а \ "мГ^Г.)ре,рГ ^(i-^J^l^a-^) Пар' <3-ЗЛ6> где I0 (*) — функция Бесселя нулевого порядка от мнимого аргумента, Интеграл (16) выражается через табулированную функцию Q (υ, и) [85]* Плотность вероятности произведения двух гауссовских величин. Вычислим плотность вероятности произведения двух совместно гауссовских коррелированных случайных величин ξχ и ξ2 с равными нулю математическими ожиданиями, Такая задача возникает, например, при анализе работы коррелометров. Полагая в формуле (1.4.21) т± = та =* 0 и воспользовавшись формулой (3*2*57), для плотности вероятности случайной величины η ■» ξχξ2 получим **-*Jn=? ярЬг<Ь>Ь * [·" [- ^йЬзг ('!+-|f)] -^ - где К0 (*) — функция Ганкеля нулевого порядка от мнимого аргумента* В двух частных случаях, когда совместно гауссовские случайные величины» независимы (г = 0) и когда они тождественны, т. е. η = αξ2, α > 0, формула (17) упрощается: ^)== J„ κ°(ν^τ)' <3-ЗЛ8> Ρη(</) = J_zr- exp (- -^r) , σχ=σ2=σ. (3.3.19) о у 2лау ч ' Плотность вероятности частного двух гауссовских величин. Пусть требуется вычислить плотность вероятности частного η = ξ2/£ι ДВУХ совместно гауссовских коррелированных случайных величин с нулевыми математическими ожиданиями. В данном случае по формуле (3.2.58) получим оо ΡΆ (У) = J Ρ|,ξ2 (*i>Ух1> I *i I rf*i = •tee OO И^Г} *1ехрГ27ь=7Г~ W* Г*1 = πσ^ ojte-ra./o^+o J(l-/·) Таким образом, отношение двух совместно гауссовских случайных величин с ну- левыми математическими ожиданиями имеет плотность вероятности Коши с максимумом (центром) в точке у = Γσ2/σχ. 339
Функция распределения, соответствующая плотности вероятности (20), равна рц (у) - J Ρη « d2 ~ Т+ Τ arctg *УГ=7г· (3·3·21) *β>00 Эта формула позволяет просто вычислить суммарные вероятности нахождения двуь совместно гаусеовских величин в каждом из четырех квадрантов плоскости κχκν Покажем (рис. 3*22), что Ρ {ξι> 0, ξ2 > 0}=P{U <0, ξ2 < 0}-—+-^. \ (3.3.22) где α «=* arcsiti г» —π/2 < α < ir/2. (3.3*23) Заметим, что при т% « п?2 « 0 плотность вероятности (L4.21) имеет оди· на ковы й вид в первом и третьем квадрантах· Поэтому для доказательства фор* мул (22) достаточно оокавать, что Ρ {li£8 < 0j « 1/2 — α/л. (3*3*24) Ясно, что 6s£2 < 0 тогда и Только чогда, когда η «* έ?/ξ| < 0* Следователь· но, ρ {hh< о)- я<U/b< 0}- #>{Ч< 0}. Полагая в (21) у « 0, имеем ^« ί0)*5 ΊΓ + — arctfr —, ■» -г-— — arcsin г. Отсюда следует формуле (24), которую также можно ваписать иначе: Ρ {Ыг < 0} — β / η, cos β «rt 0 < β < ст, β — n / 2 — α. (3.3.25) Формулы (22) показыпают, что при г £> 0 суммарная вероятность того, что случайные величины ξι и £2 однополярны, больше суммарной вероятности получения разнополярнык вначений величин ξι, |2 и наоборот: ^{6гЬ>0}>Р{&Ь<0} при г>0, | Ρ{ξιξ2>0}<Ρ{ξ1ξ2<0}πΡΗ г<0. }' (3'3,26) Этот результат можно наглядно пояснить ориентировкой ©ллипса постоянной вероятности (см. рис. 1.12)* Отметим, что если ii и |2 — совместно гауссовские случайные величины с нулевыми математическими ожиданиями и одинаковыми дисперсиями (of = «= о\ ■» с%)$ то при г 7Z 1 справедливо приближенное соотношение Ρ Uii-a) fe~«> < 0} ~ Ρ {|i ξ2 < 0} e~fl2'2*\ (3.3.27) Неравенства в левой и правой частях распадаются соответственно на два: 1) к > а, £2 <Щ 1%> 0, |2 *> °» 2) Ь < β> έ2 > «I St < 0, g2 > 0. Условие выполнения первою неравенства позволяет ваписать 340
Перейдя здесь к новым переменным щ «= щ — а, #2 « *2 — а, получим «о О —2^11/2 +^1+2 (1 —г) («2 +а^ +ау2) || <fyf Ж/2 ^ о 2πσ2 Ж J^i*»· При Гл: 1 вторым слагаемым в показателе экспоненты можно пренебречь по сравнению с первым, после чего получим Ρ (h > α, ξ2 < α} „ Ρ{|ι > 0, ξ, < 0} β~**/2σ* . Аналогичное соотношение справедливо и для второго неравенства, что и дока- вывает (27)» Получим плотность вероятности для случайной величины Φ = arctg (|2/ii), —π/2 < Φ < я/2, где ξι и ξ2 — независимые гауссовские случайные величины с равными нулю математическими ожиданиями и одинаковыми дисперсиями: р1А (*·*> -О/2"01) ехР f—(*i+*»/2°·]· Введем вспомогательную случайную величину η « ξ2^ι» Из формулы (20) при г = 0, σι ■=» σ2 *= σ для нее получим плотность вероятности рп (у) = « 1/π (1 + J/*). η Плотность вероятности для Φ = arctg η находим по формуле (3*2.2). Функция φ = arctg у при —π/2 < φ < π/2 имеет однозначную обратную функцию у = tg φ. Поскольку dtp/dy » cos2 φ, то согласно (3.2.2) находим ΡΦ(φ)=Ρη 0/)/cos* φ «1/π cos2 φ (l+tg2 φ)-1/π, |φ|< π/2. (3.3.28) Следовательно, случайная величина Ф распределена равномерно в интервале (—π/2, π/2). Распределение огибающей и фазы вектора с гауссовскими проекциями [44,95]. Пусть случайные величины ξχΗ ξ2 совместно гауссовские и имеют плотность вероятности (1.4.21). Рассмотрим нелинейное преобразование V = VW+U>°> e = arctg(Wii), — π<θ<π, (3.3.29) и найдем одномерные плотности вероятности для новых случайных величин V и Θ, причем случайная величина Vназвана огибающей, α θ — фазой векпгддау с проекциями Ех и ξ2 (рис 3.Ί23}7 На с. 69 указывалось, что если перейти κ новым переменным ϊΐι ^ ii cos α + Е2 sin αι Ih β £2 cos α — ξχ sin α, где α — так называемый корреляционный угол lg 2α *= 2го1о2/ }(pl — of), то случайные величины г\г и т|2 будут гауссовскими и независимыми: //, fI\— 1 РупГ (^l-mi)2 (^2~02 1 /ооолу ^(^)~1^г expL £р ioF-J"(8#Oe30) 341
Здесь Μ {%} s= m{ = mx cos oc + m2 sin α, Μ {%} = тг = m2 cos a —mj sin a, Μ Wo} = σ(2 = σ? cos2 α + σ| sin2 a+rax σ2 sin 2a, Μ {η!ο} = σ^2 = σΐ cos2 α + σί sin2 α—гог σ2 sin 2a. Преобразованию переменных соответствует поворот декартовой системы координат на такой угол а, при котором новые оси координат у± и у% совпадают с осями симметрии эллипса постоянной вероятности· щ-мро 1 <*, *2ι 0 L $ша*Г' 1 .<Ά 1 а Щ Рис. 3.22. . Суммарные вероятности нахождения двух совместно га· уссовских величин в каждом из квадрантов Рис. 3.23. Огибающая V и фаза θ случайного вектора Для получения плотности вероятности случайной огибающей V перейдем в (30) к полярным координатам V и Ψ согласно равенствам % = V cos Ψ, η2 = V sin Ψ, т. е. ^ = νηΓΡη1>0, ¥ = 0-a = arctg(%/%). При этом якобиан преобразования переменных равен J.i[o9 ψ) = = д (уъ Уъ)/д (ν, φ) = ό, и из (30) получим (pcosij?—m()2 (v sin φ—m^)2 Λ(ο»^)β- 2πσί o'2 exp [- 2σί 2σί ■].<3J ,3.31) Одномерная плотность вероятности ρ (ν) находится отсюда интегрированием по «лишнему» аргументу ψ: ^ 2πσ<σ£ J P[ 2σί' 2σί' Γ^ (3.3.32) Если воспользоваться разложениями [901 οο ехр (—acosφ) = Ι0(α) + 22 ( — l)nh(a)cosяср, rte=l exp (α cos φ) = Ι0 (α) + 2 2 Ι» (β) cos /ζφ, η=1 342
где Ιη (χ) — функции Бесселя η-го порядка от мнимого аргумента, то в (32) можно выполнить интегрирование и получить результат в виде бесконечного ряда [96]: *ΐ<-·"·4τ"(·^+-^)]4'(#+#)Ί>< Xcos(2narctg-44r)· (3·3·33) где 6о — 1 и6пв2 при η > 2, Общую формулу для плотности вероятности фазы θ можно получить из (1.4.21) при помощи переходи от декартовых координат к полярным ϊΐι == V cos θ, ria = V sin θ, о последующим интегрированием совместной плотности вероятности р2 (ν, θ) по ν в пределах от О до оо: ОО 00 η(θ)= [ p2(v,0)dv~ * ■ ft>expi ! χ PW J 2πσ1σ2Τ/ί-Γ2 J F\ 2(1—r») χ Γ (ρςο£θ—mtf pr (a cos 6—/τ?3) (psinG—ma) . (a gin g—m8)a 1) ^p L °ί σισ2 σ| JJ (3,3.34) В результате трудоемких вычислений получим ρ(θ)_ !—expf ! /J2if!L_i!l_^]T^Z^x μΚ } 2πσισ2 FL 2(1—r^) V ^σ2 σ· σ{ /J χ[1+2νπ!(θ)Φ(ν2Ι(θ))βχρΙ2(θ)]χ χ [σ^2 cos2 θ + σ~2 sin2 θ—(σχ Ca)-1 r sin 2Θ]-1, (3.3.35) где L(G)==f-^fcose + -^sin0 — (n^sine+macose)! χ L <Ч ο\ ого2 J χ[2(1— r2)(— cos26+ — sin2G ί_δίη2θ)1"Ι/2, Формулы (33) и (Зб) охватывают различные частные случаи, встречающиеся в теории распространения радиоволн через турбулентную среду и обычно применяемые для описания амплитудных и фазовых флюктуади^радиосигналов. Из них следуют известные частные результатьтг'Полагая ~т± = т2 ~^П5, ог — = σ2 *= σ, г = О (τ, е, m[ = m'2 «= О, σί « σ£ = σ, α = 0), получаем для огибающей плотность вероятности Релея, а для фазы равномерную плотность вероятности: ρ W--5Tехр (~ ·£?)> ϋ > °· ' ^-^Г» |θ|<π· <3·3·36) Если mi ^= 0, щфО, Oi «= σ2 « σ, г = 0 (т, е. mi = mt, m^ «= яъ,, ϋ{ « = aj « о, α = 0), то из (33) приходим к плотности вероятности Рейса: 343
ρ(ν)= — exp J- —-^— J Ι0 ^—j, m=V^f+^l, o > О, (3.3.37) а из (35) имеем θ 1_ / m2 \ m$ cos 6+m2 sin θ /mf cos 6+m2 sin θ \ Ρ()~2κ eXPV 2o2J 0у%Г Ι σ J* [m2—(m$ cos 0+m2 sin Θ)2 1 ~ g02 "J- (3.3.38) Полагая в (33) mj *= m2 «=* 0, Οϊ ^ σ2, r =£ 0 (т. е. т{*=* т'2*=* 0, σί ^fc σ£, α =£ 0), получим плотность вероятности Хойта: ' «-^г - [ - т> (-£+-^ )> [т ("^+ -£■)]· _· >»· (3.3.39) При этом плотность вероятности фазы согласно (35) будет иметь вид ρ (θ)« (ot/ojУГ=^ ί2π (cos2 θ+ -^ sin2 θ—2. r sin 2θ|~1. (3.3.40) При тг Φ 0, m2 — 0, oj ^ o2, r = 0 (mi = mit m'2 = 0, σ( = σ! =£ oj = σ2, α = 0) плотность вероятности (33) переходит в плотность вероятности Бекмана: ϋ ί ml l «/ ι Ml ' <°>-^г -»l-*t- τ "(.7+*)]x ■·2,<-"-«·4τ*(ν-ΐ)]4¥)·°>0· ,3·3-4" В данном случае плотность вероятности фазы равна Р (θ)== 2π [cos2 θ+(σ?/σ2) sin23f W βΧΡ L ~W?" + + —-)] [1+2 VTL (Θ) ф.(У"2 Ζ. (θ)) exp Ι2 (θ)], (3.3.42) где Ζ, (θ) = ?*—, cos θ ( cos2 θ + 4 *^ θ)-1'2. / <з{у2п . oi ' Распределения, порожденные гауссовскими случайными величинами. По* /лучим несколько распределений, которые порождаются гауссовскими случайны· ми величинами и часто встречаются в математической статистике 18, 97]* Ι» χ2—распределение* Пусть каждая из η взаимонезависимых гауссовских случайных величин |ь £2, .,., %п имеет нулевое'математическое ожидание M{{^} *0н одинаковую единичную дисперсию 2^ « 1. Рассмотрим случайную величину Χ2==Σ?=ι δ?· (3.3.43) Каждая из случайных величин Ц имеет одинаковую плотность вероятности (2яж)""1/2 ехр (—«/2), 0< χ <οο$ она является частным случаем гамма-распре· деления (3*2· 103) при α» ι/2, ν « 1/2. Соответствующая характеристическая функция согласно (3,2,106) равна (1 — 2]0)""!/2, Поэтому характеристическая функция суммы равна M{e**,}-(i-W*/*. (3.3.44) 344
Эта характеристическая функция является частным случаем (3.2.106) при а «■ ■» 1/2, ν = /г/2. Соответствующая плотность вероятности определяется формулой (3.2.103): Ргг (х; п) =- 1 2"/2Г(л/2) а функция распределения имеет вид χ2 θβ*/2, л=0, 1,..., 0<#<оо, (3.3.45) fy(*;n)-P {#<*}«- 1 2η/2 Γ (л/2) . f ^/2*1 • */2 <#, *>0. (3.3.46) О Ζ t 6 6 10 1Z П 16 16Х 0 Ζ 4 6 δ 10 Ш to 16 16 Χ Рис. 3.24. Плотность вероятности в функция распределения χ2 Видно, что плотность вероятности и функция распределения определяются одним параметром а, который называется числом степеней свободы %г-распределе- ния. На рие. 3.24 приведены графики плотностей вероятностей и функций распределения χ2. При η ^ 2 плотность вероятности постоянно убывает, а при η > 2 имеет единственный максимум в точке χ «* η — 2. В соответствии с центральной предельной теоремой с увеличением числа степеней свободы (числа ела· гаемых) η плотность вероятности стремится и нормальной. Подобно биномиальному распределению, распределению Пуассона и нормальному распределению х2-распределение воспроизводит себя при композиции. Если случайные величины χ£,..., %f независимы и описываются %2-распределе- / ниями. ρνί (*,·; Л;), то сумма Σ χ? распределена также по закону ργ8 (χ; 2яг). Пользуясь выражением для характеристической функции (44), по формуле (1.3.46) находим начальные моменты ть. — η (η + 2) ··· (η + 2k — 2). Первые четыре центральных момента равны щ » о, μ2 = 2л, μ$ = 8», μ4 = 48л + 12яа. Приведем некоторые обобщения ха-распределения. Пусть рауссовские случайные величины %lt §2, ..., in взаимно независимы, имеют нулевые математические ожидания и одинаковые дисперсии D случайная величина h D, i = l% 2t ...г л. Тогда буде1 иметь плотность вероятности р%% (*; п) (2D)n/2 Г (л/2) ^/2.1 е-д:/20г x>Qt (3.3.47) (3.3.48) 345
Из плотности вероятности (48) с помощью преобразования переменных нетрудно получить следующие плотности вероятности: р{х) У>"/2 y/s-> e~n*'2D , η =— У У. (3.3.49) Оя/2Г (л/2) n ίΤΐ *,)- -i Г'в-'W, η=(2'|'?)1/2· <3·3·50) (2ΰ)"/2Γ(/ι/2) Vi-» / p(*), 2/"/2)"/2 V-' e—V2D /_L V v Y". (3.3.51) £>п/2Г(«/2) V" ^, j Плотноеть вероятности (50) называют χ-равпределеяием в η степенями свободы. Пусть, например, компоненты oXt oy, vz скорости моленулы в прямоугольной системе координат независимы и нормально распределены с нулевым мате- матическим ожиданием и дивперсией D. Тогда екорость ό *■ j/^J + «2 + vl согласно формуле (50) имеет плотноеть вероятности Максвелла Если независимые гауесовские случайные величины ξ*, I = 1, η, имеют параметры Μ {ξ,·} ■» mi% Dt «■ D, f « 1, д, то плотность вероятности случайной ".2 величины χ2 =« Σ |{ определяется формулой где ρ (χ; α, ν) — гамма-распределение (3.2.103) и /n2 = m\ + ... + mj*. Это распределение называется нецентральным ^-распределением в η степенями свободы и параметром нецентральности λ = m2/D. Можно доказать, что нецентральное χ^-распределение обладает воспроизводящим свойством по параметрам η и λί если случайные величины х\и I ■» 1, k% независимы и имеют соответствен- но распределения ρχ2 (#г·; щ% λ^, *» it k% то еумма η = щ + ... -f tjft имеет нецентральное распределение р%* (у; sfelrtia Σ^λ^). 2. Распределение Отьюдента. Пусть /г + 1 случайных величин ξ, ξ{, .,., ξΛ независимы и нормально распределены все с нулевыми математическими ожиданиями и одинаковыми дисперсиями D. Найдем плотность вероятности случайной величины t ( \ п V/2 ζ η·η"(Τ^^] * (3·3'54) Применив формулу (3.2.62) и учтя, что плотность вероятности случайной величины η дается формулой (51), имеем оо оо С 2(п /2)п/ С Ρς (г) = УР (У) Pi № dy= ; ' ' — I #ft X ^ J ft ΐ/2π D<®+1)/2 Г(я/2) J xexp( —(n+z*)y*/2D)dg. 346
Подстановкой и — (η 4* z*)yV2D, du — (л + 22)^/D интеграл приводится к рамма-функции; в результате получим Лию—J \ * Чх+*Л ^ 1 / j^\-(«+i)/2 ТЛГВ (1/2, д/2) \ л / -(JI4-D/2 (3.3.55) где Β (ρ, q)~- бзта-функция [90]:< ι Плотность вероятности (55) известна под названием ^распределения Стьюден- та о η степенями свободы. #г\Щ -J ~Z Ч Q 1 Ζ J Z -* "J "2 Ч ΰ 1 Ζ Я Ζ Рис. 3.25. Плотность вероятности и функция ^-распределения Стьюдента На рис, 3.25 приведены плотность вероятности (55) и соответствующая функция распределения /^ (г; η) » Ρ {(· < 2}. Видно» что распределение не зависит от диспереии D исходных величин g и |^. Распределение унимодально и симметрично относительно г = 0. Моменты распределения ти при к <3 л конечны. В частности, математическое ожидание конечно при я > i, а дисперсия при η > 2. Вследствие симметричности распределения все существующие моменты нечетного порядка равны нулю. Дисперсия Dl - f г* J* fe η) Λ-«/(*— 2). «оо Для больших значений /г случайная величина ξ асимптотически нормально распределена о параметрами т^ = О, D^ » 1, что следует из выражения lim ρζ (-г; я)«(2я)чи|/2 ехр (—га/2). /2-»-00 Укажем, что если в (54) гауссовская случайная величина ξ имеет математическое ожидание т^фОи дисперсию D* то случайная величина ζ ** (ξ — m^j/q имеет распределение (55), а елучайная величины ξ « ξ/η — так называемое нецентральное ^распределение [97], 3. Распределения Джонсона J16, 98]. В математической ста- гистике при аппроксимации эмпирических распределений случайной величины I используют три типа распределений, получаемых путем различных преобра- 347
зований нормальной плотности вероятности. В общем случае они соответствуют преобразованию У — У ■+· бА {χ; μ, λ), о > 0, —оо < γ, μ < oot λ > 0. (3.3.56) Здесь h — монотонно возрастающая функция аргумента х; у, μ, λ — параметры распределения; η — гауссовекая нормированная случайная величина с нормальной плотностью вероятности Ρη0/)=(2πΓ1/2βχρ(--ί/ν2). Джонсон рассмотрел три семейства функций hi к (х; μ, λ) « In i (χ - μ)/λ1, χ > μ, (3.3.57) h2 (χ; μ, λ) — In ί (χ — μ)/ (λ + μ — χ)], μ < x < μ + λ, (3.3.58) Αβ (** μ» λ) в A*$n Ι (* — μ)/λ], —оо < χ < со. (3.3.59) Из (56) и (57) находим «»λ ехр ί (у — у)/б] -f μ. Применяя правило (3.2.2), получаем плотность вероятности р11х)ят(х-р)УЯ ехр{^Т62["^н"1п(дс^)]Т ν·-Υ-β1πλ· (3·3·60> χ > μ, δ > 0, —οο < γ* < οο, —οο < μ < οο. Видно, что вто ееть логарифмически нормальная плотность вероятности с тремя параметрами, называемая также семейством распределений SL Джонсона. Для функции, определяемой выражением (58), аналогично получим семейство распределений SB Джонсона, зависящее от четырех параметров: ъ<*>~w<^> J*»-*) ехр(-т[*+δι,"(4^)Π· (3·3·61) μ<*<μ + λ, δ>0, —οο<γ, μ<οο, λ>0. Преобразованию (59) соответствует четырехпараметрическое семейство распределений Sv: 6 1 Г 1 / (χ—μ ^(Ж)"У2л ν(,-μ)4^'Ρ1'Τίΐ+$"Ί~+ —οο < χ < οο, δ > О, —οο < γ, μ < οο, λ > 0. Кривые, соответствующие указанным распределениям, имеют весьма разнообразную форму. На рис. 3.26 показаны области использования трех перечисленных распределений в зависимости от значений β| и β2, которые были определены формулой (1.5.15) и выражаются соответственно через коэффициенты асимметрии и эксцесса. Распределений, для которых значения β} и р2 лежат вблизи линии SL, можно аппроксимировать логарифмически нормальным законом; распределения со значениями βι и β2, лежащими выше линии SL, можно представить семейством SB, а распределения со значениями βι и β3, расположенными ниже линии SL —· семейством распределений 8υ, Отметим, что в некоторых случаях целесообразно применять полигауссову* аппроксимацию плотностей вероятностей, т. е. представлять интересующие Had плотности вероятности взвешенной суммой нормальных плотностей вероятно! стей с надлежащим образом подобранными параметрами [99]. %; 4. Другие распределения. С законом χ2 связаны следующие распределения, часто встречающиеся в статистике. Пусть |χ и ξ2 независимы rf имеют х2-распределения ρχ2 (*$; п±) и /?χ2 (χ2\ п2). Тогда можно получить следующие плотности вероятности: 348
ρ (χ; nt$ д£)« Γ(<1*±2ήχ (/|t/2)-t r\=*-~~ # 0<л?<оо, (3,3.63) &2 P{x\nt%uutM* ρ (χ; /2|#яа) = 3(Лц/2, п2/2) (*ίΜ2)"ί/2 (1 -Ьлгл1/ла></,*^-в«>/2 0<#<оо; е*' * ' (l+e2*rtiM2)(n*+'I*)/2 0<*<оо; (3.3.64) (3.3.65) ттичесная ооластьл Рис. 3.26. Диаграмма различных распределений Джонсона ρ(χ; «ι» Ч)' 1 . ^(rtt/2)-* 4я" Ь+5> 0<*<1, (3.3.66) Плотность вероятности (64) получена из (63) путем перехода к новой случайной величине η « (njnt)^t а (65) — из (64) путем перехода от η к I » In η. Ρавпределение (84) называется распределением дите районного отношения Фишера, (65) — г-раепределени«м Фишера и (вв) — бэта-ралпредетнаем. Отметим, что бэта-распределение распространяется на случаи, когда щ в п2 — нецелые числа. С этой целью укажем другой способ его получения. Пусть независимые случайные величины £t и \% имеют соответственно гамма распределения р(х& ос, vt) β ρ (хг\ α, ν2), определенные формулой (3.2.103). Тогда, плотность вероятности огношения η =» \tl (ξ| -f ξ9) есть бэ га-распределение: P(*iVi.v2)=—z~-λΛ'*1 (1-«)ν·-|,0<χ<1. Отвлекаясь от конкретных способов получения бэта-распределения, запишем его в общем виде Р(х; Υ*δ)=£-ΐ'(ν, δ)Α?νββΙ (Ι—*)6"1, 0<лг<1. (3.3.67) Начальный момент k-vo порядка равен тк _ В (А + ?, б)/Я (γ, δ), (3.3.68) гаи что та « γ/ (γ + β), Ζ^ - νδ7 (ν + δ2ϊ(Υ + β + tt Если % κ η* независимы и имеют бэта-распределения с параметрами (уи $i) и (γ2, $з)> то их произведение ξ = щг\2 также имеет бэта-распределение о параметрами \уи б| + ба|, если γι ■· γ2 τ δ*· в общем случае произведение η величин, имеющих бэта-распределения α параметрами fa, δ|), ..., (γΛ| δΛ), такими 349
что γ$ = Vi+i + 6/+f, i β 1, *..., it — 1, есть также бэта-распределение с параметрами (γΛ, δ| + ... + 6W)· Плотность вероятности гармонического колебания со случайной начальной фазой. Рассмотрим ансамбль синусоидальных колебаний, имеющих одинаковую амплитуду А0 и частоту со0, но "случайные начальные фазы (см. рис. 2.15) s(t)=g (Ψ) = А0 sin (ω0* + φ), Α0 > 0. (3.3.69) Предполагая известной плотность вероятности ρφ(φ) для φ, нужно найти плотность вероятности ps (x) для случайной величины s в некоторый фиксированный момент времени t. Рис. 3.27. Гармонический сигнал со случайной начальной фазой (а) и плавная плотность вероятности (б) Особенность данного примера состоит в том, что при | s (t) | <С Л0 уравнение χ = А0 sin (ω0ί + φ) (3.3 JO) относительно φ имеет бесконечное число решений (рис. 3.27, α) φη — = arcsin (x/A0) — ω0ί, η = ..., — 1, 0, 1, .... Так как g' (φη) — =* Α ο cos (ω0ί + Фп) = Ио—s2)1/g, то по формуле типа (3.2.5) получим рЛ*)*^-*1)-1'2 2 МФ»),М<А>. (3.3.71) При \s\ > А0 уравнение (70) не имеет решений и поэтому р8 (х) = 0. Рассмотрим частный случай, когда случайная начальная фаза распределена равномерно в интервале (— π, π), как показано на рис. 3.28: ρφ (φ) = 1/2 π, Ι φ Κ π. (3.3.72) В данном случае уравнение (70) в интервале (— π, π) имеет только два решения, причем для каждого из них /?φ (φ) = 1/2π. Поэтому формула (71) принимает вид р8 (х) = 1 /пА0У\-(х/А0)\ \х\<А0. (3.3.73) Функция распределения, соответствующая этой плотности вероятности, равна Ps (*) = — + — arcsin (χ/ Д), \х\<А0. (3.3.74) 2 зх 350
Плотность вероятности и функция распределения изображены на рис. 3.28. Предположим теперь, что плотность вероятности случайной фазы является очень медленно изменяющейся функцией, так что ее можно считать почти постоянной в любом интервале длиной 2π (рис. 3.27, б). Учитывая наличие в каждом из таких интервалов только двух решений, на основании условия нормировки можем написать приближенное равенство π 2 Ρφ(Φη)^ J Λ>(φ)^φ«ΐ· Ρφ(ψ) -% ι/ζπ α) % Ψ Рис. 3.28. Равномерная плотность вероятности фазы (α), плотность вероятности гармонического сигнала (б) в его функция распределения (в) При этом формула (71) перейдет в (73). Следовательно, при сделанном предположении плотность вероятности сигнала со случайной фазой оказывается приближенно такой же, как и для сигнала со случайной и равномерно распределенной в интервале (— π, π) фазой. Этот результат применим к радиосигналу s(t)=A0$in(u0(t—τ), постоянная частота которого е>0 достаточно велика, а временной сдвиг τ есть случайная величина с ограниченной плотностью вероятности. При большой частоте плотность вероятности случайной величины щъг получаемая из плотности вероятности для τ путем увеличения масштаба, т. е. по формуле вида( (3.2.9), по- видимому, будет удовлетворять нашему предположению. Поэтому такой радиосигнал будет иметь приближенно ту же плотность вероятности, что и сигнал (69). Формула (73) останется приближенно справедливой и в том случае, когда фаза φ сигнала (69) представляет собой сумму достаточно большого числа η независимых случайных величин ξ& о ограниченными, но, вообще говоря, произвольными плотностями вероятности, поскольку плотность вероятности для φ, получаемая в результате композиции большого числа индивидуальных плотностей ρ* (*), будет сглаженной и достаточно «широкой». Плотности вероятности (73) соответствует характеристическая функция Φ (j #; t) = Μ {ехр ИОД, sin (ω0 / + φ)]} = π =—ί— Γ ехр []ϋΑ0 sin (ω0 t + φ)] άφ = J0 (4,0), (3.3.75) 2π J где J0 (χ) — функция Бесселя нулевого порядка. 351
Рассматривая два момента времени tx и t2f получим выражение для двумерной характеристической функции гармонического сигнала со случайной и равномерно распределенной фазой: Фг QK Jfl* tv h)β Μ {exp []*!Л0 sin (ω0 ^ + φ) + + JMosin(co0*2+<P)]}== π = — f exp []Л0 "I/ft?+^ + 20^2 cos ω0* sin (φ + χ)] άφ = 2π J = J0 (Л0 Vdf+ *J+ 2*!*, cosw0t), τ = /2—^. (3.3.76) Подставим эту характеристическую функцию в обратное преобразование Фурье и воспользуемся теоремой сложения для бесселевых функций J0 (А0УЩ + П + 2*! % cos ω0 χ) = - 2 (—1)от € » Jm (Λ *ι) «fm (ΑΑ) cos /ηω0τ, где 6m — 1 при m = 0 и 6m = 2 при m > 1. Тогда после преобразований получим двумерную плотность вероятности рассматриваемого гармонического сигнала м*1,*2)=(яЛ)-22 €η,ψΓ(τ;)ψΓ(τ0)<:ο5,ηω»τ· <3·3·77) Функции Ψ^ (*) являются m-ой производной от ψ (χ\— ^^ Μ Л'"-1/2 TmW (2m-i)l!11 X) и связаны с полиномами Чебышева первого рода Тт (х) соотношением Формулы (76) и (77) часто используются в корреляционной теории при анализе функциональных преобразований суммы гармонического сигнала и гауссовского шума. Плотность вероятности радиосигнала со случайными амплитудой и фазой. Найдем одномерную плотность вероятности для случайного радиосигнала s (0 = А (0 cos Ш + φ (<)], A (t) > 0, (3.3.78) у которого «амплитуда» A (t) и фаза φ (t) являются случайными процессами. При этом сразу сделаем предположение, что как сигнал s (t), так и его амплитуда считаются стационарными относительно своих одномерных плотностей вероятностей (они не зависят от времени). По определению характеристическая функция сигнала s (t) для некоторого фиксированного момента времени равна ф (j#; t) = Μ {exp [jfl> A cos (ω0< + φ)1}. 352
Вероятностное осреднение в правой части должно производиться по двум случайным величинам Л и φ, взятым в один и тот же момент времени. Запишем совместную плотность вероятности этих величин в виде Ρ (Α, φ) = рА (Α) ρ (ψ \ А) и воспользуемся известным разложением ехр [\ЪА cos (ω0 / + φ)] = 2 j* Jh (Αϋ) e^ <ω» '+φ>. Теперь можем написать Φ (jd; 0-2 J* J Jh (АЪ) рл (A)dA Г e'* <«· <+ φ) ρ (φ | Α) ώρ. Для стационарного процесса s(i) характеристическая функция <D(jG; /) не должна зависеть от времени f. Одним из простейших и очевидных условий, гарантирующих эту независимость, является принятие следующего допущения: в один и тот же момент времени фаза φ (t) считается независимой от амплитуды A (t) и равномерно распределенной в интервале длиной 2π, τ. е. ρ (φ Ι Α) = ρφ (φ) = 1/2π, | φ|< л. (3.3.79) При этом характеристическая функция принимает провтой вид Ф№ = J4 И*) Рд Μ) Λ« -J ^ Λ (АН) AdA, (3.3.80) т. е. представляет собой преобразование Ганкеля нулевого порядка от функции рл (А)/А. Обращение этого преобразования дает Ра (А) = Г Φ (ft) J0 (Л#) МЪ. (3.3.81) о Зная характеристическую функцию, находим одномерную плотность вероятности сигнала s (t): оо оо р3 (χ) = -L· Г e-i«* Φ (jO) Λ> = f /м (Л) <f Л Χ — оо О χ — f е-Л*Л(ЛФ)Л>-— Г Рд ( dx. (3.3.82) Если в этой формуле перейти к новой переменной интегрирования у, положив А = \х\ chy, то получим оо А (х)="i" ί рл (| х'Gh 9) ^' (3'3,83) 12 Зак. 956 353
Заметим, что формула (81) совпадает с (2.3.58), а формула (82) — с (2.3.57), хотя они получены при несколько различных исходных предпосылках. Следовательно, при выполнении указанных выше условий плотность вероятности радиосигнала вида (78) будет одинаковой как в случае постоянной частоты ω, так и при случайной частоте с четной плотностью вероятности ρω (ω) = ρω (— ω). Формулы (81) — (83) устанавливают однозначную связь между плотностями вероятности самого случайного радиосигнала и его амплитуды. Однако необходимо иметь в виду, что они справедливы лишь при стационарности сигнала и его амплитуды относительно одномерных плотностей вероятностей и выполнении условия (79). Приведем несколько конкретных примеров. В том частном случае, когда амплитуда сигнала фиксирована, т. е. рА (А) = δ (А — Л0), формула (82) переходит в (73). Во многих практических случаях амплитуду сигнала (78) принимают распределенной по закону Релея: рА (А) = (AID) ехр (—Л2/20), А > 0. (3.3 84) В данном случае формула (83) дает нормальную плотность вероятности сигнала р$ (χ) = (2πΟ)-1 /2 схр (—*2/2D). Следовательно, если в сигнале (78) амплитуда и фаза независимы в один и тот же момент времени, причем амплитуда распределена по закону Релея, а фаза — равномерно в интервале (—π, π), то случайный сигнал имеет нормальную плотность вероятности с нулевым математическим ожиданием и дисперсией D. Наоборот, если случайный сигнал имеет такую нормальную плотность вероятности, то при других оговоренных условиях амплитуда сигнала будет распределена по закону. Релея (84). Воспользовавшись формулой (83), можно показать, что если .в сигнале (78) случайные величины A (t) и φ (t) независимы, причем фаза φ имеет равномерное распределение (79), а амплитуда А — нормальное с нулевым математическим ожиданием и дисперсией D, то плотность вероятности сигнала (78) имеет вид '-w- пуш 4^r)exp(-izr)· (3·3·85) где К0 (х) — функция Ганкеля нулевого порядка от мнимого аргумента. Плотность вероятности суммы гармонического сигнала со случайной начальной фазой и гауссовского шума. Вычислим одномерную плотность вероятности суммы двух независимых случайных процессов: гармонического колебания s (t) = А0 cos (ω0ί + φ) с равномерно распределенной начальной фазой (72) и гауссовского стационарного шума ξ (t) с нулевым математическим ожиданием: η (t) = ξ (0 + s (<). (3.3.86) При некотором фиксированном моменте времени совместная плотность вероятности для ξ (/) и s (t) ввиду их независимости равна произведении) их одномерных плотностей вероятностей: Ρ (*, s) = Λ (χ) р8 (s) = — 1 е-*1/**., I s | < A0. nV 2nD(A*—s*) 354
По формуле (3.2.60) можем написать А» ds. Введем новую переменную интегрирования сопасно равенству 5 = Л0 cos ψ, ds= —A0 sin ψ, di|> = — VAQ— s2 Λψ, 0 < ψ ^ π. _ыя -ί 10 -' α5# 5ν -^ 2ν 1 4 J £ Ж 1 I I a-A0W г 1 ' * ζ Рис. 3,29. Плотность вероятности суммы гармонического сигнала со случайной начальной фазой а гаус- совского шума Тогда получим π />„(£)» J=fexp[- πΚ2π£> J L Ί (у—А> cos г|?)2 2D ldl|>* Если ввести безразмерную случайную величину ζ = x\lVD и обозначить через а = A0/D1'2 величину, характеризующую отношение сигнал-шум по напряжению, то придем к окончательной формуле тг рй (ζ) = X-z=r Г ехр ί—γ (г—a cos ψ)21 dty = о Кал А а*« ^ 2 2 J где ir1(«;v;«-i+ y · ι+ν(ν+ΐ)· я"1" γ(γ+ΐ)(γ+2) 31 "г··· (3.3.88) — вырожденная гипергеометрическая функция. Графики плотности вероятности (87) для нескольких значений параметра а приведены на рис. 3.29. 19* 355
3.4. ПОЛИНОМИАЛЬНЫЕ И КУСОЧНО-РАЗРЫВНЫЕ ПРЕОБРАЗОВАНИЯ Полиномиальные преобразования [104] Пусть характеристика нелинейного элемента η (t) = g (ξ (t)) является аналитической функцией в окрестности некоторой точки с. Тогда ее можно разложить в ряд Тейлора: (3.4.1) Число членов, которые необходимо учитывать, определяется необходимой точностью аппроксимации. Обозначим начальные моментные функции процесса ξ (t) через m, а процесса η (/) через т. Вероятностно осреднив левую и правую части равенства (1), получим ml(t) = M{4(t)} = mri(t) = a0+a1M{[l(t)~c]} + ...+aM (3.4.2) Перемножив левые и правые части равенств (1) для двух моментов времени it и t2 и выполнив операцию вероятностного осреднения, найдем выражение для ковариационной функции: К* (h, ί2) = Щл (*ъ h) = Μ {η (*χ)η (t2)} = α\ + од [ml(tl) + + Щ (t*) — 2d + a\ [mia (tlt t2) — cmx (/x) — ст± (t2) + g*-\ + ... + + a\ Μ {Ιξ (tx) — с)" [I (t2) - d"}. (3.4.3) Аналогично записываются выражения для высших моментных функций. Для получения выражения моментных функций выходного процесса η (/) в явном виде через моментные функции входного процесса ξ (t) нужно воспользоваться формулой бинома Ньютона <*-"*-Σ гпгЬп1*-''· раскрыть члены вида IS (М — ^ И (У — cV [ξ (/8) — сГ ..., κ, Ι, m, .... < η и затем выполнить вероятностное осреднение. При этом если процесс ξ (/) задан своими моментными функциями, то сразу получаем нужный результат. Если же процесс ξ (t) задан плотностями вероятности или характеристическими функциями, то по ним необходимо предварительно вычислить моментные функции. Для гауссовских процессов моментные функции находятся сравнительно просто, например, по формулам (1.4.45). Из формул (2) и (3) видно, что моментные функции процесса η (t) линейно выражаются через моментные функции процесса ξ (/), однако формулы для моментных функций выходного-процесса включают более сложные моментные функции входного процесса. В этом состоит 356
одна из характерных особенностей любого нелинейного преобразования (в том числе и полиномиального) по сравнению с линейным. Приведем два примера. Пример 3.4.1. Трансформация спектра при нелинейном преобразовании. На нелинейный элемент с параболической характеристикой У β g (*) = <hx + Я2*2 воздействует сумма сигнала s (t) и не зависимого от него шума ξ (ή. Сигналом является гармоническое колебание s (/) = А9 cos (ωδί + φ) с постоянной амплитудой А0 и частотой ω$ и случайной начальной фазой φ, равномерно распределенной в интервале [—rt, π]. Стационарный гауссовский шум ξ (/) имеет нулевое математическое ожидание и корреляционную функцию #& (τ) = == 0| ехр (—α|τ|) cos ω0τ, ω0 < ω6. Нужно найти спектральную плотность $η (f) процесса η (О на выходе нелинейного элемента. Запишем явное выражение для выходного процесса η (О = at Is (t) + ξ (01 + a2 [s (/) + ξ (flp. (3.4.4) Отсюда по известным правилам находим математическое ожидание и ковариационную функцию: ™η=Μ {η (01 = 02(^/2+0^ . ΚΆ (τ) »Μ {η (0 η (/ +τ)} «щ« +_ α? Аг cos ω, τ+α? /?ξ (τ) + +— a%Alzos2(usx+2a% Al #ξ(τ) cos<DsT+2af tf| (τ). (3.4.5) Одностороннюю спектральную плотность процесса на выходе нелинейного элемента находим по формуле (2.3.26); Si(/)=4 ι** (x)cos(2;rt/T)dT. Подставив сюда выражение ковариационной функции (5) с заданной функцией #1 (τ) и выполнив интегрирование, получим SJ (/) - γ «\ ΑΙ δ (f-h) +~ al Α* δ (/-2f8) +2af D6 ^J^.^ + 2a 2+4д2 (/-/5+/о)Г+ а*+4л* (/_/ς_/ο)2 J* <3·4·6) ;2+π2/2 ^α2^π2 a «40 &9-Щ) щ щ ц f Рис. 3.30. Дискретно-сплошной спектр 357
Характер спектра 5 + (/).при α < ω0 показан на рис. 3.30. Спектр является дискретно-сплошным. Он состоит из трех дискре1ных спектральных линий на частотах / = 0, /$ и 2/s; две последние обусловлены только сигналом (первая строка в формуле (6)), трех сплошных составляющих спектра, обусловленных только шумом (вторая строка), и двух сплошных составляющих спектра (два последних слагаемых), обусловленных взаимодействием сигнала и шума в результате нелинейного преобразования. Если бы преобразование было линейным (а2 « 0), то из формулы (6) следовал бы очевидный результат: спектральная плотность суммы сигнала и независимого шума равна сумме их спектральных плотностей. Укажем, что для выяснения качественного характера спектральной плотности часто бывает полезно предварительно проанализировать характер спектра применительно к гармоническим колебаниям (в рассмотренном примере применительно к сумме двух гармонических колебаний с частотами ωθ и ω0). чм щопалосный фильтр K(j2xf) η(ί) Шдратичныа Оетептор 5(thayz(t) W Интегратор T(t) Рис. 3.31. Схема простейшего радиометра Пример 3.4.2. Чувствительность радиометра. Вычислим чувствительность простейшего радиометра (рис. 3.31), состоящего из идеального узкополосного линейного фильтра, квадратичного элемента (детектора) и интегратора. Амплитудно-частотная характеристика узкополосного фильтра показана на рис. 3.32, а\ полоса пропускания фильтра Δ/ много меньше центральной частоты /0 (Δ/ < /0). На вход фильтра воздействует гауссовский стационарный случайный процесс ξ (0 с нулевым математическим ожиданием (т^ = 0) и непрерывной спектральной плотностью 5| (f)f которую в пределах полосы Δ/ можно считать постоянной и равной 5ξ (/0). Время осреднения интегратора предполагается много больше величины, обратной ширине полосы входного фильтра радиометра (Τ > 1/Δ/). Чувствительность радиометра будем характеризовать отношением mJov, где mv и σν » УЩ ние выходного процесса ν (0· Согласно схеме рис. 3.31 имеем математическое ожидание и среднее квад рати чес кое от клоне- ν(0 =Д- Г i(t')dt'=Y ГтгЧОЛ'. (3.4.7) t^T t — T Воспользовавшись свойством (5.2.2) перемести мости операций математического ожидания и ин!егрирования и учитывая, что /ηη = 0, получаем t тЛ = Μ{ν(/)}=γ f Μ{η»(/')}Λ'βαΟη§ (3.4.8) где ϋΛ = 2aK\St (А>)А/. Видно, что при других фиксированных параметрах математическое ожидание выходного сигнала радиометра пропорционально высоте спектральной плотности входного процесса на центральной частоте /0. На основании формулы (2.5.17') записываем выражение для ковариационной функции процесса ζ (/) на выходе квадратичного детектора K;W=m£+/?c(x)f ^«tfD», #ζ (τ) = № R » (τ). 358
Такой ковариационной функции соответствует спектральная плотность St (f) -J [Φ D* +2α* Ц (τ)] е- J«*K ^ =α* D* δ (/) + ' «а. ОО так как j" /?* (τ)β-^π'"<ίτ= J S„ </')<*/' f ^η(τ) e"'2" <'-f')Tdt== = f s„(/')S„tf-/')<Vc. ]KQ2Xf)\ 0) Рис. 3.32. Амплитудно-частотная характеристика узкополосного фильтра радиометра (а) и спектральная плотность процесса ζ (0 (б) ~fo Af δ) л ~2f0 4аЩ(Г0)лГг 2аЩ(тП\ "Af 0 Af 2f0 f 2Af Спектральная плотность процесса ζ (/) на выходе квадратичного детектора состоит из дискретной линии на нулевой частоте и непрерывного спектра (рис. 3.32,6). Дисперсия напряжения на выходе радиометра определяется формулой (5.3.61), которую для данного примера следует записать в виде г τ Ό ο Корреляционная функция процесса η (t) на выходе идеального узкополосного фильтра дается формулой (5.3.49), т. е. sinttA/x _ , Если подставить это выражение и учесть условие Τ > 1/Δ/, допускающее приближенное вычисление интеграла, то получим Dv=— 4яаО* Я'-т)(-тЗй-)"'«мл- о С/ T\fsinnAfr\2 1 . 2а2 °η С Ι 8ΐηπΑ/τ\2 πΔ/τ J 2 dx- T\f Из формул (8) и (9) находим чувствительность радиометра mv/ov*=VTAf. (3.4.9) (3.4.10) 359
При принятых ранее допущениях чувствительность радиометра возрастает как корень квадратный из произведения времени интегрирования на полосу пропускания входного фильтра- Кусочно-разрывные и трансцендентные преобразования При рассмотрении воздействия достаточно сильных сигналов и помех на нелинейные устройства часто применяют аппроксимацию их характеристик кусочно-разрывными или трансцендентными функциями g (£), поскольку они позволяют лучше передать основные свойства рабочего участка нелинейной характеристики. Вычисление моментных функций выходного процесса для нелинейных преобразований такого вида можно выполнить двумя тесно связанными методами: прямым и методом характеристических функций Π05, 1061. В прямом методе используются сами нелинейные характеристики и вероятностное осреднение выполняется с помощью плотностей вероятностей. При этом одномерные моменты находятся по формуле 00 mv (/) = Μ {ην (/)} = j gv (Λ;) ρ (x; t) dXf (3.4.11> а для ковариационной функции справедливо выражение /(η(/ι,4) = Μ{η(/1)η(ί2)} = oo oo = J j g (*i) g (*2> Pi (*i, *ъ tv k) dxx dx2, (3.4.12) — 00 «»»0D В методе характеристических функций нелинейная характеристика представляется о помощью преобразования Фурье или Лапласа. Если функция g(Q и ее производная кусочно-непрерывны и g(Q абсолютно интегрируема, т. е. 00 J |g(*)|<i*;<oo, —» oo то существует преобразование Фурье от характеристики устройства 00 F(i*>- j g(l)e-'<*d1· (3.4.13) —* oo и сама характеристика может быть представлена через обратное преобразование Фурье: 00 η = £(1) = -^- f ^(j^eWd*. (3.4.14) «—· oo Во многих интересных случаях характеристика элемента не является абсолютно интегрируемой функцией, ее преобразование Фурье не существует и равенство (14) непосредственно применено быть не может. Предположим, например, что функция g (ξ) равна нулю при 360
Ε <с О, она и ее производная кусочно-непрерывны и на бесконечности g (ξ) имеет экспоненциальный порядок роста, т. е. (g(i)Kftexp (αξ) при χ ^ О, где Л и α — постоянные. Тогда функция Υ (9 « * (?) exp (- α'ξ), где α'> α, абсолютно интегрируема, так как |γ/ξ| </ι expl—(«' — — α)ξ], и ее преобразование Фурье должно существовать. Поэтому согласно (14) можем написать γ(ξ) = ~ ? е"Ш£(6)е~в'*е~1<*# Id*. Домножив обе части этого равенства на ехр («'ξ), имеем оо г- оо -« Если ввести комплексную переменную w ~ u + jA*, то интеграл по действительной переменной О можно заменить контурным интегралом вдоль линии w = и' + jft в плоскости до и написать И'-fjoo . H^gffi^JL· f /?(o;)e6«£to, (3.4.15) 2jxj J где и' > м и σο FW= fg(l)e~^dg. (3.4.16) В рассматриваемом случае (g (I) = 0, ξ < 0) функция F (w) определена как одностороннее преобразование Лапласа от характеристики эле-' мента. Если характеристика не обращается в нуль на полупрямой, то следует пользоваться двусторонним преобразованием Лапласа. Выражения функций F(w) для типовых нелинейных характеристик можно найти в литературе [20, 86, 1051. С использованием (15) запишем выражение для ковариационной функции выходного процесса Кп(4,/2) = М{£(Ш)£(Ш)} = = /-JL-Y Г Г F (wx) F (w2) Μ {е^ »!+*. ^} dwx dw2=* L L ^Ы~Г1' ίF (щ) F (щ) Фг(тъ щ; ti9 tz) dWidW2? (3-4Л7) L L где L — соответствующим образом выбранный контур интегрирования в комплексной области w; Ф2 (щ, w2\ tl9 t2) — двумерная характеристическая функция входного процесса ξ (t). Ниже таким методом рассмотрен пример 3.4.5. 361
Из (12) и (17) следует, что как метод характеристических функций, так и прямой метод требуют одних и тех же априорных сведений о входном процессе ξ (t), поскольку характеристические функции и плотности вероятности связаны однозначными преобразованиями Фурье. Поэтому оба метода равноправны, и для решения конкретной задачи применяется тот метод, который позволяет проще получить результат. Отметим, что если ξ (/) — гауссовский случайный процесс, то естественным результатом прямого метода является выражение ответа через табулированные производные от интеграла вероятности фон-!>(*)«-£- (—L-e-'^Vtt-O, 1, 2, ..., (3.4.18) dx» \ Ί/2π / а при использовании метода характеристических функций ответ чаще выражается через вырожденные гипергеометрические функции 11071 Λ(α;γ;*)=ΐ+^.^+^^.£+... (3.4.19) У И V(V + 0 2* Однако это не имеет существенного значения, так как производные от интеграла вероятности и вырожденная гипер геометрическая функция связаны друг с другом известными соотношениями 1111: ^+.,w.J=a^A(^!.;i;-i). m! 2m У 2π χ J Если на вход рассматриваемого нелинейного элемента воздействует гауссовский стационарный процесс \ (t) с нулевым математическим ожиданием т% = 0 и корреляционной функцией /?ξ(τ) = Dtfi (τ), то процедура вычисления интегралов в правых частях формул (12) и (15) может быть упрощена применением специальных приемов. Применительно к формуле (12) один из таких приемов, названный методом дельта-функции, был развит в работах [108, 1091. Позже аналогичный метод, называемый методом Прайса [1101, был применен к вычислению интегралов вида (17). Метод дельта-функции базируется на представлении двумерной нормальной плотности вероятности гауссовского стационарного процесса ξ (t) с нулевым математическим ожиданием в виде ряда (2.5.25). На основании этого представления формулу (12) можно привести к виду σξ-Κ^Γ, "(3.4.21) где математическое ожидание выходного процесса η (/) определяется выражением 362
/ηη = Μ {η (/)} = \ g{x)pix)dx = -l- f £(л;)Ф' (-f-)<i*· (3.4.22) Интегралы, входящие в формулу (21), будем вычислять интегрированием по частям. Применяя интегрирование по частям ν раз и используя свойства функции Ф(п) (х): Ф<"+^ (<х>) = 0; ф<Л+и (О) = 0 при η четном, получаем оо со Г £(*)ф(Й+1) ( — )<& = (—0ξ)ν Г g<v> (*)Φ<"+'~ν)/_!ί_| <&. Следовательно, Λη(τ) = ^η(τ)-Αηή = σ|^ΐ) ig J j g(v) (*) φ(»+ι> if W -^ · (3.4.23) Применительно к различным кусочно-разрывным характеристикам нелинейных элементов следует выполнять интегрирование по частям такое число ν раз, чтобы v-я производная g{v)(x) превратилась в дельта-функцию или сумму дельта-функций. Последующее интегрирование с дельта-функцией легко выполняется согласно формуле (1-6), после чего получаем результат, выраженный через табулированные функции Ф(п> (х) (см. пример 3.4.3). Формула (23) устанавливает связь между корреляционной функцией выходного процесса и нормированной корреляционной функцией входного процесса и, следовательно, позволяет найти спектральную плотность выходного процесса по известной спектральной плотности процесса на входе нелинейного элемента. Наличие в (23) членов с η ^2 приводит к искажению и расширению спектра выходного процесса по сравнению со спектром входного процесса. Этот результат является общим и представляет вторую характерную особенность нелинейных безынерционных преобразований. Перечислим другие возможные применения метода дельта-функций 170]: 1) он применим не только к кусочно-линейным характеристикам, но и к кусочно-разрывным характеристикам более общего вида; 2) позволяет анализировать кусочно-разрывные преобразования нега- уссовских процессов; 3) с успехом применим к вычислению корреляционных функций сообщений, квантованных по уровню; 4) оказывается эффективным при вычислении не только ковариационных функций выходных процессов, но также и при определении высших моментных функций. Метод Прайса и его обобщения относятся к частному случаю, когда входной процесс ξ (/) гауссовский, и состоят в следующем. Пусть требуется найти взаимную ковариационную функцию К12 (tut2) = = ЩЦ1 (h) r\2 (t2)} для процессов на выходе двух нелинейных элементов (рис. 3.33), на вход которых воздействует гауссовский процесс 6(0· 363
Рис. 3.33. К вычислению взаимной * ковариацион- £(t) ной функции на выходе двух нелинейных эле- ментов С \fifeW) \яг(Ч(У) W)„ W^ По аналогии с формулой (17) можем написать *М2 (^1> к) — (2jij)< ίί ^ι (Щ) Рг (Щ) Фг (wb ™г> к* h) dw1 dwz (3.4.24') где Ф2 (w1} w2; tt, t2) — двумерная характеристическая функция га- уссовского процесса ξ (t) вида (1.4.22), для которой выполняется соотношение (1.4.24), т. е.· дк —т-ф2 (Щ> Щ\ *ι.·**)β (<*ι <*г Щ Щ)к Ф2 (Щ, «ЬГ'ъ 4)· Отсюда и из (24') следует, что ~^ Кп «ъ г2)--§^£ J twf Fx (w,)dw^ w\ F2 (w2) χ Χ Φ2(α>ι, w2\ tl9 t2) dwt dw2. Подставив сюда исходное определение характеристической функции Ф2 (щ9 w2\ ti9 t2) = Μ {exp (w&i + w2%2)} и поменяв порядок интегрирования и вероятностного осреднения, имеем -2-г Kvt «ь Q = -%-^ Μ ( Г w\ Fx (wx) е·»* dwx χ X Г w\ F2 (w2) ew»*» dw2\. Из выражения (15) следует, что ι 2π - (V F (ш) e«* dw = dkgJl) = g<*> (ξ). *T dk Поэтому "ПГ *12 i'b h)« (σ, σ2)* Μ [g\*> (ξ ft)) Д*> (ξ (t2))} _ dr! 00 OO = (OiOu)* J J g\*> (Xi) g<,*> (x2) p2 (Jf!, x2; /i, It) d^i d!xb (3.4.24) ί-ΟΟ — OO где ρ2 (*i. *2*> *ъ ^2) — двумерная нормальная плотность вероятности (1.4.21). Формула Прайса (24) устанавливает связь между производными от взаимной ковариационной функции выходных процессов по нормированной корреляционной функции входного процесса и математическим 364
ожиданием соответствующих производных от характеристик элементов. Эта формула может быть обобщена и на другие моментные функции. Однако нас здесь интересуют, наоборот, частные результаты, следующие из (24). Если гауссовский процесс ξ (t) стационарен и рассматривается одно преобразование, то в формуле (24) нужно положить ^(ξ) = g2(£) *a = g(l·). При этом получим д«Кф) drUx) = σ2* j Г &k4xJgik4xdP2(XbX**)dXidxb (3.4.25) где /?2 (#ъ %ύ τ) — двумерная нормальная плотность вероятности (2.5.15). При вычислении по формуле (25) ковариационной функции процесса на выходе нелинейных элементов с кусочно-разрывными характеристиками, как и в прямом методе, нужно брать такое значение &, при котором g<k) (χ) представляет сумму дельта-функций 1110]. Тогда интеграл в правой части всегда вычисляется и, следовательно, находится производная dk Kx\ (т)/дг^(т). Что касается последующего интегрирования по г ξ с целью определения /(η(τ), то оно легко выполняется лишь в частных случаях, например, когда воздействующий гауссовский стационарный процесс ξ (t) имеет нулевое математическое ожидание и характеристика имеет разрыв в нуле, т. е. g{k) (χ) = ± δ (χ). В примере 3.4.6 формула (25) применяется к непрерывной характеристике элемента. Полагая в (24) £х(|) =g(|), ёъИд = Ιτ и k = 1, получаем формулу, устанавливающую зависимость между входным и выходным процессами: Жг2 (τ) = σ2 Г g' (χ) p.{x) dx = const. (3.4.26) Следовательно, /C12 (τ) = const r% (τ) -f с. Из физических соображений ясно, что при г ξ (τ) = 0, /С12 (τ) = с = = tngn^. Поэтому /?ι2 = /?Ηη(τ) = Μ {(ξτ — тг)(х\—/ηη)} = const Г| (τ), (3.4.27) т. е. взаимная корреляционная функция между входным гауссовским стационарным процессом и процессом на выходе безынерционного элемента по форме совпадает с корреляционной функцией входного про-" цесса. Формула (27) является частным случаем более общего результата 1111]. Пусть ξ (?) и r\ (t) — два процесса со стационарной совместной плотностью вероятности и взаимной корреляционной функцией #ξη(τ) = ΛΙ {[ξ (t)-ml) [η (f + τ)—т„]}. Пусть процесс η (t) подвергается нелинейному безынерционному преобразованию ζ (t) = g (η (t)). Запишем взаимную корреляционную функцию между ξ (t) и ζ (ί + τ)· 365
% (τ)= Μ {[ξ (/)-mR ] [ζ (ί+ τ)-/ηζ ]}. Можно доказать, что имеет место соотношение пропорциональности %(τ) = 6^#ξη(τ), (3.4.28) справедливое для всех характеристик g (·), если и только если в выражении fOt. τ)-8Μ {(ξ (0-m6 )|η (/ + i)»y) ft 00 (3.4.29) разделяются переменные рт,т. е. /(УД)» А (у)/, (τ). (3.4.30) Коэффициент пропорциональности Св в (28) зависит только от характеристики элемента g (x)9 но не зависит от τ. Отметим, что интересующие нас корреляционные функции выражаются через / (у, τ): оо оо Ли (О = j" # (У. τ) d#> Я«(τ) = j * ^ f &* τ) ^' Формулу (24) можно обобщить на нелинейные безынерционные преобразования более общего типа 1112] Ян <Ί. Ί) = lit (^ <Ί). ^2 (it)), (3.4.31) где ^ (ί) и ξ2 (0 — совместно гауссовские случайные процессы. В данном случае она принимает вид = № σ2)* Г J I ^ ^ ^ ** ) ft (*ь *2; /i, 4) d*i £te2. (3.4.32) В том частном случае, когда η^ιΛ) = Th(*i) η 2(^2) = βι(δι(Ί)) Χ Χ ^(^(У )» формула (32) переходит в (24). Дополнительные сведения по нелинейным безынерционным преобразованиям можно найти в литературе 1111—119]. Проиллюстрируем методику применения изложенных методов на частных примерах. Пример 3.4.3. Корреляционная функция процесса на выходе «линейного» ограничителя. Пусть на вход «линейного» ограничителя, имеющего характеристику (рис. 3.34) ( -Ь ξ<-β, *1-*(Б)Н «. —β<5<«. (3.4.33) [ tt, ξ>α, воздействует стационарный гауссовский процесс ξ (t) g нулевым математическим ожиданием и корреляционной функцией R^ (τ) = D* г% (τ). Требуется найти математическое ожидание и корреляционную функцию процесса η (t) на выходе ограничителя. В соответствии с определением записываем выражение для математического ожидания «> —3 α оо ™η= J g(x)pl(x)dx=—b J рг(х)ах+8 J xpl(x)dx'+a^ pl(x)dx. — 00 —00 —β a 366
Подставив сюда нормальную плотность вероятности р^ (х) с т* = О, получив SO* °ι °б Ι' \ °s /J Ф \ σι / σδ L \ °s/ + (3.4.34) При вычислении корреляционной функции воспользуемся формулой (23). Для рассматриваемого ограничителя нужно положить ν = 2 (рис. 3.34). После двукратного дифференцирования нелинейной характеристики #(ξ) имеем *"(Ε>=β[δ<ξ+β)-β<ξ-α)]. Подставив это выражение в (23) и выполнив интегрирование, получим окончательную формулу для корреляционной функции V>=(-i^ Γς(Ό я! (3.4.35) В табл. 3.1 приведены выражения ковариационных функций процессов на выходе нелинейных элементов с несколькими различными кусочно-разрывными характеристиками. Они получены аналогичным nyieM. Пример 3.4.4. Ковариационная функция процесса на выходе идеального ограничителя. Корреляторы совпадения полярностей. Вычислим ковариационную функцию процесса η (t) на выходе идеального ограничителя с характеристикой (рис. 3.35) fl(0=*G(0)=sgnS(/) = ι, ξ(0>ο, о, I (0=0, -ι. UO<o, (3.4.36) где входной процесс ξ (t) предполагается стационарным в узком смысле с известной двумерной плотностью вероятности р2 (xit х2\ τ). Рассматриваемый ограничитель преобразует непрерывный случайный процесс ξ (t) в дискретный процесс η (t), представляющий собой случайную последовательность биполярных прямоугольных импульсов амплитудой ±1 (рис. 3.35). Такое преобразование часто применяют при цифровой обработке аналоговой информации. В инженерной практике операцию (36) часто называют амплитудным квантованием на два уровня или клиппированием, а процесс η (t) — клип- пированным"процессом. Если уровни ограничения отличны от ±1, то можно воспользоваться формулой (2.2.67). Несмотря на то, что выходной процесс η (I) по виду существенно отличается от входного ξ (t), он сохраняет некоторые свойства процесса ξ (t) (характер изменения полярностей, число пересечений с горизонтальной прямой на уровне Η < 1 и др.). Очевидно, что плотность вероятности выходного процесса есть сумма двух дельта-функций: Ρη (У) = qfi (У + 1) + * δ (у - 1), (3.4.37) где 0 00 <7ι=^ίξ<0}= I pl(x)dx9 q2=P{l>0}=$ Pl(x)dx; 367
ei a η Ο »S χ ο 3 £. • S ее >> а Ξ § SI Μ О т к £» я* СО В 3 2 S S о о § к § з а а си« 2 Ϊ о а * Я § о S α с £ См/· ηί ~l« «и! ♦А/ о* ^Р4 >h и + г* L- 1<м II % Ua, Is а а 8*1« S; л а §§5 О а > .5 О + -О I <3 *s> *Э Мл# <^> I о о л ν/ + 1 ез θ Ч- *Р Ч^ IN С0|© θ со | О ι— с; θ со О Θ + V а· и ** <ч* ν^ ^J ^ Ил, со со Л V/ ^Хя g 3 = IIS. я а н Й й> §*§ а а и be a 368
СО *" к « О) ST * 5 В t S a S- K S + Мл» ι с θ I Ή4 + J^^t •it <s»*3 Μ f> Ж О § Л § «Oh а к 3 έ S sggg 369
*? ю то н I <υ я a α> £ З1 о о. С ^^ ь» <г ^ 8 о В СО о ^ 5 α> и «α X t> θ «И! ϋ Цл. Κ V/ ν -.Ιο"' ^ι θ ι «иг + <4i ^ V β ν/ - 4 Τ Τ ν/ ν V ^ V/ -β *- + ι ι ·** 8 И! + <Ν ST Λ CO ν/ О £ S £S •я <» S 3 c> H « η S 1 ш о я s £ О- Я c5« ε s ^> к О а: о с 370
«? ю W Η о S аз О) К- одол О- е Η ?г * аходе ш СО 9<и is В CL t?2 CN«J» «Μ + О ϊ •Я о аз С (Я gsg + 8 , 1 *P •Г* *U> + I I К \\ъ h \> m . * X 43 V с I α» WP« Ρ Χ 37ί
**-* со 4 СО Η <υ s аз со s о Τ» Ρ * <υ fct о χ; В ш at tu К S3 ef U! £ & ι № ca ационн я a се со о * ~ «J) ЬЙ II Ξϊ- ST афик о. и «2 gK < ейного тва Тип нелин устройс г—» ^^ Η «г· V. + »■* >—" <N«i> О W. £L CU X ω <з Ι <ι> 1 <3 ^\. ^ Х*з <\> ^v Ка, с^' ® a л ,5 поненциаль выпрямит! О 9Я Φ аз со ·■* S е* 1 с I <л о и> СО ~.|<Ν 1 + <N gT ε [ЧАг >-«- — Ι _ <ч> с^ лхо —— JS *s 1 1 Л ариф] штел Is •^ *■■* 372
Ρξ(χ)—одномерная плотность вероятности входного процесса ξ(/). Математическое ожидание выходного процесса ОО 00 О ΛηβΜ {*)(*)}« \ yp^(y)dy^q2--q1^^ Рг(х) dx— J p^(x)dx. (3.4.38) — OO 0 *»0Q Запишем выражение для ковариационной функции процесса Κη(τ)=Μ{η(Οη(ί+τ)) = ОО ОО = J J sgn xx sgn *2р2 (jcj , χ2; τ) flf^ dx2. (3.4.39) -β ι й WW » >^ ι •4 ! . -/» кяЪ) ot ξ$| 0 1 ~\ ι S A S\t i Ν—/[ Ι ί ! _ Ι Ν ί fftj-sunsft) * Ι -/* </"Φ ot Mi Г* Рис. 3.34. Характеристика ограничителя и ее производные Рис. 3.35. Входной ξ (О и выходной η(ί) процессы идеального ограничителя с характеристикой 4(0«sgnfc(/) Произведение sgn *fSgn*2 равно +1 в первом и третьем квадрантах плоскости х^Хъ и равно —1 во втором и четвертом квадрантах. Поэтому ОО ОО 0 0 Κη (τ) =J J p2 (*lf x2; τ) d*t d*2 + J J p2 (*i♦ 4\ τ)d*x d 2— 0 Ό —oo — oo oo 0 0 oo — f j Pi (*i> ^2; *) ^1 <*** — J J P2 (*ι, *2.' τ) d*, dx%. (3.4.40) 0 — oo —00 0 Подставив сюда конкретное выражение двумерной плотности вероятности входного процесса и выполнив интегрирование, получим требуемый результат. Для дальнейшего рассмотрения заметим, что значения процесса η (t) и η (t 4- τ) могут иметь либо одинаковые, либо разные знаки. Очевидно, что для вероятности совпадения знаков ρ+(τ) «■ ρ++ (τ) + ρ (τ) и вероятности несовпадения знаков р.. (т) = ρ+_(τ) + Ρ-+(τ) должно выполняться условие нормировки: ρ+(τ)+ρ_(τ) = 1. Здесь использованы обозначения типа ρ+-.(τ) «■ ~ Ρ {п (О ш Ь Л (* + τ) =* —*}· Поэтому выражение для ковариационной функции можно записать иначе: ^ (^) = Ы-Р-ь+(^)+(—I) « (—1)/7—(τ) + 1 .(-1)ρ+«(τ)+(-.1).1.ρ^+(τ)-. ^2ρ+(τ)~ 1 = 1 —2р_ (τ). (3.4,41) 373
Для стационарного гауссовского процесса ξ (/) с нулевым математическим ожиданием (ш^ = 0) имеем /πη ■= 0, и эти вероятности даются выражениями (3.3.22). Подставив их, получим λη(τ)«/?η(τ>*=(2/π)8Γ08ίηΓξ(τ), (3.4.42) где —π/2 < arcsin r^ (τ)<π/2. Разлагая при г| < 1 функцию arcsin т^ в сте~ пенной ряд, имеем Лч (T)s=slTarcsin г* (τ)==Τ (r* (τ)+Τ r'i(τ) + .Λ (3.4.43) 1·4 ЬЗ-5 1 Для малых значений τ -» 0 имеем ^ (т) -» I и Κη (τ) Рис. 3.36. Две нормированные корреляционные функции на входе и выходе идеального ограничителя В противоположном крайнем случае, когда τ —> оо и /ν(τ) -* 0, из (43) следует, что Λη(τ)~(2/π)Γξ(τ). Из этих предельных выражений можно заключить, что влияние ограничения процесса проявляется в сужении корреляционной функции выходного процесса по сравнению с корреляционной функцией входного процесса и соответственно в расширении исходного спектра. Справедливость этого результата подтверждается также кривыми рис. 3.36, на котором приведены графики двух корреляционных функций /?η (χ) для гг (τ) = ехр (— |т|) и г2 (τ) = ехр (—τ2). Для стационарного гауссовского процесса из (41) и (42) получаем p+(T) = l/2 + (lM)arcsinr^(T). (3.4.44) Широкое разнообразие задач, решаемых в настоящее время спектрально- корреляционными методами, привело к разнообразию способов аппаратурного определения корреляционных характеристик случайных процессов. В большинстве случаев исходят из допущения, что исследуемый процесс ξ (t) обладает свойствами стационарности и эргодичности и его корреляционная функция "может быть представлена выражением (2.1.77). Методика экспериментального определения корреляционной функции в соответствии с этим выражением подроб* но рассматривается в § 5.4. Здесь лишь отметим, что при практической реализации алгоритма (2.1.77) часто возникают затруднения в осуществлении операций регулируемой задержки и перемножения аналоговых величин. Существенно упростить экспериментальное определение корреляционных характеристик удается при использовании полярных (знаковых) методов. В основу этих методов положены соотношения (40) и (41), связывающие нормированную корреляционную функцию г» (τ) входного процесса ξ (t) и корреляционную функцию /?η (τ) знаковой последовательности η (/) «= sgn ξ (t). An- паратурно, как правило, вычисляется либо ковариационная функция 374
τ Kn (τ) -Jim ~г Γ sgn ξ (t) sgn ξ (/+τ) Λ. (3.4.45) которая совпадает с /?η (τ) при /τζη = 0, либо вероятность совпадения полярностей исследуемого процесса ξ (/) в моменты времени t и t + τι Ρ+(τ) - Ρ {δ (0 > 0, ξ (* + τ) > 0} + Ρ {ξ (0<0, ξ(<+ τ) < 0} - - * {η (0 - η <* + τ)}. (3.4.46) Используя затем функциональную связь 'δ (τ)-/ι(^η(τ))-/ι(Ρ+ίτ)). (3-4.47) по результатам измерения /?η (τ) или ρ+ (τ) косвенно определяют значение Γξ (τ). Устройства, работающие по такому принципу, называются корреляторами совпадения полярностей (иногда, знаковыми или полярными корреляторами) [120—131]. Конкретный вид выражений связи (47) определяется формулами (40) и (41) и зависит от двумерной плотности вероятности исследуемого процесса ξ (t). Для гауссовских процессов при mfc — 0 из (42) и (43) имеем Γξ (τ) = (π/2) sin R (τ) = —cos π/?+ (τ). (3.4.48) Отметим, что аппаратурно соотношения (45) и (46) реализовать значительно проще, чем (2.1.77). Так, например, перемножитель теперь становится эквивалентным простой схеме совпадений, технически несложно выполнить и регули- ρ уемую временную задержку последовательности прямоугольных импульсов. Простота технической реализации и возможность непосредственного измерения нормированной корреляционной функции г% (τ) относятся к основным достоинствам корреляторов совпадения полярностей. Однако необходимость априорного знания двумерной плотности вероятности во многих задачах существенно ограничивает практическое использование таких корреляторов. Устранить этот недостаток обычно удается введением вспомогательных сигналов с заданными свойствами [122]. Для этого, помимо знаковой функции (36), введем более общее определение такой функции ( 1, Μ')>λ(0, £(0=sgnf£(0-^(0]= 0, ξ(0=λ(0, (3.4.49) [ -ι, ξ(*)<λ(ο, где λ (0 — некоторый вспомогательный процесс (см. ниже). В данном случае характер дискретной последовательности определяется не только свойствами исследуемого процесса ξ (/), но и вспомогательного процесса λ (f). Часто в качестве λ (ί) берут стационарный процесс, не зависящий от ξ (/) и имеющий равномерное распределение рх (и) = 1/2Л, и ζ (~At A); (3.4.50) лричем должно выполняться условие | |тах| <Ξ Л. Найдем математическое ожидание процесса ζ (t): оо «5-М{ζ0)}- J Μ{ζ(/)|ξ(0=*}ρ6(*)<ί*, (3.4.51) где Μ {ζ (0| χ} — условное математическое ожидание Μ {ζ (0| χ) - Μ {sgn lx - λ (01} - 1 · Ρ {χ > λ (0} - \Ρ {χ < λ (0}. 375
χ χ Но Ρ {λ (0 <χ} = f ρλ (u)du=-lj Γ *»~Ί^ И+^ί. Ρ {λ (t) > χ)« Ι—Ρ {λ(0 < *}· Поэтому М{С(01*}в х/Л. (3.4.52) Подставив это значение в (51), получим #*£ Таким образом, при выполнении условий, наложенных на вспомогательный процесс λ (/), математическое ожидание знаковой функции ζ (/) с точностью до постоянного множителя \1А совпадает с математическим ожиданием исходного процесса ξ (/), Для того чтобы исключить зависимость корреляционной функции выходного процесса от двумерной плотности вероятности исходного процесса ξ (f)t. введем две знаковые функции 1Ю-.ВПВ(0-А(0.. ) (3454) ζ('+τ)-8βη|ξ(*+τ)-μ(0), У где вспомогательные стационарные процессы λ (/) и μ (f) имеют одинаковые равномерные плотности вероятности (50), независимы между собой и с исследуемым процессом ξ (t). Для простоты примем т^ «= ηιλ » mu ~ 0. Предположим, что в моменты времени t и t+τ процесс ξ(0 принял некоторые значения ξ (0 «= Xj и ξ (/ + τ) ~ χ2. Тогда можно записать следующее выражение для ковариационной функции; ос· ос Χζ(τ) = Μ{ζ(ί)ζ(ί+τ))= J *J Μ{ζ(Οζ0+τ)Ι£«)=*ι. ξ (*-И) = дег}х %e*0O to» 00 χ ρ2 (χ1# χ2; τ) dx! dxa, (3.4.55) где Μ (ζ (/)£ (* -f x)|xit хг} — условная ковариационная функция прн фиксированных значениях ξ (t) = х^ и ξ (/ + τ) « *а. Из свойства независимости процессов следует, что Μ {ζ <f)t (/ + т)|х1} х2) « Μ{ζ(0|Χι)Μ {ζ (/+ τ)|χ2), причем согласно формуле (52) имеем Μ{ζ (0|дг,) == хг1А% Μ {ζ (/+ τ)|χ2) - xJA. Поэтому 00 ОО Κζ(τ)—Α-* j J XiX2/?2 (xlt x2; %) ахгах2=^А"2 #ξ(τ) = #ζ (τ). (3.4.56) — ОО —f CO Следовательно, корреляционная функция знаковых функций (54) с точностью до постоянного множителя А"2 совпадает с корреляционной функцией исследуемого процесса ξ (t) и не зависит от вероятностного распределения этого процесса. Корреляционную функцию R^ (τ) можно выразить через вероятности совпадения или несовпадения полярностей функций ζ (г) и ζ (t 4- г). Действительно, М{С(0С<*+ *)}« 1· P{iiQ- U'+ τ)}- 1 . Ρ {ζ (0 ·*>£(*+ t)}« β Ρ+(τ) - P-(*), (3,4.57) 376
*<Hi: причем #4 (τ) -f ρ_(τ) = 1, рде ρ+(τ) и ρ_(τ) — вероятности совпадения и несовпадения полярностей функций ζ (t) и ζ (t -Ь τ). Из (44) и (45) следуег #δ № «Ла [р+ (τ) —ρ„ (τ)! =Л2 f2p+ (τ) —1|. (3.4.58) Соотношения (56) и (57) лежат в основе построения корреляторов совпадения полярностей с использованием вспомогательных процессов. Эти соотношения можно легко реализовать аппаратурно, и они не изменяются при изменении вида распределения исследуемого процесса. Корреляторы совпадения полярностей находят применение при решении ряда радиотехнических задач. Пример 3.4.5. Плотность вероятности и ковариационная функция процесса на выходе однополупериодного выпрямителя v-й степени. Получим выражения для плотности вероятности и ковариационной функции процесса на выходе однополупериодного выпрямителя с характеристикой (t)r f^U' v>°- (3.4.59) Запишем сначала выражение для функции распределения выходного процесса; [ W«)l/V [ 0 y<Q. О где Fa (0) - j рг (x)dx. Плотность вероятности находим дифференцированием ( FuQ)b(y) +Pl [(y/a)i/v](yl~vta)l/v(Vv)9 у > 0, I 0, ' /<(). В том частном случае, когда входной процесс ξ (t) гауссовский с нулевым математическим ожиданием, г. е. рг (х) =(2πΖ>ξρ1/2 ехр (^/2^), из (60) получим (3.4.60) 1 I Г 1 / У \2/v1 /V"~v Y/v Р,(у)={Т^)+7уЩ^[-1юГ[-) \(-Г) 'у>0> 0, у<0. (3.4.61) Вычислим по формуле (17) ковариационную функцию выходного процесса η (/). Для этого нужно предварительно найти преобразование Лапласа (16) от нелинейной характеристики (59): оо F (w)=*a j* x*e-*w*dx. Интеграл справа сходится для всех Re w > 0. После замены переменной интег-^ рирования t «я wx, имеем — Г ■-И±й. *«, 377
где Г (ν) — гамма-функция. Если подставить (62) и выражение двумерной характеристической функции входного процесса в (17) и выполнить интегрирование, то получим ковариационную функцию выходного процесса. Для гауссовского стационарного процесса ξ (t) с нулевым математическим ожиданием согласно формуле (2.5.16) имеем ф2 (»ι. Щ\ τ) ^ехр γγ ΐ>ι [W\ +2ri (τ) Щ Wo +тЦ | = oo Применительно к данному случаю формула (17) дает Кц (τ) - ^ ~*"v Ί(τ)' (3.4.63) где коэффициенты £„ν определяются выражением '«•-^у—,-(£^)* - и вычисляются контурным интегрированием, причем область сходимости есть полуплоскость, где Re од > 0. Поэтому путь интегрирования jL+ следует брать вдоль вертикальной прямой од « г -Ь ji>, где ε > 0. Выполнив интегрирование, получим <-=ιτΓ(1+ν)Γ(—](т%' cinT?(~T~)' (3·4·65) Коэффициенты crtV равны нулю, корда (я — v)/2 есть целое число, так как при этом sin я I (п — v)/2] » о. Из общих формул (63) и (65) можно получить следующие частные результаты: v«0, ^(T)-~[^+arcsinr6Wj;. (3.4.66) ν = 1, Кц (τ)»~ £>ξ Γ— rg (τ) +rg (τ) arcsfn r£ (τ) +|/Ί-Γ|(τ); (3.4.67) +1ИГГ 1 W +·· · +(π-3)(π-2) („-!)„ '" (Τ) Ι ПРИ Я НеЧеТН0М· (3·4·^ Пример 3.4.6. Плотность вероятности и ковариационная функция процесса на выходе сглаженного ограничителя. Получим выражение для плотности вероятности и ковариационной функции процесса на выходе сглаженного ограничите- - ля, имеющего характеристику (рис. 3.37,6) Π η</> ~ga (0)=J Г7=- U~*Wdx (3.4.69) 0 где α и γ — постоянные величины, когда на ограничитель воздействует гауссов* ский стационарный процесс ξ (/) с нулевым математическим ожиданием (рис. 3.37, а) и корреляционной функцией R^ (τ) = D^r^ (τ) [132]. 378
Из (69) следует, что lim g (ξ) = —1/2α и lim g (ξ) = 1/2α. Поэтому вели· ξ· > ■ ' ОО ξ-*'00 чина а характеризует уровень ограничения, у — наклон характеристики ограничителя (точнее, значение производной при ξ = 0). Чем больше γ, тем меньше наклон. В пределе при γ —*- 0 сглаженный ограничитель переходит в идеальный. Воспользовавшись нормальной плотностью вероятности р* (χ) и учгя8 что dy 1 -*V2V2 -е » получим dy/dx ДО 1/ШТг dx а У 2πγ2 -|=аУаехр^-—(a-l)j, а = -2^- Υ-ΪΑ U i 1/2а Т*о 1/*У* Г-0 л=о 7* Ιοι»σ а) β Рис. 3.37. Воздействие гауссовского процесса на сглаженный ограничитель (3.4.70) На рис. 3.37, в приведены графики плотностей вероятностей выходного процесса для четырех значений а. При а^О сглаженный ограничитель переходит в идеальный и плотность вероятности представляет собой сумму двух дельта- функций. При а= 1 плотность вероятности равномерная; при больших значениях α она выпукла вверх с максимумом в начале координат, а при меньших α выпукла вниз с максимумами при ±1/2а. Записав формулу (25) для k =* 1 и подставив в нее выражение производной, после преобразований получим аут) 1 drt(x) 2πα2 γ! г(£?ГП 1 X exp [■ Ъх\ — 2dxx х2+Ьх' 2(b*—d?) 2л У b2—d* ^\dx1dx29 Χ где d = abr* b = Di γ2(ΐ+<*-Ί) 1 ^-a,—r| ' 1+a—-D^r^ Написанный выше двукратный интеграл есть интеграл от двумерной нормальной плотности вероятности по всей области изменения переменных, и по* гожу он равен единице. Следовательно, *|(τ) 2πα2γ2 V ι~Γξ 2πα3(1+α) L \ 1 +<* / J Отсюда находим *„<*>· PF5rlw 2πο4 ί ^ΛΓ Vl— *а 2πα2 ■ arcst η 1+α ■И?. 379
где С — постоянная интегрирования. Она определяется из условия lim г- (τ) « = 0, lim /L (t) « С = т* « 0. Поэтому ковариационная функция совпала- ет с корреляционной и равна (3.4.71) Запишем также выражение для нормированной корреляционной функции Γη (τ) т, arasin Ц (τ)/ (1 + a)J/ arcsin |1/ (1 Η- α)]. (3.4.72> Отсюда можно получить следующие частные результаты: α=0, Γη (τ) =*(2/π) arcsin Г| (τ), (3.4.73) ос = 1, Γη (τ) = (б/π) arcsi η [ г* (τ) /2]; (3.4.74) α-*οο, Γη (τ) ~Γξ(τ). Если воспользоваться разложением arcsin x в степенной ряд, то можно вы- числить спектральную плотнорть выходного процесса η (/). 3.5, КВАНТОВАНИЕ СЛУЧАЙНЫХ СООБЩЕНИИ В современных системах связи все большее распространение получают цифровые (дискретные) методы передачи и обработки непрерывных сообщений. Для этого производится преобразование (квантование) исходного непрерывного сообщения в ряд фиксированных значений. Затем эти значения представляются последовательностью (комбинацией) двоичных символов (цифр, элементов); эти символы передаются одним из методов дискретной модуляции. В приемном устройстве осуществляется восстановление переданного аналогового сообщения 1133, 134]. tfi и? У1 Ж.7 Χ-η Χ-4 I | nut _j 1 X^OXj "Hi -Уг -Уз -и W\ \ »| |< I Xl Xj ξ Рис. 3.38. Квантование случайного процесса по уровням 380
ггю и~ А т. Рис. 3.39. Квантование случайного процесса по времени и по уровням Рассмотрим два способа квантования: по уровням и по времени и по уровням. Устройства, осуществляющие квантование, принято называть квантователями или аналого-цифровыми преобразователями. Процесс квантования непрерывного сообщения ξ (t) по уровням поясняет рис. 3.38. Интервал возможных значений сообщения i (t) разбивается на L элементарных подынтервалов точками ± xt (или х±д* i = Of It···» L/2 (х0 = 0 и Xl/2 = со). Величины ± х% принято называть порогами квантования, а разность между двумя ближайшими порогами Δ/ = *i+l — xt — шагом квантования. Выходные уровни квантования обозначим через ± у% (или y±i)f i= 1,2,..., LI2.< Если истинное значение сообщения ξ(£) в какой-либо момент времени t положительно и находится в интервале (#$_ι, **), то вместо него берется соответствующий уровень yt. При этом вместо непрерывной функции ξ (t) получится ступенчатая кривая η (/), высота «ступенек» которой равна разности между соседними уровнями квантования Δ^ = yUl— — yt. Такое преобразование можно осуществить, если исходное сообщение ξ if) подвергнуть нелинейному преобразованию х\ (t) = g (ξ(ί)) ступенчатого вида (рис. 3.38). В каждый данный момент времени выходной сигнал квантователя соответствует одному из L уровней. Будем считать, что L = 2k, где k — целое число, т. е. k = log2 L. (3.5.1) Квантование по времени и по уровням можно получить, пропуская временные отсчеты функции ξ (ί), взятые через определенные интервалы времени Θ, через нелинейный элемент с характеристикой g (ξ) с последующим расширением отдельных отсчетов до величины интервала квантования по времени Θ. Описанное преобразование поясняет рис. 3.39.
В дальнейшем принято, что квантованию подвергается гауссовский стационарный случайный процесс ξ (t) с нулевым математическим ожиданием (/П| = 0) и корреляционной функцией R δ (τ) = D%r ξ(τ). Получим корреляционные функции и спектральные плотности квантованных процессов г| (t) и так называемых шумов квантования ζ (t) = η (0 — ξ (t) 1135—1371, а затем приведем некоторые результаты по синтезу квантователя [138—143]. Корреляционная функция и спектр квантованного процесса Поскольку нелинейная характеристика квантователя g(%) есть нечетная функция, то математическое ожидание процесса η (t) равно нулю, а корреляционная функция определяется формулой (3.4.21): Яп(т) = 4- Σ Γ 8W &»+»(-£=) dx (3.5.2) 7 ' Ζ J ϊ 5 6 7φ 1 I J 4 5 6 7α>/ήΓ Рис. 3.40. Нормированные спектральные плотности процессов, квантованных по уровням Выполнив интегрирование по частям и учитывая, что g' {χ) = = 2/LiLL/2Ai δ (λ; — xt)y найдем Подставив это выражение в (2), получим формулу для корреляционной функции *м=М£^"'Ш\ »! (3.5.3) В частном случае Δ< = Δ/ = Δ, xt = (t'-f 1/2)Δ о учетом равенства ФС+ П (_*) = (_ 1)/» ф(п+ О (χ) 382
формула (3) несколько упрощается; «"{х)=4'\лЖфМ(('+^\^· (з-5-4) где УТГ= Δ/]/Ό% и суммирование производится по нечетным п. Спектр квантованного по уровням процесса η (/) определяется формулой (2.3.12): <?η (ω) = 8Δ* J j V Φ<«> fit +±}y^\Y±C r-(χ)cosшdr. (3.5.5) На рис. 3.40 приведены рассчитанные по этой формуле нормированные спектры квантованного процесса η (ί) для двух корреляционных функций исходного процесса ξ (t)i /?6 (τ) = Οξ ехр (-α|τ|), /?ξ (г) = ^ ехр (-γτ2). Как и следовало ожидать, при увеличении шага квантования ширина спектра квантованного процесса увеличивается. При квантовании процесса ξ (ί) по времени и по уровням формирование квантованного процесса %(t) (рис. 3.39) целесообразно трактовать как периодическое (с периодом Θ) временное стробирование прямоугольными импульсами длительностью θ процесса η (ί) (рис. 3.38)· При этом процесс λ (ί) представляет собой периодическую последовательность примыкающих импульсов прямоугольной формы длительностью θ со случайными и коррелированными амплитудами. Спектральная плотность такой импульсной последовательности определяется формулой (8.46) из (20], которая при нулевом математическом ожидании процесса η (t) (/ηη = 0) принимает вид Подставив сюда выражение /?т,(#9) из (4), получим 3λ(ω) = 4ΘΔ*ί *'Μωθ/2)1* у ^ „ [ ωθ/2 J J**^ Характеристики шума квантования Под шумом (ошибкой) квантования понимается случайный процесс ε а) - η ω -1 ω, представляющий собой разность между выходным r\(t) и входным 1(f) Процессами квантователя. Определим корреляционную 'функцию и 383
•спектральную плотность шума (ошибки) квантования для частного случая At *=! Δ/ = Δ. В этом случае шум квантования можно рассматривать как результат преобразования исходного процесса ξ (t) нелинейным элементом о периодической пилообразной характеристикой ψ(ξ), которая равна разности функций % = g (ξ) и ψ2 - ξ (рис. 3.41). Разложим периодическую функцию ψ (i) в ряд Фурье ♦©-£2 (-1)" . 2лп * sin —— Ε. п=\ Рис. 3.-Ί. Формирование шума квантования На основании этого разложения ковариационную функцию шума квантования Κζ (t1% t2) можно записать в виде КАШ = Μ {ζ ft) ζ (t2)} = Μ {ψ (ξ ft)) ψ (ξ ft))} = —*2 Σ -4k Μ sm —Η/ι)5,η —i^j. Представив синус в виде sin χ = (ej* —. eH*)/2j и взяв математическое ожидание, получим 1фЪ кФъ *с«ь«-~ 2 2 i/г <MJ*i, j<>*), (3.5.7) k=— с где Ф2 ΟΰΊ> J^)— двумерная характеристическая функция случайного процесса ξ (/). Применительно к интересующему нас гауссовскому стационарному процессу с нулевым математическим ожиданием характеристическая функция дается формулой (2.5.16) при /П| = 0. Поскольку нелинейная функция φ (ξ) нечетная, математическое ожидание шума квантования равно нулю и его корреляционная функция совпадает о ковариационной функцией. В результате несложных преобразований получим «fc(t) = *t(t) = №ъ π2 22 Xsh (f**w) £=1 π2 L· Φ /ι=1 2π2 (-0/+*+1 c~~ ik (i2 + k*) Χ 4 я2 π2 • / \Φ π* sh [ — П W) + 384
2Л2 *=1 k = \ где β = AVD | — «глубина» квантования. При β <g 1 в формуле (8) можно пренебречь двойной суммой. Заменив гиперболический синус его асимптотическим представлением sh* 7x7 е*/2, χ > 1, получим [135, 136, 86] Отсюда находим дисперсию шума квантования DE -*t(P)-iU. у -L.i£L. * JL. (3.5.10) Рассмотрим частный пример, когда г ξ (τ) = sin Ωτ/Ωτ. Такая нормированная корреляционная функция соответствует процессу ξ(ί), спектральная плотность которого постоянна и отлична от нуля только в полосе частот |ω| ^Ω. По формуле (2.3.12) спектральная плотность шума квантования Разлагая sin Ωτ/Ωτ в степенной ряд и ограничиваясь первыми двумя членами, получаем [135, 86] *«■)-*£ Σ ±J«4> (-■%*<>■«■)«»·»*- /1=1 о = _^Ι_ т/Ж у ± 6χρ f 2fiS=_). (3.5.12) 2π2 Ω Μπ ^1 «з *Ч 8«2 π2 Ω«/ ν ' Из формулы (9) следует, что при β < 1 корреляция между значениями ошибки квантования отсутствует. Поэтому спектр ошибки квантования приближенно равномерен в диапазоне частот, превышающем ширину спектра исходного процесса. Если проделать вычисления, аналогичные выполненным при выводе формулы (9), и воспользоваться известным соотношением J M fee"*)- »<*fl^i*> I , где Ф20^1> j^*) — двумерная характеристическая функция случайных величин ξχ и |2, то можно получить формулу для взаимной корреляционной функции исходного процесса ξ (t) и шума квантования ζ (t) [136]: 13 Зак. 956 385
%W = 2/?ft(t)2 (-l)*"!exp(—^"). (3.5.13) При β < 1 абсолютная величина взаимной корреляционной функции Rn (τ) мала, и поэтому шум квантования и исходный квантуемый процесс обычно считают некоррелированными. Получим одномерную плотность вероятности шума квантования, для чего предварительно найдем его характеристическую функцию оо (DE(jfl)= f eJ*«»p(5)dg. (3.5.14) — оо Разложим в подынтегральном выражении периодическую функцию ехр 0"Φψ(£)) в ряд Фурье: efl>* <*) = х\ спе* n2nV*a Л =— оо где А/2 Δ/2 — Δ/2 —Δ/2 sin (»—2π/ι/Δ) Δ/2 (φ—2πη/Δ) Δ/2 - * В результате подстановки этих выражений в (14) и перемены местами операций суммирования и интегрирования имеем Фс 0 *> - f f sin <Δ»/2-ηπ> е***'^ (ξ) dH = aJ J ΔΦ/2—nn « V φ / j 2я^\ sin (Δ^/2-.я) ^ Из обратного преобразования Фурье находим плотность вероятности шума квантования оо Л(8=~ J<Dc(j*)e-J*edd=- ρ—ОО « V φ Л 2т \ I Г sin (ΔΦ/2-/Μ) -j»; d ^ ^ δ Γ Δ / 2π J Δΰ·/2—пл После замены переменной интегрирования в соответствии с равенством Δχ/2 = Δ θ/2 — яя получим Л(0- J Ф|(]2-^-)е-'2^/д^ j-ib^-e-ИЛс. (3.5.16) 386
Так как sin (Αχ/2)/(Δχ/2) есть характеристическая фудкция равномерной плотности вероятности ρζ (ζ) = 1/Δ при \ζ\ ^ Δ/2, то выражение (16) приводится к следующему виду [1371: й© = 7 J Φ|(ί *=->-'»"*'*. |ζ|<Δ/2 или Λ(δ> = χ + χ 2 Ф5(]2-^)е-,2пя£М, |ζ|<Δ/2. (3.5.17) П= — оо Из формулы (17) следует, что если характеристическая функция исходного процесса ξ (/) удовлетворяет условию Φ ξ 0'2πη/Δ) = 0 при всех η φ 0, (3.5.18) то шум квантования распределен равномерно в интервале (— Δ/2, Δ/2). Условие (18) выполняется лишь для немногих распределений, например для равномерной и треугольной плотностей вероятностей: t _ sin (Mfl/2) *© = { Ф| (jA) : 1/&Δ, —£Δ/2 < ξ < &Δ/2, ^= 1,2,3,. 0 при других ξ; φξα^)-45ίη2^/2), ς VJ ' № Δ2 ΰ·2 ( (1 +ξ/Μ)/£Δ, —Afe < Κ 0, Λ(δ) = | (1—ξ/£Δ)/&Δ, 0<ξ<Δ£, Α =1,2,3, ..., Ι 0 при других ξ. В остальных случаях, когда условие (18) не выполняется, формулу (17) удобно использовать для оценки степени отклонения плотности вероятности шума квантования от равномерной. При квантовании га- уссовского процесса с нулевым математическим ожиданием и дисперсией D ι плотность вероятности шума квантования имеет вид ^(0 = ^-[l+2 2cos(-^-)eXp(-^)], |t|<i-. (3.5.19) На рис. 3.42 приведены графики, рассчитанные по формуле (19). При уменьшении параметра β плотность вероятности шума квантования стремится к равномерной и при β <С 5 практически от нее не отличается. О синтезе квантователя Иногда применяют переменный шаг квантования для того, чтобы уменьшите искажения сообщения при его восстановлении. В качестве количественной меры искажения может быть взята величина 13* 387
*·» hs Ι/ζζ ~/l Ofl J Ofi \J}=25 - \ ^Д \ /C~ 0,1 0,01 Ot001 Ы. Ί4 ГН '0,5 0,5 φ Рис. 3.42. Плотность вероятности шума квантования гауссовского процесса при разных значениях параметра β k=logzL Зависимость Рис. 3.43. минимальной средней квадратической ошибки квантования от числа уровней ^/2 *< -L/2 *'+! + Σ . / (*—Уд pi (χ) d*> (3.5.20) где (ξ — t)i) — ошибка квантования; yt — квантованное значение, соответствующее сообщению ξ (/)>0, заключенному в интервале (χ*_χ, Xi), и сообщению ξ (/) < 0, заключенному в интервале (хи xi+1); /(ζ)— некоторая функция мгновенной ошибки. Условия, необходимые для нахождения минимума величины ε при заданном числе градаций L, получаются приравниванием нулю результатов дифференцирования выражения (20) по χ (при χ = xt) и уj при — LI2 < /, / < L 12. Решить таким образом полученную систему уравнений при произвольной функции / (ζ) невозможно. В [138] получено численное решение и приведены необходимые таблицы для расчетов в случае, когда / (ζ) = ζ2, т. е. когда величина ε представляет собой средний квадрат ошибки квантования. Часто имеет большое практическое значение обратная задача: при заданной функции / (ζ) = ζ2 определить величину шага квантования, который дает наименьший средний квадрат ошибки при фиксированном числе ступеней квантования L. Применительно к нашему случаю, когда характеристика квантователя есть нечетная функция и квантуемый процесс ξ (ή гауссовский, выражение (20) приводится к виду ε = L/2 χ. { 21) 388
Таблица 3.2 Характеристики квантователя L-2' emin-0'3634 / 0 xi 0,0 Уг+t 0,7980 L==4' 8mln=0'1175 i 0 1 1 xi 0,0 0,9816 "*+i 0,4528 1,510 L=8> «min=0·03454 i 0 1 2 3 xi 0,0 1 0,5006 1,050 1,748 "i+i 0,2451 1 0,7560 1,344 2,152 L=16, 8тШ = 0,009497 i 0 1 2 3 4 5 6 7 xi 0,0 0,2582 0,5224 0,7996 1,099 1,437 1,844 2,401 *t+l 0,1284 0,3881 0,6568 0,9424 1,256 1,618 2,069 2,733 L = 32, 8mln=0,002499 / 0 1 3 4 6 7 8 9 10 11 12 13 14 15 xi 0,0 0,1320 0,2648 0,3991 0,5359 0,6761 0,8210 0,9718 1,130 1,299 1,482 1,682 1,908 2,174 2,505 2,977 "*+i 0,06590 0,1981 0,3314 0,4668 0,6050 0,7473 0,8947 1,049 1,212 1,387 1,577 1,788 2,029 2,319 2,692 3,263 Прц фиксированном значении L минимизация среднего квадрата ошибки (21) путем подбора у% и xt была выполнена численными методами [138]. Результаты для типичных значений L показаны на рис. 3.43 и приведены в табл. 3.2. Нетрудно убедиться, что вероятности нахождения процесса в различных интервалах неодинаковы, 3.6. ФУНКЦИОНАЛЬНЫЕ ПРЕОБРАЗОВАНИЯ СИГНАЛА И ШУМА Задачи о функциональных преобразованиях суммы сигнала и шума наиболее часто приходится решать применительно к устройствам трех типов, которые условно можно назвать «нелинейные» усилители (обычные усилители, преобразователи частоты, умножители и др.), детекторы и корреляционные устройства (рис. 3.44). При анализе преобразований суммы сигнала и шума в таких устройствах применимы прямой метод и метод характеристических функций, изложенные в § 3.4. Однако полезные радиосигналы и шумы, воздействующие на нелинейные элементы в этих устройствах, обычно являются узкополосными. Этот факт позволяет упростить анализ. Рассмотрим сначала преобразование суммы сигнала и шума в усилителях и детекторах, а затем в корреляционных устройствах. 389
Нелинейные усилители и детекторы Примем, что случайный процесс ξ (t)t воздействующий на вход безынерционного элемента с характеристикой η (t) = g (ξ (/)), представляет собой сумму радиосигнала и шума, т. е. 6(0 = *(0 + *(0, (3.6Л) где s (t) = a (t) cos [ω0ί -f * (01 — полезный узкополосный радиосигнал, модулированный по амплитуде и фазе; n(t) = A (t) cos lm0t + + Φ (01 — независимый от сигнала s (t) узкополосный гауссовский стационарный шум с нулевым математическим ожиданием и корреляционной функцией вида R(x) s= Dp(x) cos ω0τ. (3.6.2) Узкополосный фильтр с центральной частотой to Ш безынерционный элемент V(t) = g(Z(t)) i Узнополосный. фильтр. с центральной частотой fo т а) ф) Узнополосный фильтр ? центральной частотой Kfo $М Безынерционный элемент Узнополосный фильтр с центральной частотой ~6) ф) ΨΗ4 ?(t) ъю Узнополосный фильтр о центральной частотой fo I X т№ ФНЧ W б) Рис. 3.44. Нелинейные устройства: а -г усилитель; б — детектор; в — взаимокорреляционное устройство Известно [70], что сумму (1) можно представить через огибающую V (0 и случайную фазу ψ (0: ξ (0 = V (0 cos [ω0ί + Φ (0 + Ψ (01, (3.6.3) где V (0- ЦАе (ή + α (W + Ai(0}1/2 > 0, tg ψ (0= , f°+n (О (3.6.4) Ае (0 = А (0 cos [φ (0 — О (01, As (0 = A (0 sin [ψβ) — Φ (01. (3.6.5) Совместная плотность вероятности огибающей V (t) и фазы tf (0 в один и тот же момент времени при фиксированных значениях «амплитуды» радиосигнала a (t) и его фазы 0· (0 дается выражением a*—2aucos\\)+v2 \ (3 6 6) ρ(Ό9 $|α, ^) = -^-βχρ(- 2D 390
Отсюда находим плотность вероятности огибающей π p(v\a)= J/7(o,*|o,*)d* = ^-e4)( £t*_) Ie (J2-) , (3.6.7) где /0 (*) — функция Бесселя нулевого порядка от мнимого аргумента. Можно убедиться, что k-й момент огибающей равен оо M{F*}=f Okp(v\a)dO = (2D)W r(— + l) x о хЛ(--|-;1;-а«/2о), (3.6.8) где ±FX (α; β; — χ) — вырожденная гипергеометрическая функция (3.3.88). Выходное колебание безынерционного элемента η = g (V cos θ), где θ = ω0ί + Φ + ψ, есть четная, периодическая функция результирующей фазы Θ. Поэтому для любого значения θ оно может быть представлено рядом Фурье [144]: 4 = g (V COS θ) = -у g0 + gx COS 0 + g2 COS 2Θ + ... =; = γ§* (V) + gl (V) cos (ω0 t + $ + q>) + g2 (V) cos (2ω0 f+ 2Φ+2γ) + ..., (3.6.9) где π gk (V) = -L [g (у cos0) cos^9d0. (3.6.10) я J —Jt Зависимость gft (V) принято называть колебательной характеристикой. Вид этой характеристики определяется видом нелинейной функции 2(1). ... Первый член g0 (V)/2 правой части выражения (9) представляет собой составляющую выходного колебания элемента, которая является основной при детектировании, второй член g± (V) cos (ω0 t + Φ + ψ) представляет составляющую выходного колебания, спектр которой расположен в окрестности частоты входного сигнала /0 = ω0/2π. Это слагаемое является основным для нелинейного усилителя или полосового ограничителя. Заметим, что в данном члене точно воспроизводится фаза входного колебания ξ (ί), но искажается огибающая. Остальные слагаемые в правой части (9) представляют собой составляющие, спектр которых сосредоточен в окрестности соответствующих гармоник входного сигнала s (t). Если за нелинейным элементом следует узкополосный фильтр, пропускающий гармонические составляющие в окрестности частоты kf0 = k(o0/2n (рис. 3.44), что процесс ζ (ί) на выходе этого фильтра будет обусловлен слагаемым gk(V)cosk (ωοί + Φ+ψ). 391
Так, например, для умножителя третьей гармоники частоты выходного сигнала нужно положить k = 3. Определим полный выходной сигнал как условное математическое ожидание Му, <ψ {η |я, Ό1} выходного процесса η (t) при заданных «амплитуде» a (/) и фазе # (t) входного полезного сигнала s (t) в один и тот же момент времени. Здесь математическое ожидание (вероятностное осреднение) берется по входному шуму п (t)9 т. е. по огибающей V и случайной фазе ψ, что и отмечено соответствующими индексами. Это математическое ожидание может зависеть от времени через a (t) и ΰ1 (ί). Физически такое определение можно оправдать тем, что если входной сигнал s (t) или его «амплитуда» a (t) изменяются периодически, то с помощью фильтров можно выделить гармонические составляющие выходного процесса, включая и постоянную составляющую. Полный выходной сигнал Μγ, <ψ {η | я, &} в общем случае содержит постоянную составляющую, низкочастотную компоненту и «гармонические» составляющие. В отдельных частных применениях необходимо рассматривать соответствующие слагаемые в правой части (9). При этом k-я гармоника выходного сигнала ΝΙν, <ψ {gu (V) cos k (ω0ί + Ό1 + + ψ) Ι α, ΰ*} является детерминированной функцией «амплитуды» a (t) и фазы ΰ1 (t) входного сигнала. Флюктуации полного выходного сигнала η (t) (или любого слагаемого правой части (9)) около условного математического ожидания назовем выходным шумом: η0 (/) = η (t) — My, <ψ {η (t) \a (t)7 ΰ1 (t)}. Можно убедиться, что выходной шум η0 (t) и выходной сигнал η (t) ортогональны и не коррелированы, т. е. математическое ожидание их произведения, осредненное по случайным параметрам сигнала и шума, равно нулю: Μ{ηο(0η(Ο> = Ο. Поэтому дисперсия выходного шума Dn и «мощность» выходного сигнала D8 определяются выражениями δη = Μ {[η-My, * {η |α, #}]2} = М {η2}-58, ϊ>β = Μβ^{[Μ^ψ{η|α,*}]2}. (3.6.11) Здесь индексы при операторе математического ожидания Μ указывают, по каким случайным величинам должно выполняться вероятностное осреднение. Определим отношение сигнал-шум по мощности на выходе устройства как отношение мощности выходного сигнала к дисперсии выходного шума: Сюда в каждом частном случае в качестве η нужно подставлять соответствующее слагаемое правой части равенства (9), за исключением первого слагаемого g0 (V)/29 которое содержит постоянную составляющую Μ {g0 (V)/2). Она не несет полезной информации, поскольку от- 392
лична от нуля при наличии только одного шума η (/), и поэтому не может рассматриваться как составляющая выходного сигнала. Исключив из первого слагаемого постоянную составляющую, получим низкочастотную компоненту выходного сигнала A-M^-Lft (V) ΐή-M^go (V)}. (3.6.13) Так как Μ {h} = О, то низкочастотный выходной сигнал и постоянная составляющая ортогональны. Поэтому средняя мощность низкочастотной составляющей выходного сигнала равна Ма {[Μν,φ {±g0(V) \a}]*} - [Μ {ig0 (V)}}\ Выражение для выходного низкочастотного отношения сигнал- шум по мощности примет вид ... Mg{[My.1,{go(V)|g}PMM{go(y)}]» Μ { rf (Ю}-Мв {[Μ {g0 (V) | а}]*} Применительно к обычной технике приема радиосигналов всегда желательно, чтобы низкочастотный выходной сигнал h (t) точно воспроизводил информационное сообщение λ (ί), содержащееся в радиосигнале s (t). Разделим h (t) на две составляющие: одна из них воспроизводит сообщение λ (ί), а другая ортогональна ей. Если первая составляющая равна с λ (ί), то вторая h (ί) — сХ (ί), причем Μ {λ (t)h (t) — ok* (t)} = 0. Отсюда с = Μ {λ (t) h (ί)}/Μ {λ2 (*)}и, следовательно, неискаженная составляющая выходного сигнала равна λ (t) m{X(t)h(t)}/M {λ2 (ί)}. (3.6.15) Остальная часть выходного низкочастотного сигнала представляет разность между ft (t) и составляющей (15) и характеризует искажения. Например, если λ (/) есть сумма гармоник с несоизмеримыми частотами, то эта, вторая часть будет состоять из вторых и высших гармоник, а также различных комбинационных частот, причем эти составляющие будут ортогональны λ (t). Итак, низкочастотное слагаемое g0 (V)/2 в правой части (9) разложено нами на четыре взаимно ортогональные составляющие: неискаженную составляющую информационного сообщения, искажения, выходной шум и постоянную составляющую. Запишем выражение для отношения сигнал-шум на выходе идеального полосового фильтра, который неискаженно выделяет k-e слагаемое выходного процесса (9). В соответствии с введенным определением находим k-ю составляющую выходного сигнала как условное математическое ожидание слагаемого gk (V) cos k (ω0ί + ΰ1 + ψ) при фиксированных значениях «амплитуды» и фазы входного радиосигнала: со JI η«, k if) = j dv J gh (v) cos (foo01+Μ -f Щ) ρ (ν, ψ Ι a, ■&) ώ|>. ο —π Подставив сюда (J) и выполнив интегрирование по ·ψ, получим 393
!W (9 = As,h cos k (e»0 + О), (3.6.16) где Л, * - eXPp8) j οΛ (ο) I» ( f-) е-"'» db; (3.6.17) 0 Ife (#) — функция Бесселя &-го порядка от мнимого аргумента (Н-10); р? = a2/2D (3.6.18) — отношение сигнал-шум по мощности на выходе при фиксированной амплитуде радиосигнала, равной а. Мощность (дисперсия) й-й составляющей выходного сигнала, очевидно, равна Ds,k=Alk/2. (3.6.19) Полная мощность (дисперсия) &-го слагаемого выходного процесса (9) равна Dk = Μ {gl (V) cos2 k К / + Φ + Щ = Μ {gt (V)/2). Подставив сюда плотность вероятности (7), получим % = -^=^- jorf (о) I.(-^)е-"'»Λ. (3.6.20) о Дисперсия шума в k-й спектральной зоне Αι, * = Аь—A, k. Теперь записываем выражение для интересующего нас отношения сигнал-шум на выходе Р§ = 4^ = ——} · (3.6.21) Отношение сигнал-шум на выходе изменяется по сравнению с отношением сигнал-шум на входе в qk раз: Як = Р8/Р/ = РГ2/(25Й A~t -1). (3.6.22) Для получения количественных значений р§ нужно при заданной колебательной характеристике qh (V) выполнить интегрирование в выражениях (17) и (20). Однако некоторые результаты общего характера можно получить без интегрирования. В частности, найдем вид колебательной характеристики gk0 (V) = gfftopt 00» ПРИ которой р§ максимально для произвольного, но фиксированного р/2 [145, 146]. Из (21) видно, что ро достигает максимального значения при максимальной величине отношения у - А1 kj2Dh = р§/(1 + ρδ). (3.6.23) 394
Подставив сюда выражения (17) и (20), имеем ΓΓ«»(«')Ι*(-^)·-,/ΙΟΛ -91) И К ' У = ехр(- D (3.6.24) J«*i м ь (-£-)·-■ /2Ddv Чтобы найти максимально возможное значение у, воспользуемся неравенством Шварца-Буняковского (II-8), положив в нем / (v) = VTgk (v) Ii/S (av/D) exp (-cV4D), g (v) = VTlft (ot/jD) I0~1/2 (да/D) exp (—o»/4D). (3.6.25) Из неравенства (11-8) следует, что#^г/ш, где fc _ML jV(i)u^)ИР(_£)* ,з.в.2а, 0 Численным интегрированием этого выражения можно найти значение ут и, следовательно, получить максимальное значение выходного отношения сигнал-шум а также Ро ты = Ут1(1—Ут)> ЦК max — Ро max /р/ — Ут/р/ ί1 ~#т)· Значения ?&, тах (р/) (3.6.27) (3.6.28) Таблица 3.3 Номер гармоники 1 2 3 4 Номер гармоники 1 j 3 4 Входное отношение сигнал-шум pf 0 1 о о 0 . 0,5 1,054 0,136 0,016 0,002 1 1,141 0,197 0,037 0,006 | 2 | 3 1,320 0,267 0,072 0,019 1,472 0,312 0,096 1 0,031 Входное отношение сигнал-шум р/ 4 | 5 1,587 0,344 ! 0,115 ι 0,042 1,669 0,368 0,129 0,051 10 | 15 | оо 1,843 0,428 j 0,168 j 0,079 1,906 0,436 0,187 0,088 2 0,500 0,222 0,125
ho 1 0,5 h=0 1S— 10 20 av/n Рис. ные 3.45. Оптимальные колебатель- характеристики при различных номерах гармоник k полнении условия (И-9). Из этого Результаты расчетов qkt raax для нескольких значений k и р* приведены в табл. 3.3. Полученные значения qht max ограничивают сверху область возможных значений qk для любого вида зависимости η = g (ξ) (любого вида колебательной характеристики gh (V) при заданном р?). Найдем теперь вид колебательной характеристики gk0 (У), при которой достигается максимальное значение р§тах· Учтем, что неравенство (П-8) переходит в равенство при вы- условия получим guo (V) = h (aV/D)/l0 (aV/D). (3.6.29) Вид оптимальной колебательной характеристики зависит от номера гармоники k (рис. 3.45) и от отношения сигнал-шум на входе р? (рис. 3.46). В зависимости от отношения сигнал-шум р* колебательная характеристика g10 (V) деформируется от характеристики линейного преобразования (р*-> 0) до характеристики идеального ограничения (р/2-> оо). Найдем выходной сигнал, выходной шум и другие характеристики для достаточно общего примера — однополупериодного выпрямителя v-й степени вида (3.4.59): η(t)=g(I(0) = { Г0(/)> |J °Q' ν>о. js.6.30) Если подставить (30) в (10), учесть, что V (t) > 0, и воспользоваться известным интегралом Я/2 cos θ cos k'Q d θ = —-- = 2V+J (v + 1) Β [l+(v+A>)/2; l+(v—k)/2] ί Γ (ν + 1) 2V+1 Γ[1 + (ν+Α:)/2] Γ(1 + (ν—k)/2] ,V-£ + 2>0, где В (х, у) — бэта-функция; Г (х) — гамма-функция, то получим π/2 gh (V) = — ί* -V" cosv θ cos Ш0 = bh (ν) V » (3.6.31) где 6fc(v)-2-vr(v+l)/r(^±i+i)r(^-+l). (3.6.32)
Когда ν — целое число и k — ν -}- 2, ν + 4, ν + 6 то в выходном процессе (9) спектральные составляющие gh(V) в окрестности этих частот k будут отсутствовать. Отметим, что если вместо однополупериодного выпрямителя (30) рассматривать двухполупериодный с характеристикой η (t) = | l(t) |v для всех ξ, то, как видно из (10), в выходном процессе все четные гармоники (включая и низкочастотную составляющую) удваиваются по сравнению с предыдущим случаем, а все нечетные отсутствуют. Аналогично для двухстороннего выпрямителя с нечетной симметрией: η (ί)= = lv (t) при ξ > 0 и η (ή = — (— ξ (t))v при ξ < 0, в выходном про- Рис. 3.46. Деформация оптимальной колебательной характеристики при k=l в зависимости от отношения сигнал-шум р/ цессе удваиваются все нечетные (включая и составляющую на основной частоте) и отсутствуют все четные гармонические составляющие. Когда ν — целое четное число, выходной процесс двухполупериод- ного выпрямителя (9) содержит только (ν/2) +1 слагаемых, поскольку в данном случае cos ν θ можно выразить через cosv0, cos (v — 2) θ, cos (ν — 4)θ 1. Например, cos40 = (1/8) cos49 + (l/2)cos 2Θ + +3/8. Аналогично если ν — нечетное целое число, то процесс на выходе устройства с характеристикой η = α|ν для всех ν будет содержать только (ν +1)/2 слагаемых — нечетные гармоники до ν -й включительно. Нелинейную характеристику однополупериодного выпрямителя (30) можно представить в виде полусуммы двух характеристик двухпо- лупериодного выпрямителя: четной и нечетной. Поэтому выходной процесс однополупериодного выпрямителя при целом ν содержит только конечное число четных или нечетных составляющих соответственно при четном и нечетном v. Вычислим k-ю составляющую сигнала на выходе однополупериодного выпрямителя (30), когда на него воздействует сумма (3) радиосигнала и узкополосного стационарного гауссовского шума. Для этого в выражение (17) нужно подставить gk (ν) = bk(v) vv. Воспользовавшись при выполнении интегрирования известными соотношениями (3.3.22) и (И-6), получим 397
As, * = bk (ν) г(-^±1 + l) (α* 1Щ (2D)(v-*)/2 Λ LtzL ■ k +1; _ ~)·· * (3.6.33) Мощность &-й гармонической составляющей находим по формуле (19): Qsk β2ν-*-ι«(ν)[Γ(-^.+ l)^l]2Z)v-* χ Χ Μα{«2*^? (ί=1; Α+1; --£-)} · (3.6.34) Если интересоваться низкочастотной составляющей выходного процесса, то здесь нужно положить k = 0 и, как следует из (9), ввести множитель 1/2, а затем вычесть из полученного выражения постоянную составляющую, которая равна \ h (ν) Γ(-1 + l) (2Z>)v/s Μα {Λ (—2- ; 1; —£)}. (3.6.35) Здесь математическое ожидание берется по «амплитуде» входного сигнала. Согласно (20) с применением формулы (8) находим полную мощность k-το слагаемого выходного процеаеа: Dk = 2ν- ι ft{ (ν) Γ (ν+1) D^ Μα {^ (-ν; 1; -a2/2D)} (3.6.36) при ν > 1 и половине этого выражения при ν = 0, а также находим дисперсию выходного шума в k-й спектральной зоне: Z)n, k = Dk — — D$,k. По формуле (21) определяем отношение сигнал-шум на выходе в k-й спектральной зоне ^+.Н^(^*+Г?)}, (3„7) (А!)» Г <v + l) M. {Л (-v; l;-p/)-£} V ' L=r *[ψ-+ ») Ч ρ<ν » (-г15 *+1: -ρ<)} · Здесь математические ожидания берутся по случайной амплитуде входного радиосигнала а, от которой зависит отношение сигнал-шум на входе pf = а2/2D. Выше отмечалось, что если ν — целое число и k =* = ν + 2, ν + 4, ..., то 6λ (ν) = 0 и* в выходном процессе отсутствуют составляющие в этих спектральных зонах. В этом случае выражение (37) следует рассматривать как предел отношения сигнал-шум на выходе при стремлении ν к соответствующему целому числу. Аналогично в соответствии с (13) найдем отношение сигнал-шум на выходе в области низких частот (fe = 0)з 398
ψ("Τ;Ι;-ρί}- Γ (ν+1) Г-2(~-+ l) Μα {Λ (-ν; 1; -ρ/)} - ~[Μ«{Λ(~Τ; 1; —ρ/ pl· (3.6.38) Если амплитуда входного радиосигнала постоянна (α = const), то Ρο = 0 и в формуле (37) не требуется вычислять математические ожидания. Используя соотношение XFX (α; β; —χ) = χ~α Γ(β)/Γ(β—α), можно показать, что в этом случае для больших ρΐ выражение (37) приводится [к виду ρ§~2ρ?/(β2 + ν2). (3.6.39) Наоборот, воспользовавшись приближенным представлением вырожденной гипергеометрической функции для малых значений pf [90], из (37) получим Отношение сигнал-шум на выходе (28) уменьшается с увеличением k. При заданном k это отношение достигает наибольшего значения при ν = k. Поэтому нелинейный элемент (30) k-й степени является оптимальным для получения k-й гармонической составляющей. В тех случаях, когда амплитуда входного радиосигнала а непостоянна, выражение (37) приближенно равно математическому ожиданию от (40) при малых значениях р^ и р§ = M{a*v}l(k* + ν2) DM {a2*-2}. (3.6.41) для больших pt. При этом выражение (88) принимает вид при больших отношениях сигнал-шум на входе р{ и pg= £ , ,"И-Р*ИР (3.6.43) / ν \ 16£>2 Γ(ν + 1)Γ^(γ + ΐ]-1 для малых pt. Отсюда следует, что отношение сигнал-шум на выходе устройства в области низких частот пропорционально квадрату мощности входного сигнала, когда он слаб, независимо от значения v. (В случае идеального ограничителя, для которого ν = 0, низкочастотные сигнал и шум на выходе отсутствуют). При этом для слабого входного сигнала отношение сигнал-шум на выходе оказывается значительно меньше, чем на входе. В инженерной практике этот результат часто 399
называют явлением подавления слабого сигнала шумом. Первый сомножитель в правой части выражения (43) имеет наибольшее значение при ν = 2. Следовательно, среди всех «степенных» детекторов квадратичный детектор обеспечивает получение наибольшего выходного отношения сигнал-шум в низкочастотной области при малых значениях сигнал-шум на входе. Пример 3.6.1. Отношение си гнал-шум на выходе некоторых устройств. Полосовой ограничитель (ν = 0). Полосовым или узкополосным ограничителем называется устройство, состоящее из последовательно соединенных безынерционного нелинейного ограничителя и идеального полосового фильтра первой спектральной зоны. В том случае, когда ограничитель идеальный, указанное устройство можно назвать идеальным полосовым ограничителем. Полосовые ограничители нашли широкое практическое применение в приемниках ЧМ и ФМ радиосигналов для «устранения» амплитудных флюктуации суммы сигнала и шума. Рассмотрим идеальный полосовой ограничитель. Чтобы найти отношение сигнал-шум на выходе в первой спектральной зоне, нужно в формуле (37) положить k =■ 1 и ν = 0, а также учесть соотношения Л(0; 1; -РЛ = 1> Л (γ; 2; -ρή^Ι^γρή+^-γρή]* Хехр(~Тр'2)' Предположим, что радиосигнал имеет постоянную амплитуду a(t) = а = const. При этом pj будет постоянной величиной и формула (37) примет вид р/ ==4exp(p?)-np/[I0(p//2) + I1(p/?/2)]2i ( " " } График зависимости pj/p/ от р? приведен на рис. 3.47. Из (44) получим pj = = (π/4)ρ/ при малых значениях р$, что согласуется с выражением (40), и, как следует из (39), р^ = 2р/ для больших р/. Таким образом, идеальный узкополосный ограничитель может изменять входное отношение сигнал-шум между 10 lg (π/4) = —1,05 дБ и 10 lg 2 = +3 дБ. Последнее увеличение отношения сигнал-шум на выходе можно объяснить тем, что ограничитель устраняет компоненту входного шума Ас (t)t которая синфазна с входным сигналом и обусловливает лишь несущественные в данном случае амплитудные флюктуации сильного сигнала. «Линейный» усилитель и детектор (ν = 1). Если положить k = ν = 1 в формуле (37), то получим отношение сигнал-шум на выходе «линейного» усилителя в области основной частоты радиосигнала. Чтобы найти отношение сигнал-шум на выходе «линейного» детектора, нужно в формуле (38) положить ν = 1. Учтя при этом известные соотношения Л(-1; 1; -р*) = 1+р?, гРг (--у ; 1; -р*) = . =[θ +P/) ίο (γ ρ/)+ρ/ ΐι (γ Ρ/)] exP (-γ Ρ/2)> м {е-р'2 [(ΐ +?t) 4p/V2)+P/2Ii(P/2/2)]2}- получим ρ2, = Μ {(4/Д) (1+Ρ,2)_е_р'' [(1 +Ρ?) h (P,2/2) + -Μ* {e~P'/2 [Q +Ρ?) Ιο (Ρ/72)+ ΡΪ h (P//2)]} +P/2W/2)]2} (3.6.45) 400
В общем случае вычисление математических ожиданий требует численного интегрирования с плотностью вероятности амплитуды входного сигнала я, от которой зависит р| = a?/2D. При а = const низкочастотный сигнал на выходе отсутствует и pj = 0. В двух частных случаях, когда входной сигнал очень сильный или очень слабый, формула (45) существенно упрощается и отпадает необходимость в численном интегрировании. В первом случае формула (45) переходит в (42), которая при ν = 1 принимает вид р? =M{aV£>}—lM{a/D}]*. (3.6.46) Для слабого сигнала формула (45) переходит в (43), причем первый сомножитель в ней справа при ν = 1 будет равен π/(4 — π). Рис. 3.47. Зависимость отношения Pj/p/ от Р? для идеального ограничителя Рис. 3.48. Характеристика ограничителя Квадратичный детектор (ν = 2). Воспользовавшись соотношением Λ (-2; 1; -*) = 1 + 2х + (1/2)**, из формулы (38) при ν = 2 находим отношение сигнал-шум на выходе в низкочастотной области Ро2 = м{р/4}-[М{№__ ι 1 +2М {р*} 4D D+M{a2} (3.6.47) Для нахождения отношения сигнал-шум на выходе в зоне второй гармоники нужно в формуле (37) положить k = ν = 2. При этом получим % (1/2) Μ ДО} Ро~~ Μ {а*} 1+2МДО} SD D+M{a*} (3.6.48) Пример 3.6.2. Квазиоптимальный полосовой ограничитель [146, 150]. Выше было установлено, что нелинейное устройство, представляющее собой последовательное соединение безынерционного элемента и полосового фильтра, может изменять отношение сигнал-шум не более чем в qkt max раз. Это значение достигается в том случае, когда колебательная характеристика определяется выражением (29). При других нелинейных характеристиках отношение сигнал-шум на выходе устройства меньше предельного. Представляет интерес вопрос о том, насколько отношение сигнал-шум при реальных характеристиках отличается от предельного. В качестве конкретного примера рассмотрим полосовой ограничитель с характеристикой нелинейного элемента (рис. 3.48) 401
hmtuTtl }°/r 5f ч$ Рис. 3.49. Изменение отношения сигнал-шум на выходе полосового ограничителя в зависимости от апертуры характеристики Рис. 3.50. Влияние смещения на изменение отношения сигнал-шум 0, (3.6.49) К1ь ι. &>Ь, где Δ = |« ~ Si — апертура (ширина линейного участка) характеристики; ξ0 = = (gt + 12)/2 — середина линейного участка характеристики. Вычислим колебательную характеристику для первой гармоники g± (V)» Для этого (49) подставим в формулу (10). После интегрирования при k = 1, ξ0 > 0 получим Si 00 = 0, V ( 8ΐη_2θΛ ΙξίΙ<ν<ξ2, (3.6.50) sin2e^-sin292 \ ■ 2 j· ν>ξ2> V/Δ, V<\h\.b<0, где θχ = arccos (ξχ/У), θ2 = arccos (IJV). Укажем, что случай ξ0 < 0 можно свести к рассматриваемому вследствие осевой симметрии характеристики g (ξ) относительно ξ0· /Л«Х Подстановка выражения ft (10 в (17), (20) и использование формулы (21) позволяют вычислить отношение сигнал-шум pg на выходе полосового ограничителя и изменение этого отношения по сравнению с входным qx = p$/pf. Результаты расчета qt для случая ξ0 = 0, ρ/ = 0,5; 1 и 2 приведены на рис. 3.49. По горизонтальной оси отложена апертура ограничителя, нормированная относительно среднего квадрати'ческого значения входного процесса Yd^ = (α2/2+Ζ))1/3, т. е. δ = А/у/ТУ*. На рисунке штриховыми линиями показаны предельные значения qit max, заимствованные из табл. 3.3. Рисунок позволяет выбрать значение 402
параметра б, при котором <7ι достигает максимума и, следовательно, при этом значении б рассматриваемый ограничитель является квазиоптимальным. Имеем δορΐ = 2»4 ПРИ Pi = °»5'» ^oPt = U при р/ = 1 и 6opt = 1,1 при р? =2. Приведенные значения oopt получены для ξ0 = 0. Подбором смещения характеристики |0 можно добиться еще меньшего проигрыша в отношении сигнал-шум по сравнению с оптимальным значением. В качестве примера на рис. 3.50 приведена зависимость изменения отношения сигнал-шум qt для р* = 1 и разных значений б от нормированного смещения |</Т/#|· Видно, что при фиксированном pf = 1 изменение дисперсии входного процесса D^ в пределах 30% относительно расчетной, для которой 6opt = 1,7, а также вариации смещения ξ0 в пределах —0,5 < %JYD+ ^ 0,5 не приводят к проигрышу более чем на 1«. Корреляционные устройства Укажем путь получения выражения для плотности вероятности процесса на выходе взаимокорреляционного устройства (рис. 3.44) [151]. На входы корреляционного устройства воздействуют гармонические сигналы и совместно гауссовские стационарное шумы с нулевыми математическими ожиданиями. В результате преобразования их полосовыми фильтрами с одинаковой центральной частотой /0 == ω0/2η случайные процессы на выходе фильтров равны ξχ(0 = аг cos ω0ί + n^t), ξ2(0 ~ cl2 cos(<oo/+<p)+n2(0. (3.6.51) Узкополосные гауссовские коррелированные стационарные процессы пг (t) и п2 (t) можно представить в виде [70] nx(t) = Alc(t) cos(o0i — Au(t) sinco0i, n2(i) = A2c(t) cosco0i — A2s(t) smo)0t9 (3.6.52) причем Alc (t), A1$ (f), A2e (t) и А28 (t) являются совместно гауссов- скими стационарными случайными процессами. На выходе перемножителя получится процесс Я(0 = kUt) Ш, (3.6.53) где k — некоторый постоянный коэффициент (обычно его полагают равным 1 или 2). Имея в.виду, что за перемножителем следует фильтр нижних частот (ФНЧ), на выходе которого выделяется низкочастотный рроцесс, целесообразно η (t) представить в следующем виде: η (t) = (k/2) (а± + Alc) (a2cos<p + А2С) + (k/2) A1$ (a2sinq) + A2S) + + высокочастотные составляющие. (3.6.54) Низкочастотный процесс на выходе ФНЧ равен ζ (f) = (k/2) (ага2 cos φ + яхЛ 1С+ а2Л1с cos φ+α2 А1$ sin φ + AlcA2e + + A1SA2S). (3.6.55) Согласно определению записываем одномерную характеристическую функцию процесса g (ί)ι 403
R = ar σ2 (3.6.57) <D(jfl) = M{exp(jO£)} = oo βЯ ίίexp(Jd°p(^ic'Л2с*Ais'Ага)dAi°dA2edAudA2s' (3·6·56> — oo где ρ (Л1с, Л2С, Л18, -42s) — совместная нормальная плотность вероятности значений случайных процессов Alc (i), A2c(t), A1$ (t) и A2S (t) в произвольный, но один и тот же момент времени; соответствующая корреляционная матрица имеет вид ог1о2 μ 0 λ μ о2/о1 —λ О О —λ σ±/σ2 μ .λ 0 μ σ2/σχ J Если подставить нормальную плотность вероятности в (56) и выполнить интегрирование, то можно получить выражение одномерной характеристической функции Φ (jO). Плотность вероятности находится как преобразование Фурье от характеристической функции оо P® = ~L· J φ0*)«Ρ(-1θε)Λ>· (3.6.58) — oo В результате трудоемких и нетривиальных вычислений можно получить следующий окончательный результат [1511: при ζ^Ο X expf2(>'-,V'-'-')s11.(2KSt)+ 2"*"*> χ L а(1— г2) J А Γ2(μ—Τ/7^=λ^)ζ"| у 12η(2-]/αζ) Г * Ι-fJ Ί" F[ /С(1_Г2) *J^ Γ(2η + 1) [4 .VTZ^T J Χ χ £ο (т»г L4 ν»-λ2 J (3.6.58a) при £<С0 ,(0_^ Мр[А .^(«+в№.-^«1] X X -[^^^тЯ&'-от Χ 404
χ \JL I-'2 β1" у Г(т+л + 1)Г К \-t* Г [ 4 · УТ=ХТР] ^ («!)» [ 4 · уг=Х? J Здесь X F(—m, —m; 2η+1;β/α). a\ σ|—2μα1 a^ σ! σ2 cos φ -fag o\ Χ (3.6.586) α^ в (аъ α2) = exp | __ νσισ2(^~^Γ8) ι ac + bd 2fc(l—λ2)1/2 * α^ ' α2 (μ cos φ-[-λ sin φ) ■]· ο_ ·γσ1σ2(1—r2) . ac+bd af (1—γ2) α2 cos φ σισ2(1-Γ2) , b- (3.6.59) σ| (1—г3) σισ4(1—г») ,<Ь α2 (^ cos φ—μ sin φ) σισ,Ο—г·) fl2 sin φ λ% σ|(1-Γ2) _σχσ,Ο-r») ' _jg±**_ + c*+d* 2X(ad-bc) Γ2 = μ2 + λ2<1) r ^(l-r2) σ»(1-Γ·) σχσ,Ο-^· гл ^ Κ = &сгх σ2, Τ7(α; β; γ; λ:) — гипергеометрическая функция Гаусса. Укажем два частных случая, для которых формула (58) упрощается. 1. Пусть входные сигналы отсутствуют. Полагая в (58) аг = а2 =0, можно прийти к следующему выражению: |_J_ Γ2(μ-νΤ^)ζ-|ξ>0> ζ) I каг σ2 L *σι σ, (1 -г^ J {36Щ ^ехрР^1-ИЛл<0, I ^σ^ L ^σ!σ2(1—г2) J 2. Предположим, что аг = σ2 = 1, λ = 0, φ = 0 и αχ = α2 = = ]/" 2 ρ?, где ρ? — отношение сигнал-шум по мощности на входе каждого канала. В данном случае формула (58) приводится к виду: при ζ > 0 + k eXP| *(1+г) XI Al/^ww)i/7i(n+1;2n+1;TT7p|!): (3,6-61a) при ζ < 0 „(B-i. exp[_p? + TJL_]. (3.6.616) 405
РЩ 0,3 о,г 0,1 о Г —J Г- - Г о—\ I г°0 Л5 ίο Jl\ Р@ 0,3 о/ V о ' ' г υψ τ У ■0,5 r-f 40 1, j? Ζβ\ ■3 -Ζ Ί 0> 1 Ζ 3 ·4 5 6 ς -J-2-1 О 1 Ζ 3 Ч 5 6 ς р(<д\ о,ч OJ °А 0.1 w L\ Гч. ^ w f П=0,5 Ρ jA*A -3 -ζ -ι О .1 2 5 4 5 6$ Рис. 3.51. Плотности вероятности процесса на выходе взаимокоррелятора для одинаковых входных радиосигналов при четырех значениях отношения сигнал-шум на входе р/ и трех значениях нормированной огибающей корреляционной функции г Плотности вероятности (61) приведены на рис. 3.51 для четырех значений отношения сигнал-шум на входе pf и трех значений нормированной огибающей корреляционной функции узкополосного шума л В том частном случае, когда г = 1 (шумы каналов идентичны), взаимокоррелятор превращается в квадратичный детектор огибающей. При этом формула (61) существенно упрощается и переходит в хорошо известную плотность вероятности p(Q=J (1/*)βχρ(-ρί-ζ/*)Ιβ(|/^ρ/Ρλ £>0, (3662) Ί 0, ζ<0. Наконец, если компоненты шума некоррелированы, т. е. г = 0, то приняв для простоты &=2, получим А>(СН f (1/2) exp (-ζ-pl) Ιο (V8p! ζ) + exp (—ζ—2ρ/) Χ Χ | (-1)»[Γ(η + 1)/Γ(2η + 1)]ρ/"Ι2ιι(Κ8ρ7ζ) Χ <3·6·63) Χ £ (η+ 1; 2η+ 1; Ρ/2), ζ>0; (1/2) exp (ζ—Ρ/2), ζ<0. Отношение сигнал-шум по мощности на выходе взаимокоррелятора определяется следующей формулой: k2 of o\ at a2 cos2 φ Pl· tn^—mi Здесь щ = Μ {ζ (t)} = kax σ2 (pu pzl cos φ +/·), щ = Μ {ζ2 (0} = & σ? σ] [ρ?, p|, cos2 φ + ph/2 + pi/2 + + 3μΡυ Pzt cos φ—λραί p2l sin φ + plf V2 (Μ {Ale АЬе} + (3.6.64) (3.6.65) 406
+ Μ {Л2с Ац Л28})/2а1 σΐ + l/2p22/ cos φ (Μ\Α\с Л2с} + + Μ {Аи Α1$ ^})/2σ? σ2 + j/^pf^ sin φ (Μ {Alc A2c Als) + + Μ {AI A£)№\ σ2 + Μ {(Л1с Л,, + Λβ ЛЛ/4σ? σΐ], (3.6.66) Pi/Hpl/—отношения сигнал-шум по мощности на входе каналов: ρϊί = αϊ/2σϊ, ph = a22/2al (3.6.67) В частном случае, когда шумы в каналах некоррелированы (г =0), все математические ожидания в правой части (66) равны нулю, и (64) принимает простой вид Ρ§ = 2ρϊ, pi/ cos2 φ/(1 +ρΤ/ + ρ5/). (3.6.68) 3.7. ПРОСТЕЙШИЕ ОПЕРАЦИИ НАД ПУАССОНОВСКИМ ПРОЦЕССОМ Над случайными точечными процессами, как и над обычными процессами, могут выполняться различные преобразования или операции, например: наложение (суммирование) двух и большего числа процессов, «разрежение» по определенному закону, случайное смещение точек и др. В этом отношении точечный процесс Пуассона, подобно не- прерывнозначному гауссовскому процессу, обладает замечательным свойством устойчивости (инвариантности) по отношению к ряду преобразований, т. е. после некоторых преобразований процесс по-прежнему остается пуассоновским. Более того, при определенных условиях он правильно описывает асимптотическое поведение многих других точечных процессов. Рассмотрим некоторые операции над точечным процессом Пуассона. При этом ряд результатов будет приведен без доказательств [71]. Линейное преобразование Пусть целочисленная дискретная случайная величина ξ распределена по закону Пуассона с параметром λ Р{1 = k) = λ* е-* lk\rk = 0, 1, 2,... Нужно записать закон распределения случайной величины у) =a%+bf получающейся из ξ с помощью линейного преобразования. Рис. 3.52. Линейное преобразование закона Пуассона 407
Очевидно, что случайная величина η будет дискретной; она принимает значения ak + Ь с вероятностями Ρ{η = ak + b) = Р{1 = k) = λ* e-V£!, Λ = 0, 1, 2, ..., (3.7.1) так как у = ak -\- b тогда и только тогда, когда χ = k. Характер функций распределения Р% (х) и 7% (у) случайных величин | и η показан на рис. 3.52. Суммирование пуассоновских потоков Предположим, что имеется конечное число г точечных процессов и объединенный (результирующий) процесс формируется наложением (суммированием) этих процессов, как показано на рис. 3.53. Для процесса Пуассона справедливо следующее утверждение. Если имеется сумма конечного числа г взаимно независимых пуассоновских потоков Ν±(ί)9 ..., Nr(t) с интенсивностями %ъ ..., λΓ соответственно, то суммарный поток N (/) = Nt (t) + ... + Nr (t) является пуассоновским с параметром интенсивности λ = λ1 + ... -J-λ,.. 0М/-* : ^ ^Кф) 0\-лг ОЫз -* *- -*■ ι , - · · ' ' ' ! 7j<-| Hi(t) Рис. 3.53. Наложение трех точечных ι | процессов **-М Nj(t) Доказательство этого утверждения простое и базируется на том, что для суммарного потока N (t) остаются в силе три определяющих условия пуассоновского процесса (2.7.13) — (2.7.15). Действительно, так как отдельные процессы взаимно независимы, то P{N(t + At)-N(t) = l}= 2 P{Nt(t + At)-Nt(t) = l} = = 2 [λ,Δ* + ο(Δ/)] = λΔ* + ο(Δ0, λ= 2 λ*· (3J·2) Аналогично P{tf(f + A/)-tf(0 = 0} = Π ΡΜ0+ΔΟ-ΛΓ,(<) = <>) = = Π [1— λ,Δ/ + ο(Δ0] = 1— λΔί + ο(Δ0· (3.7.3) Наконец, поскольку значения ΔΛ^ = Λ^ (t + A/ft) — iVf (t) для разных ί взаимно независимы, когда интервалы Atk не пересекаются, то значения AN при разных неперекрывающихся интервалах Ath будут также независимы. Из методики доказательства следует, что сформулированное утверждение останется справедливым и для неоднородных пуассоновских по- 408
токов Nt (ί), когда функции интенсивности зависят от времени λ4 (t). В этом случае λ (t) = ^ (t) + ...+ λΓ (ί). Д. А. Райковым доказан обратный, более глубокий результат: если сумма нескольких независимых случайных величин распределена по закону Пуассона, то каждое слагаемое также распределено по закону Пуассона. Допустим, что интервал времени τ0 от начала отсчета до первого события в суммарном потоке имеет плотность вероятности λ ехр (— λτ). Обозначим аналогичные времена (рис. 3.53) для частных процессов N± (t), ♦.., Nr (t) соответственно Аь ..., ΔΓ, так что τ0 = min (Δΐ9..., ΔΓ). Эти времена независимо распределены с плотностями вероятности %i exp(—λ^τ), ι = 1, 2, ..., л Рассмотрим совместное распределение величины τ0 и номера потока, которому она принадлежит. Пусть известно, что τ0 = τ. Вероятность того, что это значение происходит от первого потока N± (t), равна Ρ{Δ! = τ, Af>t(i = 2,..., /·)|τ0 = τ}= ^ __ ρ{Δί=τ> Δ^>τ(* = 2,..., г), τ0=τ} __ Ρ{τ0=τ} «λχβ-λι^β-λ·*..· β~λ'·τ/(λβ~λτ) = λ1Α. (3.7.4) Видно, что полученное выражение не содержит τ. Поэтому систему независимых пуассоновских потоков можно трактовать следующим образом. Интервалы между последовательными событиями суммарного потока независимы и одинаково распределены с плотностью вероятности λ ехр (—λτ). Затем события привязываются к частным потокам N± (t), ..., Nr(t) случайным образом с постоянными вероятностями λχ/λ, ..., λΓ/λ соответственно. Приведем конкретную интерпретацию этого результата. Допустим, что электронные лампы имеют два типа отказов. Пусть немедленно после отказа лампа заменяется новой. Тогда следующие две трактовки будут эквивалентными: 1) отказы двух типов осуществляются как независимые пуассоновские потоки с интенсивностями λχ и λ2; 2) отказы происходят по пуассоновскому закону с интенсивностью λ = λχ + + λ2, и вероятность того, что какой-либо частный отказ принадлежит к первому типу, равна λχ/λ независимо от других отказов. В заключение приведем один важный результат, который имеет математическое доказательство [152]. Оказывается, что при сложении большого числа взаимно независимых случайных потоков (не обязательно пуассоновских) малой интенсивности суммарный поток близок к пуассоновскому. Ситуации, в которых случайный поток можно рассматривать как сумму большого числа независимых слагаемых потоков, встречаются довольно часто. Например, поток вызовов, поступающих на телефонную станцию, можно представить как сумму потоков вызовов отдельных абонентов. Поток отказов в сложной системе можно представить в виде суммы отказов отдельных блоков, составляющих данную систему. Найдем закон распределения для разности η = ξχ — ξ2, гДе независимые случайные величины ξχ и ξ2 имеют пуассоновские распределе- 409
ния с параметрами λ± и λ2: P{lx = k} = ^-e-\ P{S, = *} = ii.e-4 Л-0,1,2,... Запишем физически очевидное соотношение P{r\=n} = P{l1 = n}P{l2 = 0} + P{t1=n+l}P{l2=l} + ...+ Воспользовавшись известным представлением функции Бесселя п-го порядка от мнимого аргумента в виде ряда получим Хотя приведенные вычисления справедливы лишь для л ^ О, однако если повторить их для п<0и учесть равенство 1-п(#) = 1п (*)» то придем к заключению, что формула (6) останется справедливой и для отрицательных значений п. Поэтому целочисленная случайная величина г\ = | ξχ — ξ2Ι будет иметь закон распределения 1 e-(^+W[(V^/2 + (W>i),,/s]In(2yr^>a)f л-1,2,3,... (3.7.7) Разрежение потока - Пусть {и} — случайная пуассоновская последовательность координат точек на оси времени. Опишем кратко две операции разрежения точек и приведем для них окончательные результаты. Будем говорить, что последовательность подвергается операции случайного «разрежения», если каждая точка может быть исключена из дальнейшего рассмотрения с вероятностью γ, где γ — вероятность исключения. Предполагается, что операция исключения производится для каждой точки независимо, причем дается только одна попытка исключить каждую точку. После применения этой операции поток оставшихся точек {// } будет более редким. Справедлива следующая теорема. Если к последовательности координат точек {/*}, образующих пуассоновский поток с интенсивностью λ, применяется операция слу- 410
чайного разрежения с вероятностью исключения γ, то поток оставшихся точек является пуассоновским с интенсивностью (1 — у) λ. Доказательство этого утверждения легко получить проверкой трех определяющих свойств процесса Пуассона. Действительно, операция разрежения проводится одинаково при любом значении tu что обеспечивает свойство стационарности результирующего потока. Ординарность сохраняется очевидным образом; так, при разрежении количество точек может только уменьшиться. Отсутствие последействия сохраняется вследствие того, что исключение точек происходит каждый раз независимо от предыдущих результатов. 1 2 J 4 5 6 7 8 9 10 11 11 „ - 1#Лг| О I—X χ у х ху χ χ у χ χ у Процесс Nft) III I ОI #—>—Ж * &- Процесс Эрланга Рис. 3.54. Иллюстрация формирования потока Эрланга 2-го порядка из пуассоновского потока Предположим теперь, что разрежение точек в пуассоновском процессе N (t) с параметром интенсивности λ.осуществляется по-другому. Допустим, что, начиная с некоторого начального момента времени, все точки потока пронумерованы в порядке их появления во времени. Исключим все точки, кроме тех, номера которых кратны некоторому ,Л целому числу k + 1. На рис. 3.54 изображен частный пример k + 1=3. В результате такого исключения получим новый точечный процесс ΛΓ (/), называемый потоком Эрланга k-го порядка. Временные интервалы между последовательными событиями нового процесса И' (t) ^равны разности между моментами появления (i + &)-го и ί-го событий исходного пуассоновского потока. Поэтому плотность вероятности межинтервальных времен процесса Nr (t) будет определяться формулой (2.7.40), называемой формулой Эрланга: ρ (τ) = λβ~λ' (%t)k-4{k — 1)!, k = 1, 2, 3, ... '3.7.8) Естественно, что при k = 1 (нет исключения точек) отсюда следует хорошо известный экспоненциальный закон. Математическое ожидание и дисперсия временных интервалов между соседними событиями в потоке Эрланга k-το порядка равны /ητ = £/λ, Dx = VklX. (3.7.9) Рандомизация Приведем несколько различных примеров рандомизации процесса Пуассона. Пусть вероятность иметь ровно k событий в полуинтервале (О, /] фиксированной длительности t определяется законом Пуассона (2.7.24). Предположим, что длительность полуинтервала t есть случайная величина с плотностью вероятности ρ (t). Теперь вероятность получения ровно k событий равна 411
pk = je-"-2£-p(t)dL (3.7.10) о Для показательного закона распределения ρ (t) = μ ехр(— μί) получим Ην,λ+μ,'-ΐτμΛ-^(τ^)*' <3·711) о Рассмотрим другой пример. Пусть телефонные вызовы от отдельных абонентов являются пуассоновскими с математическим ожиданием числа вызовов, меняющимся от абонента к абоненту. Следовательно, параметр λ является случайной величиной с некоторой плотностью вероятности ρ (λ). Вероятность иметь ровно η вызовов за время / будет равна оо P»(0 = J e~V-V^-p(X)dX. (3.7.12) 0 В частном случае гамма-плотности вероятности ^w Γ(ν+1) " получим >-<НТ)(^ГШ"· о·»»» Рассмотрим теперь другое преобразование — независимое смещение точек. Пусть {хг (/)} — случайная последовательность частиц на прямой, образующих при / = 0 стационарный пуассоновский поток. Координата каждой частицы xt (t) меняется случайным образом во времени /. Смещения за время от 0 до /, равные х% (t) — χ (0), предполагаются взаимно независимыми и одинаково распределенными случайными величинами. Именно такой процесс изменения координат назван выше независимым смещением. В данном случае справедлива следующая теорема. Если в начальный момент времени t = 0 последовательность координат системы частиц {Xi (0)} образует стационарный пуассоновский поток с интенсивностью λ, то. при независимом смещении последовательность координат частиц {xt (/)} в момент времени / также образует стационарный пуассоновский поток с интенсивностью λ. Другие примеры использования пуассоновских потоков Чтобы проиллюстрировать другие применения пуассоновских потоков, рассмотрим три самостоятельных примера [153—155]. Пример 3.7.1. Ковариационная функция процесса после случайного квантования по времени. Аналоговые процессы \ (t) при обработке на ЦВМ предвари- 412
тельно преобразуются в дискретные путем квантования по уровню и по времени (см. § 3.5). В тех случаях, когда шаг квантования по уровню Δ выбирается сравнительно малым (Δ/σξ < 1), в некоторых задачах можно не учитывать возникающие искажения. Например, при использовании преобразователя «аналог—код» с большим числом разрядов. Однако вследствие различных дестабилизирующих факторов интервалы времени Г, через которые берутся временные отсчеты случайного процесса ξ (t), следует считать случайными величинами. Вычислим ковариационную функцию ΚΆ (τ) процесса η (t), полученного из аналогового стационарного случайного процесса ξ (t) путем такого случайного квантования по времени (рис. 3.55). Отсчеты процесса ξ (t) берутся в случайные моменты времени fo, £=1,2, 3, ..., образующие случайный точечный процесс, который в дальнейшем считается ординарным. Отдельные отсчеты процесса ξ (t) tjc-3 h-Z I A%r \a%\ h*—>i—h* Рис. 3.55. Процесс η (0, полученный из ξ(/) случайным квантованием по времени в моменты времени th (η (th) = I (th)) расширяются на весь интервал tik, th+ib Введем вспомогательную, условную ковариационную функцию #η (τ) между значением процесса η (t) в момент отсчета th и его значением слева от этого момента на расстоянии τ. Иначе говоря, если для /(η (τ) положение интервала τ произвольно относительно потока точек отсчета, то для /(η (τ) правый конец интервала τ фиксируется в точке отсчета. Будем полагать, что поток моментов отсчета является простейшим пуассоновским потоком. При этом вероятности того, что на малом интервале Δτ, непосредственно предшествующем интервалу τ, происходит или не происходит отсчет, определяются выражениями Ρι(Δτ) = λΔτ + ο (Δτ), ρ0(Δτ) = 1 — λΔτ + ο (Δτ), где λ — интенсивность потока. Таким образом, функция ^η (τ + Δτ) равна ΚΆ (τ) с вероятностью ρ0(Δτ), что соответствует отсутствию отсчета на интервале Δτ. Если же на интервале Δτ имеет место отсчет, что происходит с вероятностью ρχ (Δτ), то Кц (τ+Δτ) =Μ {η (th) η (f -Δτ)}» =M{l(tk)l(t''-te')} = M{l(tk)l(t'-te-AT')}, T=h-*\ Математическое ожидание в правой части должно браться по ансамблю реализаций исходного процесса ξ (t) и случайному интервалу Δτ'. В результате получим оо \ (τ+Δτ) =]* К% (τ+Δτ + Δτ') ρ (Δτ') d (Δτ'), о где ρ (Δτ') — плотность вероятности интервала Δτ'. Учтя оба возможных исхода (отсутствие и наличие отсчета на интервале Δτ), можем написать ^η(τ+Δτ) = (1-λΔτ)^η(τ)+λΔτ/ *ξ (τ+Δτ+Δτ') ρ (Δτ')ίί (Δτ'). 413
Отсюда при Δτ -* 0 получаем линейное дифференциальное уравнение для iQ (τ): -^ «-^(tJ+XJ *ξ(τ+Δτ')ρ(Δτ')<ί(Δτ'). (3.7.14) о Здесь ρ(Δτ') — уже плотность вероятности временных интервалов между соседними отсчетами. Чтобы определить начальное условие для дифференциального уравнения (14), рассмотрим ковариационную функцию между двумя близкими значениями процесса η (t) : η (tk) и η (tn — Δ), Δ > 0. Как видно из рис. 3.55, для очень малого временного интервала Δ > 0 можем написать ΚΆ (Δ) =Μ {η (tk) η (fc-Δ)} =Μ {ξ (tk) ξ (th_j). - I I 1 r ι V ι I I t I -2 ??ft> /V/ r -*--| 1 '* t Рис. 3.56. К вычислению ковариационной функции квантованного процесса Согласно предыдущим рассуждениям отсюда при Δ -» 0 получим со ί(η(0)=|^(Δτ')ρ(Δτ')^(Δτ'). (3.7.15) Решение линейного дифференциального уравнения первого порядка (14) с начальным условием (15) имеет вид #η W =β-λτ ΚΆ (0) +λ jeudx j K% (*+Δτ') ρ (Δτ') d (Δτ') . (3.7. 16) Найдем теперь ковариационную функцию /(η (τ). Рассмотрим интервал τ, расположенный произвольно относительно моментов отсчета tk, и интервал и между правым концом интервала τ и ближайшей слева точкой отсчета (рис. 3.56). Если τ < и, то на интервале τ отсчеты отсутствуют и, следовательно, /L (τ) = = %ι (0) = 0ξ· Если τ > ы, то ^η(τ)=Μ{η(Γ)η(^)}=Μ{η(Γ)η(^-«)}=^η(τ~«). Величина и является обратным временем возвращения случайного точечного процесса (с. 247). Его можно характеризовать некоторой плотностью вероятности ρ (и). Очевидно, что τ Ρ{τ<ίί} = 1— §p(u)du. о Таким образом, после осреднения по возможным значениям случайной величины и получим окончательную формулу ^η(τ)=Ζ)ξ( ^—]p{u)du\+]K^{x—u)p(u)dut τ>0, (3.7.17) 414
где функция ΚΆ (τ) определена выражением (16). В силу стационарности процесса η (t) имеем Кп (—τ) = ΚΆ (τ). Пусть стационарный случайный процесс ξ (t) имеет нулевое математическое ожидание и корреляционную функцию /?g (τ) = D| exp (—α|τ|), а временные точки отсчета t% описываются простейшим пуассоновским потоком. Тогда ρ (Δτ') = λ exp (—λΔτ'), ρ (и) = λ exp (—λ«) и из (16) и (17) получим следующее выражение для корреляционной функции квантованного процесса η (t): ί λ2ατ \ Dt%z V*)=V-^+l^+(a2.4(«-b) X (β-«τ_β-λτ)ιτ>0 (3.7.18) η *ζ 35 £ l· fcs ^ 5 1 ' "Η Ι -* _. W/Λ^ ш * iff ft» В Ι—Д. 1 _ta.r.. Ι Временные интербалы Рис. 3.57. Частотно-временная матрица k f2 % f1 а) δ) Рис. 3.58. Дискретное сообщение (а) и сигнал ААСС (б) Эта формула при бесконечном увеличении среднего числа отсчетов в единицу времени (λ —> оо) принимает вид /ΐη (τ) =D£ ехр (—ατ), τ>0, т. е. совпадает с корреляционной функцией исходного процесса ξ (t). Пример 3.7.2. Ложные адреса в асинхронно-адресных системах связи. В последние годы получают широкое распространение асинхронные адресные системы связи (ААСС). В них общий радиочастотный тракт используется абонентами системы независимо (асинхронно) для передачи информации по назначению при помощи адресного кодирования сигналов [156]. Сигналы ААСС с частотно-временным кодированием представляют собой группы относительно коротких импульсов, отличающиеся интервалами между отдельными импульсами и частотами высокочастотного заполнения (поднесущими частотами) каждого из них. Различные сочетания временных интервалов и частот поднесущих колебаний (адресов абонентов) обычно представляют в виде таблицы, которая называется частотно-временной матрицей. В качестве примера на рис. 3.57 изображена частотно-временная матрица и на ней показан один из адресов (см. рис. 3.58). Отдельный адрес состоит из т импульсов, каждый из которых может иметь одну из нескольких (/) поднесущих частот. Для передачи непрерывных сообщений в ААСС применяются различные виды модуляции: время-импульсная, частотно-импульсная, кодово-импульсная, дельта-модуляция и др. Передача дискретных сообщений может осуществляться так, как показано на рис. 3.58, где структура адреса соответствует, частотно-временной матрице рис. 3.57* Совокупность импульсных последовательностей всех абонентов, действующих в данный момент времени, поступает на входы приемников каждого абонента. Приемник отдельного абонента (рис. 3.59) содержит / узкополосных фильтров — по числу поднесущих частот. Для выделения сигнала, предназначенного 415
данному абоненту, сигнал после детектирования снимается лишь с выхода тех фильтров, которые настроены на поднесущие частоты, содержащиеся в адресе данного абонента. Продетектированные импульсы поступают на т линий задержки, соединенных в соответствии с частотно-временной матрицей данного адреса. С линий задержки импульсы поступают на схему совпадения (схема И) и преобразуются в один импульс, который поступает в демодулятор, выделяющий сообщение. Так как сигналы абонентов не синхронизированы между собой, они могут налагаться друг на друга. При наложении сигналов разных абонентов могут образовываться комбинации импульсов, совпадающие с адресными. Такие комбинации (ложные адреса) представляют собой так называемую внутрисистемную помеху, интенсивность которой пропорциональна интенсивности полезных сигналов. Одной из основных проблем при проектировании ААСС является борьба с внутрисистемной помехой. V \fJPM 1 ' h -w~ γζ- ъ -w* '/ -W-* ^4 2Δ . Ь^ч 1 г и ι ДемодумяА тор L Рис. 3.59. Функциональная схема приемника Определим основные характеристики внутрисистемной помехи при следующих предположениях. 1. Все т импульсов, из которых состоит адрес, имеют разные поднесущие частоты (т < /). 2. Каждый адрес ААСС повторяется в среднем ν раз в единицу времени. 3. Все импульсы являются прямоугольными и имеют одинаковую длительность ти. 4. Считается, что передан адрес данного абонента всякий раз, как только на выходе всех линий задержек одновременно появляются сигналы. 5. Отсутствует явление «фазового подавления». Это означает, что если два импульса на одной поднесущей частоте перекрываются во времени, то на выходе соответствующего частотного канала приемника появляется импульс единичной амплитуды, начало которого совпадает с началом первого импульса, а конец — с концом второго. 6. Моменты появления импульсов на различных поднесущих частотах представляют собой взаимонезависимые пуассоновские потоки. Это предположение, как правило, приближенно выполняется при числе активных передатчиков в ААСС более десяти. 7. Распределение частот импульсов, передаваемых ансамблем из Μ передатчиков, предполагается равновероятным среди всех / поднесущих частот. При указанных условиях интенсивность пуассоновского потока импульсов ля любого частотного канала приемника равна λ = mvMli. (3.7.19) Определим вероятность появления ложного адреса. Ложный адрес появляется в том случае, когда на выходе т линий задержек одновременно имеется импульс. Для пуассоновского потока вероятность отсутствия событий в течение времени t равна р0 (t) = ехр (—Xt), а вероятность появления хотя бы одного события равна Pk > 1 (0=1-Ре (0=1-ехр (-λί). 416
Здесь под событием понимается момент появления импульса длительностью ти Поэтому вероятность наличия сигнала на выходе одной линии задержки в заданный момент времени совпадает с вероятностью появления хотя бы одного импульса в предшествующий интервал времени ти: Pk > ι (%)=!— ехр (—λτΗ). (3.7.20). Так как для образования ложного адреса необходимо появление сигналов одновременно на выходах т линий задержек, а моменты появления этих сигналов независимы, то вероятность появления ложного адреса дается формулой Pf -О-с ; (3.7.21) to if · ζ? tj a) г5 Ь LI t'o ' δ) Ц Рис. 3.60. Импульсы абонентов (а) и суммарный поток импульсов (б) Получим плотность вероятности длительности импульса на выходе одного частотного канала. В результате воздействия импульсов от различных абонентов AAU. на выходе каждого частотного канала приемника формируется суммарный поток импульсов со случайными длительностями (рис. 3.60) Обозначим моменты появления импульсов абонентов f0, tly t2, ..., моменты появления импульсов суммарного потока «, t'lt /;, ... и 7, = f,- *,_1# Импульс суммарного потока появляется в том случае, если в предшествующий интервал времени ти не появился импульс от абонента. Например, если Тг < %, Г2 < ти, ^з<ти» а Г4>ти, то импульс суммарного потока начинается при L = t'n и Кончается при *3 + τΗ, имея длительность Тг + Т2 + Т3 + τ. Второй импульс суммарного потока появится при ?4 = %. J y Случайная длительность импульса суммарного потока Τ равна Т = Т1+Тж + ...+Тк+хж=8к+тя с вероятностью Р{Тг<х*}... Ρ {^<ти}Р{ГА+1>ти}=(1~е-Лти> "λτ-\Λ -λτπ (3.7.22) (3.7.23) Плотность вероятности интервала Tt при условии, что Г£ < ти, можно получить следующим образом. Очевидно, что и Поэтому Ρ{7Υ<Θ, Г£<ти}=Р{^<0} при 0<θ<τΗ. Ρ{Τι<β\τί<τ*}=ρίΤί<®>Τί<τ»ϊ = _ р{У|<е> -λτ„ 14 зак. 956 *{Г|<ТН) = (1_е-^)/(1-е"ЛТи), О<0<ти 417
Продифференцировав это выражение по Θ, получим плотность вероятности интервала Τι при условии Т% < %: Рг (β)~^-/>{Γ,<β|Γ,<^- ^p((-*% ' °<9<Ти· (3-7'24) Плотность вероятности случайной величины Sk в выражении (22), которую обозначим pk (θ), есть ^-мерная свертка плотности вероятности рг (Θ). Взяв преобразование Лапласа от плотности вероятности рх (Θ), имеем Хп χρ-λθ 1-е λ 1-βχρ[-(5+λ)τΗ] -λτ„ (3.7.25) 1_е —ή 5+λ Поскольку свертке оригиналов соответствует умножение изображений, то #{ρ*(θ)} = φ*(β). (3.7.26) Последнее слагаемое в правой части выражения (22) имеет плотность вероятности в виде дельта-функции δ (θ — %), имеющей преобразование Лапласа ^{6(0-ти)} = ехр (—Эти). (3.7.27) С учетом соотношений (25)—(27) находим преобразование Лапласа плотности вероятности длительности импульса Τ суммарного потока при фиксированном k: h(s\k) = Ц—- . ^=* —L е~*\ (з.7.28) (ΐ-β"*-)* (S+Vk Воспользовавшись выражением (23) и известной формулой для геометрической прогрессии SH=n*fe ~ О — я)""1» получим преобразование Лапласа от безусловной плотности вероятности длительности импульса суммарного потока: Я(8)=> U—e *)е и- г—τ· — е и = *Го (l-e~N (*+λ)* _(s+X)eKP[-(s+X)^ 8 β+λβχρ·[—(β+λ)τΗ] Обратное преобразование Лапласа от этого выражения дает плотность вероятности длительности импульса суммарного потока [154]: ρ (9)=е~ЯТи δ (θ-τ„) +%s~U" U (θ-τ.) +*Σ (-»)* λ* е"(*+1) λτ« χ 4=1 (θ-ίΗ-Οτ^-1 (^фИ) ![ΐ + γ(β-(* + 1)τ^ΐ6/(θ-(* + 1)^, (3.7.30) где U (χ) — единичная ступенчатая функция: U (χ) = \ при χ > 0, ί/ (#) = 0 при χ < 0. Длительность импульса суммарного потока не может быть меньше ти и с конечной вероятностью может быть равна %. Можно показать, что математическое ожидание и дисперсия длительности импульса суммарного потока равны —λτΗ —λΐ„ М{Г}=«Г= 76 λχ . Οτ^^=^--—[ΐ+(1-2λτιι)β-λ4. (3.7.3Ι) 418
Получить точное выражение для плотности вероятности длительности ложных адресных импульсов Тру появляющихся на выходе схемы совпадения, в компактном виде затруднительно. Приведем без вывода приближенное выражение, полученное в предположении, что все ложные импульсы, имеющие длительность больше ти, считаются имеющими длительность ти[154]: pF(0) = a(m-l)(l-a©)w-2+(l-aTII)w-1 δ(θ-τΗ), (3.7.32) где a = Хе и/ (1 — е **). На основании этой формулы математическое ожидание длительности Тр ложного адреса равно тг = [1_(1_аТи)т]. (3.7.33) ЛР am Пример. 3.7.3. Система массового обслуживания. Ложные срабатывания реле из-за помех. Рассмотрим следующий простейший пример. Некоторый аппарат предназначен для обслуживания «посетителей», часть из которых «назначенные», а другая часть — «случайные». Первые появляются через равные промежутки времени (длину этих промежутков примем за единицу времени), вторые приходят случайно. Обслуживание одного «посетителя» занимает постоянный промежуток времени τ< 1. Образование очереди не допускается (система массового обслуживания с отказами): «посетитель», пришедший в момент, когда аппарат занят, не остается ждать, а уходит и вторично не появляется. Пусть моменты появления «случайных посетителей» представляют собой простейший поток Пуассона, т. е. вероятность появления за временной интервал кровно к «случайных посетителей» равна ph(t)=(Xt)ke~xt/k\ (3.7.34) При принятом выборе единицы времени параметр λ равен отношению среднего числа появляющихся «случайных посетителей» к числу появляющихся «назначенных посетителей». Зная среднее число λ «случайных посетителей», появляющихся за единицу времени, и время τ обслуживания одного посетителя, требуется определить средние значения μ (tlt t2) и ν (tlt t2) для числа «назначенных» и «случайных посетителей», обслуженных в течение интервала времени [tl9 t2]. Таким образом, сформулированной задаче можно дать другую трактовку. Пусть обслуживающим аппаратом является идеальное безынерционное реле, срабатывающее на постоянное время τ каждый раз, когда воздействующее напряжение превышает некоторый порог. В качестве «назначенных посетителей» можно рассматривать полезный сигнал в виде периодической последовательности мощных коротких импульсов, которые воздействуют на реле и вызывают «полезные» срабатывания реле на время τ; «случайными посетителями» являются импульсные помехи или выбросы случайного процесса, воздействующие на реле вместе с полезным сигналом и обусловливающие «ложные» срабатывания реле. При этом величины μ (tlt t2) и ν (tl9 t2 ) будут равны средним значениям для числа полезных и ложных срабатываний реле. На выходе реле ложные и полезные срабатывания реле чередуются в некоторой последовательности. Разобьем эту последовательность на серии, каждая из которых содержит ровно одно полезное срабатывание и притом вначале: |ПЛЛЛЛ|ПЛЛ|П|ПЛ|ПЛЛ|П|П|ПЛЛЛЛЛ:.. . Число ложных срабатываний, принадлежащих некоторой серии, есть случайная величина. Обозначим через ап вероятность того, что серия содержит ровно η ложных срабатываний. Среднее число ложных срабатываний между двумя последовательными полезными срабатываниями равно а = ^Г пап- Выразим величины μ (tlt t2) и ν (tlf t2) через α. Пусть ут есть вероятность того, что за интервал времени ub t2] произошло т полезных срабатываний реле. Последнее равносильно тому, что имеется реализация из т полных серий, если только из двух неполных серий, расположенных по концам интервала, одной пренебречь, а другую учитывать как полную. Среднее число ложных срабаты- 14* 419
ваний реле за т серий равно am. Поэтому среднее число ν (tl9 t2) ложных срабатываний за интервал времени [tl9 t2] равно оо оо m=l m=l Если учесть ошибку за счет сделанного нами округления числа серий, то это выражение следует уточнить: ν (fi, t2) = α [μ (tlt t2) + θ], |θ| < 1, (3.7.35) Если за интервал времени [flt t2] произошло в целом η срабатываний реле (полезных и ложных), то из этого интервала времени реле было «закрыто» в течение промежутка времени лт. При этом были «пропущены» (не вызвали срабатывания реле) те и только те помеховые импульсы, превышающие порог срабатывания реле, которые поступили на реле в течение этого промежутка времени. Вероятность того, что их было ровно я, вычисляется по формуле (34); среднее их число равно λ/ιτ=Σβρ& (/ιτ). Мы вычислили условное среднее значение для числа «пропущенных» помеховых импульсов при условии, что всего было η срабатываний реле. Безусловное среднее значение ω (tit t2) определяется формулой оо оо ω(*ί, *2) = 2 (λ"τ)<7η=λτ 2 пЧ*> /1=1 /1=1 где qn — вероятность того, что за рассматриваемый интервал времени произойдет ровно η срабатываний реле (полезных и ложных). Стоящая в правой части сумма равна μ (tl9 t2) + ν (tl9 t2). Если учесть ошибку «округления» и внести соответствующую поправку, то получим ω (tlf t2) = λτ [μ (flf t2) + ν (tlt t2) - θ'], 0 < θ' < 1. Согласно формуле (34) среднее число помеховых импульсов, воздействующих на реле за интервал времени [tl9 t2], равно λ (t2 — ti). С другой стороны, оно складывается из среднего числа ν (tlt t2) ложных срабатываний реле и среднего числами) (tl9 t2) «пропущенных» помеховых импульсов. Следовательно, λ (t2 — h) = v (tlt t2) + λτ [μ (tl9 t2) + ν (tl9 t2) - Θ']. (3.7.36) Разрешая уравнения (34) и (36) относительно μ (tlt t2) и ν (flt t2), получаем »*·*>- .iSiS.-*· *<«-'^ Л!:+1+*>*■ ,3'7·37> где |θχ| < 1 и |θ2| < 1. Из этих формул находим μ-lta И^ЦД λ , , v= lim , "* . (3.7.38) is—/j-^od t2—ti α+λτ+αλτ t2—tt->oo α+λτ+αλτ Величины μ и ν характеризуют соответственно среднее число полезных и ложных срабатываний реле в единицу времени. 3.8. ДОПОЛНИТЕЛЬНЫЕ ПРИМЕРЫ Рассмотрим несколько самостоятельных примеров. Пример 3.8.1. Вероятностные характеристики элементов выборки. Пусть имеется η выборочных значений, принадлежащих совокупности, которая имеет распределение непрерывного типа с функцией распределения F (х) и плотностью вероятности ρ (χ) = F' (χ). Расположив п выборочных значений в порядке их величины, получим вариационный ряд, который имеет два экстремальных значения: наибольшее и наименьшее, а также конечную широту, являющуюся разностью между этими экстремальными значениями. Значение, стоящее на v-м месте от начала или от конца вариационного ряда назовем соответственно v-м нижним'или верхним значением. При ν = 1 получаются экстремальные значения. Часто бывает важно знать выборочные распределения экстремальных значений, 420
v-x значений, широты и других подобных характеристик'выборки. Рассмотрим некоторые свойства этих распределений [8]. Обозначим через χ v-e верхнее значение выборки из η элементов. Дифференциал вероятности /v (x)dx выборочного распределения величины χ совпадает с вероятностью того, что среди ή выборочных значений η — ν значений меньше χ и ν — 1 больше χ + dx, так что остающееся значение попадает между χ и χ + dx. На основании биномиального закона распределения вероятностей можем написать fv(x)dx=n["2\ yn-v(x)[\-F(x)F-lp(x)dx. (3.8.1) Если ввести новую величину и, положив и = nil — F(x)], (3.8.2) то имеем 0 ^ и ^ п, и плотность вероятности этой новой величины будет ΜΜ)=(ν-.)(τ) V--) <3·8·3>- при 0 < и < η и hv (и) = 0 вне интервала (0, п). При η ->· оо плотность вероятности hv (и) для любого и > О сходится к пределу lim hv(u)=uv-le-u/r(v). (3.8.4) Л->оо Эта плотность вероятности является частным случаем гамма-распределения. Аналогично если у обозначает v-e нижнее значение выборки и если ввести новую величину υ, положив ν = nF(y), (3.8.5) то убедимся, что υ имеет плотность вероятности hv (υ), и в пределе при я-> оо плотность вероятности vv~~l e~v/T (ν). Можно также рассмотреть совместное распределение v-ro верхнего значения χ и v-ro нижнего значения у. Введя величины и и υ формулами (2) и (5), как и выше, убеждаемся, что совместная плотность вероятности для и и ό имеет вид — Ш / и \ν-ι / ό .ν-! / и _ ν \n-gv /22 [(ν— 1)!]2(/ι-2ν}! \ /ι / [η ) [ η η ) . I · · / где « >0, г> > О, и + о<ли2г<л. При η -> оо это выражение стремится к иУ-1е-в^-1е-о/рМ> (3.8.7) так что в пределе «иг; независимы. Если функция распределения F(x) задана, то иногда можно точно решить уравнения (2) и (5) относительно χ и у. Тогда получим v-e значения χ и у, выраженные через вспомогательные величины и и ν> распределения которых известны. Если же точное решение невозможно, то часто можно получить асимптотическое решение для больших значений л. В таких случаях известные распределения величин и и ν можно использовать для нахождения предельных форм распределений v-x значений, широты и т. д. Допустим, что случайная величина, из значений которой извлекается выборка, равномерно распределена по интервалу (а, Ь). Если в выборке в η значений из этого распределения χ и у есть v-e верхнее и нижнее значения, то формулы (2) и (5) дают χ = Ь — (Ь — а)и/п, у = а + (Ь — α)υ/η, где и и ό имеют совместную плотность вероятности (6) с предельной формой (7). Поэтому получим Nilx}=b—2—(b-a)9 D{x}= V(n V + 0 (Ь-αγ х ' /ι + l 1 (я + 1)*(п+2) V ' 421
и аналогичные выражения для </. Далее имеем М[ 2 J 2 ' 12/ 2(л+1)(я+2) V Отсюда видно, что среднее арифметическое v-x значений χ и у является состоятельной и несмещенной оценкой для математического ожидания (а + Ь)12 всего распределения. Наконец, для разности χ — у имеем 2ν(η— 2ν-Η) Л—^-ГЧ (6_а)2. (з.8.9) Μ {*—у}=(ι — "^т)(&—вЬ °{*-^: (л + 1)«(я+2) При ν = 1 разность χ — у является широтой выборки. 6-а 1 d-c 0 ΡξιΝ Ρξ2&21 Ру(у) /,. \ ~j -2 -1 о 1 2 j * zo Рис. 3.62. Композиция двух равномерных распределений Рис. 3.61. Графики плотности вероятности при v=l, 2, 3 и 4 Рассмотрим случай нормального распределения ρ (χ), начав с распределения с нормированными параметрами (т = 0, σ2 = 1). Если я'есть v-e верхнее значение выборки в η значений из этого распределения, то выражение (2) имеет вид *_ С У 2л J e-f*/2dt. Найдем асимптотическое решение χ этого уравнения при больших п. Интегрируя по частям, приведем уравнение к виду и У 2л 1 "'5('+°(-^))' η χ Предполагая, что и ограничено, после некоторых вычислений получим , 1η1η«+1η4π х = У2\пп — — 21/2\ъп In и 1/2Тп ίΑ-Ь)' откуда следует, что остаточный член сходится по вероятности к нулю. Рассматривая общий случай нормального распределения с произвольными параметрами т и σ2, воспользуемся лишь заменой χ на (х — ту а. Заменяя такжеГ In и на w, получим, что верхнее v-e значение χ можно представить в виде где величина w 422 . In In η + In 4π ^ ν 2 У 2 In n 1/2 In /ι —In ξ имеет в пределе при η *ν ^)=Τ7ν7 ^ (-w-e-w) (3.8.10) оо плотность вероятности (3.8.11)
Аналогично для v-ro нижнего значения у получим -/7— , 1η1η/ι-Μη4π σ y = m—oV2\nn +σ ζ=ζ——— г. (3.8.12) 2 1/2 In η У2 In n где г в пределе независима от w и имеет плотность вероятности qv (r). Таким образом, при больших значениях η v-e значения χ и у получаются с помощью простого линейного преобразования из величин, имеющих предельное распределение, определяемое плотностью вероятности (11). Графики этой плотности вероятности изображены на рис. 3.61. Для данного примера можно также найти М{*}, D{*}, Μ {(χ + У)/2} = m, Ό{(χ + у)/2}> Μ{* — у} и D {* — У} [8]. Пример 3.8.2. Плотности вероятности суммы и произведения двух независимых случайных величин с равномерными распределениями. Найдем плотность вероятности суммы двух независимых случайных величин ξχ и |2> каждая из которых распределена равномерно (рис. 3.62): 1/(6—а), а< хг<Ь, О, *ι< α, % >£; (3.8.13) l/(d—c), с < *2 < d, О, *2 <£> *2 > d* Будем считать (d — с) > (Ь — а). Для нахождения композиции двух равномерных распределений нужно по формуле (3.2.60) вычислить интеграл свертки: Ph(xi) ={ Р%1 (*.) = { Рг\ (У)= I Р\х (*ι) Р|а fa—*ι) <**ι· Здесь подынтегральная функция отлична от нуля лишь при совместном выполнении четырех неравенств: а < хг < Ь\ с < у — хг < d. Рассмотрев условия совместного выполнения этих неравенств, получим следующий результат: 0, У<а+с, (y—a—c)/(b—a)(d—c), а+с^у^Ь+с, Рц(У)=\ \/(d—c), b+c<Cy<a+d, (3.8.14) (Ь+d— у)/(Ь—a) (d—c)t a+d^y^b+d, 0, ' y>b+d. Плотность вероятности ρη (у) имеет вид равнобедренной трапеции (рис. 3.62)в При (d — с) = (6 — а) трапеция переходит в равнобедренный треугольник. При композиции большого числа независимых, равномерно распределенных случайных величин в пределе получится нормальная плотность вероятности (см. рис. 5.43). Запишем плотность вероятности разности фаз φ = φχ — φ2 двух независимых гармонических колебаний Si (t) = Αι cos (ω/+ Φθ» * = 1» 2, считая, что каждая из фаз q>$ распределена равномерно в интервале [—π, π]: Ρ (Φθ = 1/2π> —π < φι < π, i = 1, 2. (3.8.15) Плотность вероятности ρ (φ) разности φ двух независимых случайных величин ф! и φ2, равномерно распределенных на одинаковом интервале [—π, π], является треугольной и имеет вид, показанный на рис. 3.63, а [157]. Однако если учитывать цикличность изменения фазы, т. е. интересоваться фазой φ, приведенной к интервалу [—π, π] (фазой, по модулю не превышающей π), то плотность вероятности такой разности фаз φ будет также равномерной в интервале [—π, π] (рис. 3.63, б): ρ(φ)=1/2π, |φ|<π. (3.8.16) 423
Приведем выражение для плотности вероятности произведения η г= ξ1ξ2, где Si и ξ2 — независимые случайные величины с равномерными плотностями вероятности: Pgt(*i) = l/a. 0<дГ!<а;р^(А:2) = 1/6, 0 < х2 < Ь. На основании формулы (3.2.61) имеем ъ dx2 (3.8.17) ^>4.Wi) Рис. 3.63. Плотности вероятности разности двух независимых равномерно распределенных фаз В результате замены переменной ζ у/Ь у/х2 и интегрирования получим оо У/Ь dz = —г In (ably), 0 < у < ab. at? (3.8.18) Пример 3.8.3. Логнормальная плотность вероятности. Эта плотность вероятности часто применяется в теории распространения волн через слоистую среду. Пусть плоская волна распространяется в направлении +* через слоистую среду (рис. 3.64). Допустим, что толщина отдельного слоя равна Δ*$ и постоянная поглощения щ. Если амплитуда волны на входе ί-го слоя есть y^lt то амплитуда волны на выходе этого "слоя yi = у^х ехр (—щкх^. Следовательно, если амплитуда волны, падающей на слоистую среду, равна А, то амплитуда волны на выходе л-го слоя —α« Δ*Λ =Ле где ζη = Σ?=1 а^хи Во многих практических случаях постоянная затухания и толщина слоя изменяются случайно и независимо от слоя к слою. При этом нормированную амплитуду волны на выходе можно представить в виде η = ехр (—ξ). (3.8.19) Если число слоев велико, то плотность вероятности случайной величины ξ согласно центральной предельной теореме будет нормальной Рис. 3.64. Распространение волны через слоистую среду ^ щ А Хг ЛХП X 424
рг (x)=(2nDl )-1/2 ехр [-(х-т^ fpD^ ]. При этом плотность вероятности нормированной амплитуды η будет логнормаль- ной р {y)J (^y^r^exp[^(lny^ml^2Dl]9y>0i M) η 1 0, у<£0. Пример 3.8.4. Пусть ξχ (t) и ξ2 (t) — два случайных процесса, характеризуемые соответственно плотностями вероятности р^ (хг\ ίχ) и р^ (х2; £2), а также совместной плотностью вероятности р2 (хъ х2\ ίχ, £2). Получим плотности вероятности ρ , (χ\ t) и pfc/ (x\ t) для следующих двух процессов ξ( (/) и ξ£ (/) ςι 62 (рис. 3.65): По формуле полной вероятности можем написать Ρ ξ. (*; 0 =Р {Si (0 > U (0} Ρ (*;' I St (0 > h (0)+ +P |ii (0 < S* (')} Ρ (*; < Ι ξι (0 < Ь (*))· (3.8.22) Входящие сюда условные и безусловные плотности вероятности равны Ρ (χ; t\ h (0 > U (0)=Р|, (χ; t),p(x;t\ ь (Q < ξ2 (/))=δ (*), (3.8.23) где δ (λ) — дельта-функция; Pfti(0 > U (')}= f PS, <*; 0 Ρ {Ь(0 < Si(0 I Si (')=*} <**= — oo oo χ = J P|t (a:; 0 tf* J ρ (у; t\x;t) dy = — OO 00 CO X 00 00 = J* d* J pa (x, (/; *, t) dy = § dy j* p2 (a:, #; /, /) dx. (3.8.24) — oo — oo —oo у Аналогично получим oo oo oo у Ρ {Si (Ο < St (0}= J <** J Pa (*> 0! '. i)dy= I dy J ρ (ж, у; <, 0 d*. 00 Jf OO OO (3.8.25) Геометрически безусловные вероятности Р {ξχ (ОЗЕ^г (0} равны объемам, ограниченным поверхностью р2 (х, у; tlt t2) и плоскостью у = х. Подставив выражения (23)—(25) в (22), получим плотность вероятности ρ / (χ; t). Проведя аналогичные выкладки, находим выражение для плотности вероятности процесса ξ£ (0· ρ ξ, (χ; t) =P {Ιχ (ή > ξ2 (0} δ (*)+Ρ{ξϊ (Ο < ξ2 (0} р|й (*; *). (3.8.26) В частном случае, когда процессы ξχ (t) и |2 (t) являются совместно гауссов- скими с нулевыми математическими ожиданиями, в предыдущие формулы нужно подставить р{ы (о > s2 ω) = р'{ь w < s2 (0} = i/2. Пример 3.8.6. Найдем плотность вероятности случайной величины η = (S« — Si)/ <S2 + Si). (3.8.27) ' 425
Рис. 3.65. Получение процессов δί (/) и ξ£ (/) из ξχ (/) и ξ2 (/) ' где случайные величины δι и δ2 имеют совместную плотность вероятности Рг (*ι> *ύ· Введем новые случайные величины ς и η, определив их выражениями δ = (Ь + δ2)/2, Л = (δ2 - ii)/ (St + Ь)- Отсюда находим δι = 0 - η)δ. δ2 = 0 + η)δ. <?&, δ2)/<?(δ, η) = 2ξ. По формуле (3.2.49) получим οο ΡΆ{ν)=2 | ft(x(l-if),*(l+»))|*|d*= — οο οο =2 J [ρ2 (χ (1-jf), *(1+0)+Λ (-* (1-jf), -* (1+</))] *<**. (3.8.28) ο Запишем выражение для плотности вероятности случайной «величины η = (Ε, - ξι) (12+?!). (3-8.29) Введем случайные величины δ = (δι + δ2)/2, η = (δ2 - ξι) (δ2 + δι)· Отсюда находим δι = δ - η/4δ, δ2 = δ + η/4δ, д (δι, δ2)/<? (δ, η) = 1/2ξ. Поэтому οο b<»>-T$»[x--h'-x+-t)i7\· (3·8·30) В том случае, когда в (27) и (29) случайные величины являются совместно гауссовскими с нулевыми математическими ожиданиями и корреляционным моментом R = Μ {διδ2} = rl/DxD2> где Dt — дисперсия случайной величины δι, i — 1,2, формулы (28) и (30) принимают соответственно следующий вид: Ρη (У) -· У\—Г n(y*VD2/D1-2ry+yDJD1) ' (3.8.31) 426
Рц{у) = ' , exp ( ry \ KJ У__ (3.8.32) где К0 (х) — цилиндрическая функция нулевого порядка мнимого аргумента. Пример 3.8.6. Докажем, что плотность вероятности Коши р% (х) = α/π (χ2 + ос2) (3.8.33) замкнута относительно преобразований вида η = a/t (3.8.34) где а — постоянная* Для данного преобразования по формуле (3.2.2) получим Ρη (У) = |α|/απ t</2 + (α/α)4· (3.8.35) Таким образом, в результате преобразования (34) плотность вероятности Коши с параметром α переходит в плотность вероятности Коши с параметром |α|/α, τ. е. плотность вероятности Коши замкнута относительно преобразования (34). ГЛАВА 4 ЭЛЕМЕНТЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ 4.1. ПРЕДМЕТ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ Применительно к рассматриваемому здесь узкому кругу вопросов математическую статистику можно определить так. Математическая статистика — раздел математики, посвященный установлению закономерностей случайных явлений или процессов на основании регистрации, систематизации и обработки результатов наблюдений или измерений. Изложению теории методов, применяемых в математической статистике, и описанию правил их применения к разнообразным практическим задачам посвящена обширная литература [1,8,16,27, 97, 98, 158—165]; Перечислим здесь типовые задачи, наиболее часто встречающиеся в радиотехнических приложениях, и кратко укажем некоторые методы их решения. Статистические методы исследования, базирующиеся на рассмотрении экспериментальных данных о тех или иных совокупностях объектов, применяются в самых различных областях знаний (физика, экономика, медицина и др.) и могут преследовать разные цели. Однако можно указать следующие три основные задачи математической статистики. Оценка неизвестной функции распределения или плотности вероятности. Эта задача обычно формулируется так. В результате независимых измерений случайной величины ξ получены следующие ее конкретные значения χ = {xl9 x2i ..., χη}. Требуется оценить неизвестную функцию распределения F {х) случайной величины ξ или ее плотность вероятности ρ (χ), если ξ — непрерывная случайная величина. Эту задачу можно распространить на многомерные функции распределения и плотности вероятности. 427
Оценка неизвестных параметров закона распределения. Пусть на основании физических или общетеоретических соображений можно заключить, что случайная величина ξ имеет функцию распределения определенного вида, зависящую от нескольких параметров, значения которых неизвестны. На основании наблюдений величины ξ нужно оценить значения этих параметров. Задачу оценки параметров и характеристик случайного процесса можно ставить вне связи с функцией распределения. Например, требуется оценить математическое ожидание, дисперсию или моменты случайной величины ξ, амплитуду, частоту или фазу радиоимпульса, наблюдаемого на фоне шума; корреляционную функцию или спектр стационарного случайного процесса и т. д. Статистическая проверка гипотез. Обычно эта задача формулируется следующим образом. Пусть на основании некоторых соображений можно считать, что функция распределения исследуемой случайной величины ξ есть ^(л:). Спрашивается, совместимы ли наблюденные значения с гипотезой, что случайная величина ξ действительно имеет распределение F(x). Для наших целей этой задаче можно придать несколько другую формулировку. Пусть наблюдаемые значения случайной величины ξ порождаются двумя или несколькими различными событиями (гипотезами). В результате наблюдения случайной величины ξ нужно решить, какой из гипотез порождены полученные значения величины ξ. Для конкретизации приведем следующий пример. Пусть на вход радиоприемного устройства поступает случайное колебание ξ (ί), которое в каждый момент времени является либо суммой сигнала s (t) и помехи η (t) (гипотеза Нг)9 либо одной помехи η (t) (гипотеза Н0). В некоторый фиксированный момент времени произведено измерение величины |. По полученному числовому значению χ нужно решить наилучшим образом, присутствовал ли на входе сигнал s (ί), т. е. выбрать одну из двух гипотез Нг : χ = s + η или Н0: χ = п. Из определения и смысла основных понятий теории вероятностей следуют и методы их определения по экспериментальным результатам. Так, за вероятность события можно принять его относительную частоту при очень большом числе опытов, за математическое ожидание случайной величины — ее среднее арифметическое значение и т. д. Однако число опытов или измерений практически всегда ограничено, причем результаты опытов случайны. Ввиду этого в математической статистике говорят о подходящих оценках интересующих величин. Все характеристики (параметры), подлежащие определению по результатам опытов или измерений, принято называть статистическими характеристиками (параметрами), а любая функция результатов опытов, которая может быть принята за подходящее значение неизвестной статистической характеристики (параметра), называется оценкой этой статистической характеристики (параметра). Разработка методов нахождения оценок и исследования точности их приближения к неизвестным статистическим характеристикам (параметрам) составляет содержание одного из важнейших разделов математической статистики. Примеры приведены ниже. 428
Отметим, что при практическом определении статистических характеристик можно различать два случая: 1) имеются зарегистрированные (уже собранные) данные о значениях случайной величины или реализации (записи) случайных процессов; 2) в распоряжении исследователя имеется непосредственно исходное явление или процесс и его можно многократно повторить при интересующих условиях. Хотя математические правила (алгоритмы) нахождения оценок тех или иных статистических характеристик в обоих случаях являются общими, однако практически они часто определяются по-разному: в первом случае с помощью вычислений, а во втором — соответствующей измерительной аппаратурой. В математической статистике результаты каких-либо однородных наблюдений (чаще всего независимых) принято называть выборкой. В некоторых случаях принципиально можно осуществить сколь угодно большое число наблюдений (например, при измерении дальности до неподвижной цели или при измерении ее угловых координат). Однако практически всегда ограничиваются конечным числом наблюдений. При этом фактически полученные результаты можно считать выборкой из бесконечного множества возможных результатов, называемых генеральной совокупностью. Для решения практических задач нужна не сама генеральная совокупность, а лишь те или иные характеристики, которые ставятся ей в соответствие. Статистическое наблюдение^ при котором исследованию подвергают не все элементы генеральной совокупности, а только некоторую, определенным образом отобранную часть, называется выборочным наблюдением. Отобранная часть элементов совокупности (выборка) будет представлять всю совокупность с приемлемой точностью при выполнении двух условий: 1) она должна быть достаточно представительной (многочисленной), чтобы в ней могли проявиться закономерности, существующие в генеральной совокупности, и 2) элементы выборки должны быть отобраны объективно, так, чтобы каждый из них имел одинаковые шансы быть отобранным. Согласно теории вероятностей выборка будет правильно отражать свойства всей совокупности, если выбор производится случайно, т.е. так, что любая из возможных выборок заданного объема η из совокупности объема N (число таких выборок равно ΝΜη\ (Ν — ή) !) имеет одинаковую вероятность быть фактически выбранной. На практике наиболее часто используется выбор без возвращения (бесповторная выборка), когда каждый отобранный объект перед выбором следующего объекта в исследуемую совокупность не возвращается (такой выбор применяется, например, при статистическом контроле качества). Статистический метод исследования общих свойств совокупности каких-либо объектов на основе изучения свойств лишь части этих объектов, взятых на выборку, называется выборочным методом. Свойства совокупности, исследуемые выборочным методом, могут быть качественными и количественными. Примером первого типа может служить задача определения количества Μ объектов совокупности, обладающих каким-либо признаком (например, при статистичес- 429
ком контроле часто интересуются количеством Μ дефектных изделий в партии объема Ν). В случае количественного признака обычно имеют дело с определением различных средних значений совокупности, например среднего значения совокупности т\ = (хг + х2 + ... + хп)/п, где хъ χ2ι—» хп—те значения из исследуемой совокупности, которые принадлежат выборке. С математической точки зрения первый случай обычно можно рассматривать как частную разновидность второго, если принять Μ величин хп равными единице, а остальные N — Μ равными нулю. Если изучению подлежит какой-либо количественный признак, то его статистические характеристики по выборке из η объектов можно найти, перечислив непосредственно наблюденные значения признака: xl9 хъ ..., хп. Если все xt расположены в порядке возрастания их величины, т. е. хх < х2 <С ... < хп, то полученная возрастающая последовательность называется вариационным рядом, число η — объемом выборки, хх — наименьшим (нижним) значением, хп — наибольшим (верхним) значением, а разность хп — хг — размахом или широтой выборки. Однако при больших η (порядка сотен) такой способ громоздок и в то же время не выявляет существенных свойств статистического распределения. При больших η на практике обычно не составляют полных таблиц всех наблюденных значений xi9 а прибегают к группировке наблюденных значений по надлежаще выбранным неперекрывающимся интервалам (разрядам) Ахъ Ах29...9 Ахг. Часто все интервалы Axh берут одинаковыми. После того как интервалы Axk выбраны, подсчитывают число наблюдений nk, попавших в интервал Ах%. По значениям nk подсчитывают соответствующие относительные частоты (частости) г vj = nk/n, удовлетворяющие, очевидно, соотношению Σνϊ = 1· Πο- лученные данные заносят в таблицу, в которой указывают интервалы Axk и соответствующие относительные частоты. В качестве примера Таблица 4.1 Результаты измерений Ошибка (Δχ^), μ Число ошибок в интервале /Ife Относительная частота v| Относительная плотность р%, 1/м — 20; -15 2 0,02 0,004 -15; — 10 8 0,08 0,016 -10; — 5 17 0,17 0,034 -5; 0 24 0,24 0,048 0; 5 26 0,26 0,052 5; 10 13 0,13 0,026 10; 15 6 0,06 0,012 15; 20 4 0,04 0,008 *Если при группировке наблюдений имеется значение, которое лежит точно на границе двух интервалов, то к соответствующим числам одного интервала следует прибавить 1/2. 430
в табл 4.1 приведены ошибки 100 результатов измерений дальности до цели радиодальномером, когда Ах взято равным 5 м. В рамках математической статистики вопрос об интервалах группировки может быть рассмотрен только с формальной стороны: полноты математического описания распределения, точности вычисления средних значений по сгруппированным данным и т. д. Обычно группировка по 10—20 интервалам, в каждый из которых попадает не более 15—20% значений xit оказывается достаточной для довольно полного выявления всех существенных свойств распределения и надежного вычисления по группированным данным основных характеристик распределения (см. также с. 435). 4.2. ОЦЕНКА ЗАКОНА РАСПРЕДЕЛЕНИЯ Чтобы получить представление о распределении наблюдений, поступают следующим образом. Область экспериментальных значений случайной величины разбивают на г обычно одинаковых интервалов длины Δα; и вычисляют относительную плотность точек в каждом интервале (отношение частоты попадания в этот интервал к его длине Δλ:): ΡΪ^™--2?-. *=1.2,...,г, (4.2.1) Δ* ηΔχ где nk — число экспериментальных точек в k-u интервале. Подсчитанные таким образом значения можно представить графически в виде ступенчатой кривой: по оси абсцисс откладывают соответствующие интервалы и на каждом из них, как на основании, строится прямоугольник, высота которого равна относительной плотности р%. Полученная ступенчатая кривая называется гистограммой. На рис. 4.1 поданным табл. 4.1 построена гистограмма ошибок измерения дальности. Гистограмма дает наглядное представление о распределении наблюденных значений на числовой оси. По ней можно определить частоту попадания наблюденных значений в любой интервал числовой оси. Очевидно, что все величины р% неотрицательны, причем суммарная площадь под гистограммой равна единице: 2p%bx=±J£nh=l. (4.2.2) При заданном числе наблюдений η гистограмма, составленная на основе группировки с достаточно малыми интервалами, обычно многовершинная и не отражает наглядно существенных свойств распределения. С другой стороны, группировка по слишком крупным интервалам может привести к потере ясного представления о характере распределения и к грубым ошибкам при вычислении других характеристик распределения. Относительно выбора длины интервала группировки Ах нельзя дать однозначную рекомендацию. Можно лишь высказать качественное соображение: чем больше объем выборки я, тем меньше можно взять Ах. 431
Аналогично строится гистограмма в двумерном случае, когда рае-' сматривается распределение данных на плоскости (например, при анализе рассеивания приГ стрельбе или бомбометании). Разбив часть плоскости, занятую экспериментальными точками, на прямоугольники и подсчитав число точек в каждом прямоугольнике, можно определить соответствующие относительные плотности точек как отношение частоты попадания в прямоугольник к его площади. Во многих случаях возникает необходимость аппроксимации экспериментально полученной гистограммы подходящим аналитическим выражением, представляющим собой некоторый теоретический закон распределения или плотность вероятности, которые должны удовлетворять двум обязательным условиям: неотрицательности и нормировки (1.2.4). Эта операция называется выравниванием статистических данных. При этом естественно стремятся к тому, чтобы такая аппроксимация (выравнивание) в определенном смысле была наилучшей. Имеется много разнообразных способов и приемов подбора распределений для экспериментальных данных и невозможно выделить какой-либо из них. Успех в значительной степени определяется накопившимся опытом в этом деле. Однако можно дать некоторые общие рекомендации. Обычно аппроксимация гистограммы является не самоцелью, а производится для получения каких-либо выводов о физическом механизме изучаемого явления или .процесса или же для выполнения последующих расчетов. Исходя из этого прежде всего необходимо принять решение—аппроксимировать ли гистограмму дискретным или непрерывным распределением (плотностью вероятности). После этого производится качественное сопоставление характера построенной гистограммы с графиками различных теоретических распределений (дискретных или непрерывных) и по близости их поведения останавливаются на каком- либо одном из наиболее подходящих*. Некоторые из теоретических распределений были приведены в гл. 1 (см. табл. 1.1). Пусть на основании качественных соображений выбран некоторый закон распределения ρ (λ:; λχ, λ2,..., λδ), зависящий ots параметров λ^. Тогда нужно подобрать эти параметры λ^ f=lf 2,..., s, так, чтобы функция ρ (χ; λ!,..., λ8) наилучшим образом описывала гистограмму. Для этого на практике часто применяют наиболее простой метод — — метод моментов (хотя теоретически предпочтителен метод максимального правдоподобия — см. § 4.4). Сущность метода моментов заключается в следующем. Параметры λχ, ..., is находят путем приравнивания первыхs низших моментов теоретического распределения mv (Хъ ..., λ,) = j* χ* ρ (χ; λ*, ..., λ.) dx (4.2.3) *Β зависимости от решаемой задачи характер и степень близости поведения следует понимать по-разному: иногда можно ограничиться хорошим совпадением в центральной области (области больших вероятностей), а иногда (например, в теории обнаружения сигналов) нужно стремиться к хорошему совпадению на «крыльях» закона распределения (в области малых вероятностей). 432
соответствующим статистическим моментам /п£, которые вычисляют по результатам независимой выборки хъ хъ ..., хп согласно формуле т: ι п V Xi. (4.2.4) /=ι Таким образом, интересующие параметры λί9 ί=1, 2,..., s, определяют из решения системы s уравнений mv = m;, ' = 1, 2, ..., s. (4.2.5) -20-15-10-5 0 5, 10 15 20 Χ Рис. 4.1. Гистограмма Рис. 4.2. Плотность вероятности χ2 Например, если теоретический закон распределения ρ (χ; λΧ, λ2) является двухпараметрическим (зависит только от двух параметров), то эти параметры часто можно определить, приравняв соответственно математическое ожидание т1 и дисперсию D теоретического распределения статистическому среднему значению т* и статистической дисперсии D* (см. § 4.3). Если выбор аппроксимирующей плотности вероятности производится из семейства кривых Пирсона (см. § 1.5), то параметры а и bi определяются из условия сохранения первых четырех моментов статистического распределения. Полная методика аппроксимации при помощи кривых Пирсона сводится к следующим этапам: 1. По результатам наблюдений находят первые четыре выборочных момента. 2. По ним вычисляют значения βΧ π7β2 согласно выражениям (1.5.15) и по рис. 1.14 определяют тип распределения. 3. Выборочные моменты приравнивают моментам выбранного распределения, которые зависят от параметров распределения. 4. Полученные уравнения разрешают относительно неизвестных параметров и, следовательно, находят искомое распределение*. ♦Описанный метод нахождения теоретического закона распределения, сводящийся по существу к оценке определяющих его параметров, называется параметрическим. Возможно непараметрическое оценивание закона распределения [162, 1641* 433
Чтобы оценить, насколько хорошо выбранный теоретический закон распределения (плотность вероятности) согласуется с результатами наблюдений, пользуются так называемыми критериями согласия. Таких критериев несколько. Однако наиболее часто применяют критерий χ2 (хи-квадрат) Пирсона. Пусть результаты η независимых наблюдений случайной величины ξ сгруппированы по г неперекрывающимся интервалам и подсчитаны относительные частоты ν% попадания результатов в соответствующие интервалы (как это сделано в табл. 4.1). Обозначим через pk вероятности попадания в те же интервалы, вычисленные по теоретическому распределению. Тогда за меру расхождения относительных частот и теоретического распределения можно принять величину е= 2 ck(v%-pk)\ где ck — некоторые коэффициенты. К. Пирсон предложил брать ch = = n/pk> k = 1, 2,... При таком выборе коэффициентов ch меру расхождения ε принято обозначать χ2: χ2=„^ М-»Г =^ (nk-nPh)\ (4ЗД *=1 Ph Λ=ι прк Одним из соображений, оправдывающих такой выбор коэффициентов ck, является то, что чем меньше вероятность pkt тем меньшие отклонения от нее допустимы, вследствие чего отклонениям (v| — pk)2 при малом pk нужно придавать больший вес. Главным же соображением служит то, что при увеличении η практически независимо от вида закона распределения исследуемой случайной величины ξ плотность вероятности случайной величины χ2 определяется известным законом хи-квадрат (3.3.45), в котором число степеней свободны т нужно полагать равным т = г — s — 1, где г — число интервалов группировки; s — число параметров теоретического распределения, оцениваемых по результатам наблюдений. Поясним сказанное. Значения xlt л:2,..., #п» полученные в фактически осуществленной выборке, следует рассматривать как наблюденное «значение» /ι-мерной случайной величины (ξχ, ξ2»···> £п)> где каждая величина ξ* представляет как бы одно значение величины ξ, с которым мы встречаемся в ί-м наблюдении. Поэтому выборку можно рассматривать как испытание, в котором осуществляется конкретная реализация величины (ξχ, ξ2> ···> £п)· Естественно, что, повторяя выборки, мы будем получать различные значения этой величины. В дальнейшем всегда следует иметь в виду, что любые статистические характеристики, определяемые по результатам выборки, являются случайными величинами, в то время как вероятностные характеристики суть фиксированные (хотя иногда и неизвестные) постоянные. В соответствии с этим при случайных результатах опытов относительные частоты ν*, ..., ν* следует трактовать как случайные величины. Если некоторые параметры теоретического распределения оцени- 434
Таблица 4.2 Минимальное число интервалов г для выборок объема η при α=0,05 η г 200 16 400 20 600 24 800 27 1000 30 1500 35 2000 39 ваются по данным наблюдений, то и вероятности ръ ..., рг будут случайными величинами. Поэтому величину следует рассматривать как случайную, а ее значение (6) как конкретное значение случайной величины, реализовавшееся в фактически осуществленной выборке. Методика применения критерия χ2 для оценки расхождения теоретического и статистического распределений сводится к следующему: 1. По формуле (6) подсчитывают значение χ2. 2. Определяют число степеней свободы т = г — s— 1, где г — число интервалов группировки результатов; s — число параметров теоретического распределения, оцениваемых по результатам наблюдений. 3. В зависимости от характера задачи назначают достаточно малую (обычно порядка 5; 1 или 0,1%) вероятность а, называемую уровнем значимости. Считается, что событие с такой вероятностью является практически невозможным. 4. По имеющимся таблицам находят величину χ«| (см. рис. 4.2), определяемую уравнением оо Ρ {%*>№= J/V(*)d*. (4.2.8) Χα Абсцисса χα иногда называется доверительной границей, а вероятность Ρ {У*2 > Χα} — доверительной вероятностью. 5. Если значение χ2, вычисленное по формуле (6), больше Ха, то теоретическое распределение считают плохо согласующимся с результатами наблюдений при уровне значимости а, так как при этом распределении практически невозможно получить χ2 > χα. Если же значение X2, вычисленное по формуле (6), оказывается меньше χ», то принимают, что выбранное теоретическое распределение согласуется с результатами наблюдений. Разумеется, решение зависит от объема выборки л, числа интервалов группировки г и уровня значимости а. В том случае, когда критерий χ2 применяется при уровне значимости а = 0,05, рекомендуется принимать минимальное число разрядов, указанное в табл. 4.2. 435
. Если число степеней свободы т ^ 30, то при определении доверительной границы χ& можно воспользоваться тем фактом, что в данном случае случайная величина 1/Λ2χ2 приближенно нормально распределена с математическим ожиданием Y2m — 1 и средним квадратичес- ким отклонением, равным единице. 4.3. ХАРАКТЕРИСТИКИ ОЦЕНОК. ОЦЕНКИ МОМЕНТОВ РАСПРЕДЕЛЕНИЯ Допустим, что по результатам выборочных значений х = {хъ x2t ..., хп) случайной величины ξ нужно оценить ее числовые характеристики (например, математическое ожидание, дисперсию и другие моменты) или неизвестный параметр λ, от которого зависит закон распределения (плотность вероятности) ρ (χ; λ) этой случайной величины. Получить оценку по существу означает, что каждой выборке нужно поставить в соответствие некоторое значение параметра λ, τ. е. организовать некоторую функцию результатов наблюдения θ (х), значение которой принимается за оценку Хп параметра λ*. Любая функция, зависящая только от наблюдений, называется статистикой. Так как результаты наблюдения являются случайными величинами, то статистика будет тоже случайной величиной. Величина (статистика) Θ (х) является конкретным значением функции θ (ξ) от случайных аргументов, причем если ξΑ = xk (k = 1, 2,..., n)t το λη = = Θ(χ). Отсюда ясно, что нельзя найти оценку, которая бы принимала значения, близкие к λ, для всех возможных выборок. Следует ограничиться такой процедурой оценивания, которая дает хорошие результаты «в среднем» при многократном ее использовании. Задача определения вида функции (статистики) θ (χ) должна решаться с учетом критерия качества (оптимальности) желаемой оценки^ Чтобы сформулировать его, заметим, что закон распределения статистики Θ (χ) как функции от η независимых случайных величин с общим законом распределения ρ (χ; λ) вполне определен, причем он будет зависеть от.параметра λ. Зная этот закон, можно вычислить вероятность отклонения оценки от оцениваемого параметра, математическое ожидание и дисперсию оценки как при конечных я, так и при η ->■ оо. Базируясь на этих предельных характеристиках, можно более точно сформулировать требования к оценке, представляющей практическую ценность. Состоятельность оценки. Оценка λη параметра λ называется со- стоятельнощ если она сходится по вероятности к оцениваемому параметру при увеличении объема выборки, т. е. ΗπιΡ{|λη—λ|<ε} = 1, (4.3.1) /1-Х» *В дальнейшем, говоря о параметре λ, будем иметь в виду и числовые характеристики случайной величины ξ. 436
где ε > О — сколь угодно малое число. На основании неравенства Че- бышева (1.3.24) можно показать, что достаточное условие выполнения соотношения (1) заключается в том, чтобы lim Μ{(λΛ—λ)2} = 0. (4.3.2) Состоятельность оценки означает, что при достаточно большом объеме выборки со сколь угодно большой достоверностью отклонение оценки от истинного значения параметра меньше любой наперед заданной величины. Состоятельность является лишь асимптотической характеристикой оценки при /ι-> оо. Несмещенность оценки. Свойство состоятельности оценки характеризует поведение оценки при стремлении объема выборки к бесконечности и не налагает никаких ограничений на поведение оценки при конечных я. Если существует одна состоятельная оценка λΛ, то можно построить бесконечно много других. Например, при фиксированных а и Ь оценка λη (η — а)/ (п — b) будет также состоятельной. Всегда желательно, чтобы для всех η математическое ожидание оценки было равно оцениваемому параметру, т. е. Μ{λ„} = λ. (4.3.3) Оценка, удовлетворяющая этому условию, называется несмещенной-, в противном случае — смещенной. Разность Δ % = Μ {λη} — λ называется смещением или систематической ошибкой оценки. Если равенство (3) выполняется лишь в пределе при η -> оо , то соответствующая оценка называется асимптотически несмещенной. В общем случае точность оценки некоторого параметра λ на основании выборки обычно характеризуют средним значением квадрата ошибки ε2 = Μ{(λη-λ)2}, (4.3.4) где λΛ — оценка параметра λ по выборке объема я. Запишем это выражение иначе: Μ{(λΛ^λ)2} = Μ{[λη-Μ{λΛ} + Μ{λη}-λη = - Μ {[λ„-Μ {λ„}]2} + 2Μ {[λ„-Μ {λη}] [Μ {λη}-λ]} + + Μ{[Μ{λ„}-λ]2}. Если параметр λ в процессе наблюдений остается постоянным, то перед последним слагаемым в правой части можно опустить операцию математического ожидания Μ {[Μ{λη} — λ]2} = [Μ{λη} — λ]2, а среднее слагаемое равно нулю: Μ{λη-Μ {Κ}} = Μ {λη}-ΝΙ{λη} = 0. Поэтому ε2 = Μ{[λΛ-Μ{λΛ}]2} +[Μ {U-λ]2. (4.3.5) 437
Среднее значение квадрата ошибки состоит из двух слагаемых: первое представляет собой дисперсию оценки Df; - Μ {[λ„-Μ {λ„}12} = Μ {λ*}-[Μ {λΛ}]2, (4.3.6) характеризующую долю «случайности» в величине ошибки, второе есть квадрат смещения оценки Δ2χ = [Μ{λ„}-λ]*. (4.3.7) Итак, среднее значение квадрата ошибки равно румме дисперсии оценки и квадрата смещения оценки ε* = Μ{(λ„-λ)*}=£λ~+Δ£. (4.3.8) На практике удобно представить ошибку оценки в тех же единицах измерения, что и оцениваемый параметр. Обычно берут положительное значение корня квадратного из величин ошибок (6) — (8). При этом средняя квадратическая или стандартная ошибка определяется формулой о%=УЩ, (4.3.9) ошибка смещения Δχ = Μ{λ^}—λ (4.3.10) и общая ошибка ε = (σ| + Δ|)'/2. (4.3.11) Часто рассматривают нормированные ошибки. Для этого ошибки (9) — (11) делят на значение оцениваемого параметра (при λ=^0). Достаточность оценки. Рассмотрим оценку λη параметра λ и ее выборочное распределение ρ (λη; λ). Если плотность вероятности выборки можно представить в виде Ρ (*ι, ..·> хп\ λ) = ρ (λΛ; λ) h fo, ..., χη), ^ (4.3.12) где функция h (χΊ, ..., лп) не зависит от λ, то оценка λη называется достаточной. Это значит, что вся доставляемая выборкой информация относительно параметра λ содержится в λη. Если известна достаточная статистика, то никакая иная статистика, вычисленная по той же выборке, не может дать дополнительной информации, касающейся λ. Доказывается, что необходимое условие существования достаточной статистики состоит в возможности представления закона распределения в виде ρ (χ; λ) = ехр {Α (λ) Β (χ) + С (χ) +.D (λ)}. (4.3.13) В том случае, когда область определения ρ (χ; λ) не зависит от λ, это условие является также достаточным. Отметим, что достаточная оценка не является однозначной. Любая оценка, однозначно связанная с достаточной, является также доста- 438
точной. Это обстоятельство допускает некоторую свободу в выборе функций достаточных оценок, которые к тому же были бы состоятельными и несмещенными. Эффективность оценки. При ограниченном объеме выборки оценки могут различаться средним квадратом ошибки (4). Очевидно, что чем меньше эта ошибка, тем теснее сгруппированы значения оценки около оцениваемого параметра λ. Поэтому всегда желательно, чтобы ошибка оценки была по возможности малой, т. е. выполнялось условие ε2 = Μ{(λ—λ)2} = πιίη. (4.3.14) Оценку 1, удовлетворяющую этому условию, можно назвать оценкой с минимальным средним квадратом ошибки. Если оценка X несмещенная, то величина ε2 совпадает с дисперсией оценки Ζ)χ. Несмещенная оценка с минимальной дисперсией является особенно важной.. Докажем, что дисперсия любой оценки при некоторых условиях имеет значение, которое не может быть меньше нижней границы, определяемой неравенством Рао—Крамера [159, 164]. Приведем это доказательство для оценки одного параметра, а для нескольких параметров укажем окончательный результат. Пусть ρ (χ|λ) есть совместная плотность вероятности выборочных значений χ = {хи х2, ..., хп}- Запишем очевидное равенство Jp (χ|λ) dx = lt где интегрирование должно выполняться по всему «выборочному пространству», т. е. набору всех возможных точек х. Допустим, что пределы интегрирования не зависят от λ и выполняются известные условия регулярности, позволяющие поменять местами порядок интегрирования и дифференцирования. Дифференцируя написанное равенство по λ, имеем |£ΐπ^μ1/7(χ|λ)ί/χ = Μ|_|_1ηρ(χ|λ)| = 0> (4>315) так как df(x)/dx = f(x)d In f(x) Idx. (4.3.16) Поскольку математическое ожидание в (15) берется по х, то для любой функции от λ, например ψ (λ), справедливо равенство Μ{ψ(λ)Ίτ1η/7(χ|λ)}=:()· (4-ЗЛ7) Допустим, что математическое ожидание оценки параметра λ равно ψ (λ): Μ{λ) = §λρ(χ\λ)άχ = ψ(λ). (4.3.18) Дифференцируя это равенство по λ, имеем Γ£*1η'<"λ>ρ(ζ|λ)Α-&&. J δλ dX 439
Вычтя отсюда (17), можем написать $&-Ш °*Р£1Х) Р^*-*®- . (4.3.19) Применив к этому выражению неравенство Шварца—Буняковского (П-8), имеем |[λ-ψ(λ)]ν(χ|λ)^|[^"^'λ>]ν(χ|λ)^χ>[^)-]2> (4.3.20) Здесь знак равенства имеет место лишь при условии д 1η /?(χ|λ)/3λ = k (λ) [λ — ψ (λ)], (4.3.21) где k (λ) не зависит от χ и 1, но может зависеть от λ. Заметим, что D£ == Μ {[λ—Μ {λ}]2} = Μ {[λ—ψ (λ)]2}. Поэтому из (20) получаем D£> W(WW . (4β3β22) Это и есть нижняя граница Рао—Крамера для дисперсии оценки. ~ Другая форма неравенства Рао—Крамера получается в результате замены М {[-1- In ρ (х | λ)]2} = - Μ {JL In ρ (χ Ι λ)}. (4.2,23) Это равенство получается дифференцированием выражения (15) по λ и при использовании соотношения (16). Если математическое ожидание оценки имеет вид Μ {λ} = λ + Δ (λ), где Δ (λ) — смещение оценки, то числитель в правой части неравенства (22) будет равен [I + άΔ (λ) /άλ]2. Следовательно, для несмещенной оценки неравенство Рао—Крамера имеет вид D£ > ! = ——! —- · (4.3.24) Μ{[-|:1ηρ(χμ)]2} м{-^.„Р(х|Я)} Несмещенная оценка, имеющая нижнюю граничную дисперсию, называется эффективной. Эффективностью оценки параметра называется отношение дисперсии эффективной оценки к дисперсии рассматриваемой оценки. Эффективная оценка не всегда существует. Если эффективная оценка существует, то она'является достаточной статистикой. Если же эффективная оценка не существует, достаточная статистика может существовать. Поэтому требование достаточности оценки оказывается менее ограничительным и жестким, чем требование эффективности. 440
Если выборочные значения xlt x2t ..., хп случайной величины!, имеющей плотность вероятности ρ(χ|λ), независимы в совокупности, то ρ(χ|λ)=Πρ(*ι|λ), 1ηρ(χ|λ)= J] 1ηρ(^|λ). При этом неравенство Рао—Крамера (24) для дисперсии несмещенной оценки параметра по независимой выборке объема η примет вид —ΉΜ{ΐίΓ1η''(*|λ,)]~'· <4·3-25) где для непрерывной случайной величины ξ со М{["!Г1ПР№)Г}= ί ["Ι"Ιη/,(Α:,λ)] P^W**, (4.3.26) — оо 9 а для дискретной случайной величины М{[~|Г1ПР№)Г}= 2 [-^1π/;(^|λ)]2ρ^|λ). (4.3.27) Если вместо оценки самого параметра λ интересоваться оценкой / функции от этого параметра / (λ), то граница Рао—Крамера для несмещенной оценки / имеет вид Df> mmz (4.3.28) Используя выражение (24) для минимальной дисперсии оценки самого параметра λ, получим Df > [dfitydXfDz. (4.3.29) Здесь знак равенства имеет место при условии -|- 1πρ(χ|λ) = ^(λ)[/-/(λ)], (4.3.30) А где / есть оценка / (λ) и функция g (λ) не зависит от наблюдений, но может зависеть от λ. Если условие (30) выполняется, то знаменатель в правой части неравенства (28) можно представить в виде Μ{[-1-1ηρ(χ|λ)]2} = £*(λ)ϋΓ. (4.3.31) Подставив (31) в (28), получим Df=uW._L_. (4.3.32) 1 Л * (λ) К ' -■\ .441
Приведем без доказательства неравенство Рао—Крамера для корреляционной матрицы ошибок несмещенных совместных оценок нескольких параметров λ = {λΐ9 λ2, ..., λ8}. В данном случае плотность вероятности выборки будет зависеть от этих параметров: ρ (хЩ=р(х19 %2> ···> Xn\^lf ^2> ···» ^s)· Пусть, R^ — корреляционная матрица ошибок несмещенных оценок, составленная из элементов Rij = M{(h-h)(h-h)}> i,/=l,2,..., s; (4.3.33) J — так называемая информационная матрица Фишера с элементами JtJ = NiidlapWX) . ainp(x|X)|= _Μί»1ηρ(4λ)Ί (4.з.34) Неравенство Рао—Крамера для нижней границы корреляционной матрицы ошибок несмещенных оценок имеет вид R£^J-1> (4.3.35) где J"1 — матрица, обратная J. Если в этой формуле имеет место знак равенства, то оценки называются совместно эффективными. Условием совместно эффективных оценок является выполнение равенства £|-λ=2Λ,(λ)-^1ηρ(χ|λ), (4.3.36) где функции gu (λ) не зависят от наблюдений и, следовательно, от λ. Применительно к оценке двух параметров λχ и λ2, считая оценки совместно эффективными, из (35) с учетом (33) и (34) получаем — 1 1 Ac = *ii = · detJ м/-Д-1пп*т1 ΐ-'ΜΧί. *«> Μ{^1η^(χ|λ)} Ζ)λ- = 7?22 = —^ii_ = III ! , (4.3.37) Μ{"^Γ1πρ(χ|λ)) Rn = #21 = г (Κ λ2) Vd^ D£i = /12/ det J. Здесь r (λΐ9 λ2) = Лг/^п^гг)172 — нормированная взаимная корреляция между оценками %г и λ2; det J = («/ц/22 — J12) — детерминант матрицы J. Из сравнения первых двух формул (37) с формулой (24) следует, что первый сомножитель в правой части (37) совпадает с дисперсией эффективной оценки одного параметра. Поскольку 0 <! г2 (λΐ9 λ2) ^ 1, то ясно, что наличие конечной корреляции между оценками всегда приводит к увеличению дисперсии совместно эффективных оценок (по сравнению с дисперсией эффективной оценки одного параметра). Нетрудно убедиться [159], что для независимой выборки объема η формулы (37) с учетом (34) примут вид 442
/•(λι,λβ) = Если βχ^^Μ^^Ιπρ^Ιλ^Τ^Ι-ΓΜλχ,^)]-1, (4.3.38) f d In ρ (jg I λ) a In ρ (λ: | λ) ^ (*{[^1"P(*^ Μ f dlnp(*^) 31ηρ(*|λ) |_Q> (4.3.39) t βλ$ ax2 J то рассматриваемые две оценки будут некоррелированными. Дисперсии оценок являются важнейшими характеристиками качества оценок и во многих практических задачах ограничиваются лишь вычислением и указанием их. Однако в математической статистике применяются и другие характеристики оценок, а именно, точность оценки принято определять величиной доверительного интервала, а соответствующую этой точности надежность определяют доверительной вероятностью (с. 447). Пример 4.3.1. Оценки моментов случайной величины. Получим оценки моментов случайной величины ξ. Начнем с математического ожидания тг и дисперсии D = μ2. Один из возможных и естественных способов получения оценок этих величин на основе η независимых измерений случайной величины ξ заключается в том, что в качестве статистических оценок щ и D берутся соответственно выборочное среднее значение ml и выборочная дисперсия Ъ*, определяемые равенствами mj=(l/n) 2 *h (4.3.40) £*=μ*2=(1/η) 2 {Xi-mlf. (4.3.41) Аналогичные выражения можно записать для оценок начальных и центральных моментов, приняв за них выборочные значения*) mj;=(i/n)2 Α* μί-ο/*) 2 (**-K)k· (4·3·42) /=1 1=1 При вычислении выборочного среднего и выборочной дисперсии по группированным данным пользуются формулами г г aft "ft = 2 akVk> (4.3.43) ι-ν2 6=1 k=l *) При статистической оценке центральных моментов можно рассматривать два случая: 1) математическое ожидание т\ неизвестно и в качестве него принимается т\ и 2) т\ точно известно. Во втором случае в выражения для центральных моментов μ \ нужно подставить т\ вместо mf. 443
D*=-^- Σ 4"fc-«)2= Σ «К-К)2· (4.3.44) где г — число интервалов группировки; а& — середины интервалов. Если данные сгруппированы по крупным интервалам, то подсчет дает слишком грубые резуль- , таты, и в таких случаях полезно прибегать к специальным поправкам на группировку [8, 159]. На основании центральной предельной теоремы и формулы (42) можно прийти к заключению, что как начальные статистические моменты т\, так и центральные μΐ распределены асимптотически (при η -> оо) нормально; совместные распределения нескольких моментов (начальных или центральных) оказываются также совместно нормальными [8]. Рассмотрим некоторые характеристики оценок математического ожидания и дисперсии, определяемых формулами (40) и (41). Интерпретируя в этих формулах χι как отдельные экземпляры случайной величины ξ, согласно закону больших чисел (1.3.39) имеем lim P — Σ h—Mi η /-ι <ε =1. Это значит, что оценка ml является состоятельной. Математическое ожидание выборочного среднего равно M{mJ}=±MJ2 ξι) -4" Σ МфНлц. (4.3.45) п υ=ι J п /=ι Следовательно, оценка ml является несмещенной. Пользуясь свойствами математического ожидания и учитывая независимость случайных величин ξ$ и ξ7· при / Φ ;, находим дисперсию оценки математического ожидания D * =М ίΓ 1 п Ύ\ п D — Σ (ξι-wi) =^"2 Σ Μ {(ξ, -т^}= — . (4.3.46) Дисперсия оценки математического ожидания уменьшается обратно пропорционально объему выборки. Найдем математическое ожидание выборочной дисперсии, для чего предварительно представим сумму в правой части (41) иначе: η η η 2 (xi-my = 2 [(*ι—«ι)—(«J—«ι)Ρ = Σ (*г-"*1)2- Λ Λ Π -2(m·—Hi!) 2(^-mi)+ Σ Κ~^ι)2= Σ (**~'"ι)2- ί=1 ί=1 /=1 η —2η (m*~ mi)*+/i(mj— тх)2 = 2 (*|—λη)2—/ι (т*—/τζχ)2. По определению дисперсии имеем Μ {(ξ$ — #*ι)2} = £>· Учитывая, что центрированные случайные величины (ξ$ — тг) и (ξ7· — тг) при / =£ / предполагаются 'независимыми, получаем 444
Поэтому Μ {β*}=-^- Μ J 2 (fit- mj)« J= JL^~ D. (4.3.47) Следовательно, если за оценку дисперсии D принять величину D*, определенную формулой (41), то оценка окажется смещенной*. Из (47) следует, что несмещенную оценку дисперсии D можно получить, вычисляя несколько отличную от (41) выборочную дисперсию v ι п £*=—^— ΰ*= Г Σ (*i-m!)«. (4.3.48)· η — 1 η — ι ν χ Эта оценка является несмещенной и, как можно показать, удовлетворяет условиям состоятельности и эффективности. При большом объеме выборки η практически безразлично, по какой из формул (41) или (48) вычислять дисперсию. Однако при малом η следует пользоваться формулой (48). Можно показать, что дисперсия оценки (41) определяется выражением D _±iz*i _ 2(μ«-2μ1) ,μ«-3μ!, (4 3.49) υ η η η9 Очевидно, что дисперсия несмещенной оценки (48) равна Я5. ="20d* /(«-О2· (4.3.50) Для нормально распределенной случайной величины μ4 = 3μ| = 3D2 и, следовательно, 2 (п — 1) 2 Do· = -Ч*-2»*· Do* = T=-\ D*. (4.3.51) Укажем некоторые дополнительные свойства оценок математического ожидания (40) и дисперсии (41). Можно доказать, что для любого симметричного распределения эти оценки не коррелированы и, следовательно, для независимой выборки из нормальной совокупности они независимы. Согласно центральной предельной теореме выборочное среднее значение (40) и выборочная дисперсия (41) распределены асимптотически (при η —> оо) нормально. Для конечной независимой выборки, относящейся к гауссовской случайной величине, выборочное среднее значение mj распределено нормально, а распределение выборочной дисперсии D* имеет вид X2-распределен и я (3.3.48) с η — 1 степенями свободы: pD<[ (χ)={(2πΌη-2Υη-γ)12 Г [(η— l)^]}-1 ^rt~3)/2 exp (—nx/2D)t χ > 0. (4.3.52) Статистические оценки начальных моментов tnk> определенных формулой (42), являются несмещенными МК}=— Σ M{|*}=mft, причем дисперсии этих оценок равны £>т. = -5г Σ D к --!- Σ [Μ { ζ?} -(Μ { |* })2] =(**- mt)ln. (4.3.53) Ч "а *Если математическое ожидание ηΐχ точно известно, то статистическая оценка дисперсии (41) будет несмещенной. 445
Оценки центральных моментов по формулам (42) оказываются смещенными [8]. Например, ■ ю- '"-'У"21 »·■<»»- Дисперсии оценок центральных моментов (42) определяются выражением . ϋμΦ =(1Μ) (μ2?ι-2^μ^1μ^+1-μ|+^μ2μ|_1)+0(ΑΖ-2). (4.3.55) Для получения несмещенных оценок центральных моментов нужно вместо (42) пользоваться исправленными оценками »*·- (п-1) (η-2) μ*' - __ /|(я»-2л+3) ,_ Зп (2п-3) , *.2 Часто бывает необходимо получить математическое ожидание и дисперсию некоторой функции Я (μ*, μ£) от выборочных центральных моментов μ* и μ*, являющихся случайными величинами. Во многих случаях для этого можно воспользоваться следующей теоремой [8]. Предположим, что выполнены два условия: 1) в некоторой окрестности точки μ* = μν, μ* = μρ функция Я непрерывна и имеет непрерывные первые и вторые производные по аргументам μν и μρ; 2) для всевозможных значений величин х% выполняется неравенство \Н\ < < Спа, где С и а — неотрицательные постоянные. Тогда, если обозначить Я0, Нг и Я2 значения функции Я (μν, μρ) и ее первых частных производных в точке μν = μν, μρ = μρ, то математическое ожидание и дисперсия случайной величины Я (μν, μρ) будут определяться формулами М{Я}=Я0+О(1М), Дя =μι(μ0"ϊ+2μιι(μί. Ю^ + ^^+ои-3/2). (4*3,57) Здесь μ2 (·) — второй центральный момент соответствующей случайной величины; μη (·) — смешанный центральный момент второго порядка. При больших значениях η функция Я (μν, μρ) распределена асимптотически нормально. Приведем два примера на применение формул (57). В качестве показателей асимметрии и эксцесса часто используются величины Τ/βΓ=γι=μ3μ2-3/2, β2=Υ2+3 = μ4μΓ2. (4.3.58) Примем за оценочные значения этих величин выражения У~К=К(КГ3/2> Рг= μι Ю-2· <4·3·59> По формулам (57) получим Μ{νβ[}=ν"βΓ,Μ{β*}=β2, D _ _4μ1 μβ--12μ2 μ$ μδ—24μ| μ4+9μ| μ4+35μ|μ^ +3βμ\ (4.3.60) μ| μ8—4μ2 μ4 μ6 — 8μ* μ8 μ6+4μ!--μ| μ!+ 1^ μ| μ4+!6μ| μ| u ο* — « · ρ2 ημ% 446
Для нормально распределенной случайной величины эти приближенные выражения примут вид M{VJj}=M{P;}=0,Dy_^6//i, £β,~24/η. (4.3.61) Пусть имеется η пар наблюденных значений (xlt #1), ..., (xh, Уп) Двух случайных величин ξ и η с нормированной взаимной корреляцией г. Естественно за выборочную нормированную взаимную корреляцию принять выражение r*HDiDirl/2jr s^i-^)(w-«;4). <4·3·62> 1_ ί=1 где выборочные значения математического ожидания т£ и дисперсии D* случайных величин ξ и η определяются по формулам типа (40) и (41). В данном примере формула (57) приводит к следующим результатам: Μ {г*} = г, 63) D = г* / 1^40 , μο4 , 2μ22 4μ22 __ 4μ8ι _ 4μ18 \ г* 4л \ μ220 μ§2 μ20 μ02 μ?ι μιι μ2ο μιϊμο2/ где μ$; — смешанные центральные моменты совместного теоретического распределения случайных величин ξ и η. Для совместно гауссовских случайных величин ξ и η последняя формула упрощается: Dr* тъ (1/л) (1—г·)1. (4.3.64) Если случайные величины ξ и η распределены совместно нормально, но объем выборки η небольшой, то для оценки нормированной взаимной корреляции используют преобразование, введенное Фишером: Доказывается [8], что величина Ζ уже при небольших значениях η распределена приблизительно нормально с математическим ожиданием и дисперсией, определяемыми приближенными формулами Μ<ζ>^ζ+7(ΪΠΓ· ^~7=Г (4·3·66) Выше был рассмотрен способ получения точечных оценок некоторых параметров. Более полный и надежный способ оценивания параметров случайных величин заключается в определении интервала (а не единственного точечного значения), в котором с заданной степенью достоверности будет заключено значение оцениваемого параметра. Интервал длиной (λΐ9 λ2), центром которого служит оценка параметра и в котором с вероятностью α заключено истинное значение параметра, называется доверительным интервалом, соответствующим доверительной вероятности а*. Доверительная вероятность α назначается до производства выборки и не учитывает какие-либо конкретные данные опыта. Задача определения доверительного интервала может быть решена только в том случае, если удается найти распределение выборочной величины, используемой в качестве оценки. *Часто используется другая терминология: вместо доверительного интервала говорят о доверительных границах, а вместо доверительной вероятности — о коэффициенте доверия. 447
Поясним содержание такого способа оценки параметра на частном примере. Пусть в качестве оценки математического ожидания- тх случайной величины ξ используется среднее арифметическое (40) выборки достаточно большого объема п: ' ™ι= — У *, = ζ. (4.3.67) Π *ш Так как случайная величина ζ представляет собой сумму независимых одинаково рарпределенных случайных величин хи то согласно центральной предельной теореме при достаточно "больших η (л ^ 30) ее закон распределения близок к нормальному. Математическое ожидание и дисперсия нормального закона даются соответственно формулами (45) и (46): mi = Μ {ζ} = ml9 Dt = Din. (4.3. 68 Теперь запишем нормальную плотность вероятности случайной величины ζ: ρ (ζ) = (2πΰζ)-1/2 exp [ -(С-т^/ЗД (4.3.69) Найдем такую величину λα, чтобы выполнялось равенство Ρ {\ ζ—Щ |< λα} = Р {щ—λα< ζ</η1 + λα} = α. (4.3.70) С учетом (69) отсюда получим -J ρ(ζ)#β2φ(^)-1=2φ(λ«|/-£-)-1«α, (4.3.71) где Φ (χ)— табулированный интеграл вероятности (1.4.5). Из (71) имеемФ(Я,а]/л/£>) = (1 + а)/2. Воспользовавшись таблицами функции Φ (χ), по заданной величине (1 + а)/2 определяем значение аргумента λαΫ'η/Β'и затем находим длину доверительного интервала 2λα. Если дисперсия D заранее неизвестна, то в качестве ее ориентировочного значения можно взять оценку D*, вычисленную по формуле (48). Перед тем как дать более точное решение рассматриваемого примера, поясним смысл доверительного интервала. С этой целью распишем левую часть равенства (70) в двух эквивалентных видах: Ρ {ζ — λα < тг < ζ + λα} = Ρ {тг — λα < ζ < т1 + λα} = α. (4.3.72) Значение оценки ζ = т* при фиксированном объеме выборки является случайной величиной, меняющейся от одной выборки к другой? После извлечения выборки величина ζ принимает определенное числовое значение. Для него приведенное выше выражение (72), вообще говоря, неприменимо, так как оно либо попадает, либо не попадает в4 указанные пределы. Иначе говоря, после извлечения выборки теоретически верное выражение для вероятности имеет вид 448
Ρ{ηι1-λα<ζ<ηι1 + λ<χ} = 1 ο' (4.3.73) Будет ли точное значение вероятности (73) равно единице или нулю — обычно неизвестно. Однако если повторно многократно извлекаются аналогичные выборки и по каждой из них вычисляются оценки т*, то следует ожидать, что относительная доля случаев, для которых т\ попадает в интервал 2λα, будет примерно равна а. Обращаясь к левой части равенства (72), тот же результат можно сформулировать иначе: при многократном повторении выборки объема η в относительной доле случаев, равной а, доверительный интервал 2λα покрывает истинное значение тг. Заметим, что при заданной доверительной вероятности α доверительный интервал (λα, λα) можно выбрать разными способами, при этом его длина будет также разной. Обычно доверительный интервал выбирают так, чтобы длина интервала была минимальной. В общем виде задачу построения доверительных интервалов можно сформулировать следующим образом. Пусть известна некоторая функция θ (χ; λ), зависящая от данных выборки и оцениваемого параметра λ, причем последняя зависимость от λ является непрерывной и монотонной. Предположим, что распределение случайной величины θ (χ; λ) не зависит от оцениваемого параметра или других неизвестных параметров. Если эти предположения выполнены, то, пользуясь известным распределением величины θ для заданной доверительной вероятности а, можно найти такие пределы θα и Θ^ (не зависящие от данных выборки), чтобы выполнялось равенство Ρ{θα<Θ<Θα+} = α. Выбор этих пределов при данном а вообще не определяется однозначно, но неравенства θα<Θ(χ;λ)<θ+ можно в силу монотонности и непрерывности по аргументу λ разрешить относительно λ и записать их в равносильном виде λα(χ)<λ<λά~(χ), Tie λα (χ) и λα (χ) — две функции наблюдений (зависящие также от }« и θα"). Интервал (λα, λ^) будет доверительным интервалом, соответствующим доверительной вероятности а. Применим этот метод определения доверительного интервала к оценке дисперсии (48) нормально распределенной случайной величины I с математическим ожиданием тг и дисперсией D. Отметим, что при больших η можно воспользоваться тем фактом, что оценка D* имеет приближенно нормальное распределение с математическим ожиданием D и дисперсией (51). Затем можно поступить точно так же, как и в рассмотренном выше примере с оценкой математического ожидания. При конечных значениях л обычно поступают иначе. 15 Зак. 956 449
Можно показать, что случайная величина j.-J^L^J^.)', *__,.· (4.3.74, имеет плотность вероятности χ2 с k = η — 1 степенями свободы (3.3.45). Функция %k = (η — 1) 25*/D, как видно из (48), зависит от данных выборки (х) и от оцениваемого параметра D. Однако плотность вероятности случайной величины %% зависит только от одного параметра — известного нам числа степеней свободы k = η — 1. Зависимость χ! от D является непрерывной и монотонной. Поэтому рассматриваемую функцию можно использовать для построения доверительных интервалов оценки дисперсии D. На основании практических соображений задаем доверительную вероятность а. Допустим, а « 0,95. Пользуясь имеющимися таблицами распределения χ2 с η — 1 степенями свободы, находим два таких значения χ2 (которые обозначим χ? и %1), чтобы вероятности χ2<χ?Η X2 > χ! были равны каждая 0,025 (рис, 4.3). Тогда окажется выполненным соотношение Р{%1< (П-£3* <χΐ} = α^0,95. С такой же вероятностью можно ожидать выполнения неравенств Ι?;<(Λ-1)Β·/χ5<Ζ)<(Λ-1)δ·/χϊ = Ζ)ί. (4.3.75) Два числа Da и D£ определяют доверительные границы для D. Метод доверительных интервалов применим для одновременной оценки нескольких параметров. Однако в этом случае «пространство параметров», т. е* совокупность всевозможных допустимых комбинаций их значений, не будет одномерным. Например, при совместной оценке двух параметров пространство параметров будет представлять собой некоторую область на плоскости. 4.4. МЕТОДЫ ОЦЕНКИ ПАРАМЕТРОВ РАСПРЕДЕЛЕНИЯ Допустим, что на основании анализа физического механизма, порождающего случайную величину ξ, можно сделать достаточно обоснованное заключение о типе закона распределения или плотности вероятности интересующей нас случайной величины. (Например, центральная предельная теорема позволяет считать, что при определенных условиях плотность вероятности является нормальной.) Однако параметры этого распределения (в приведенном случае — математическое ожидание т1 и дисперсия D) неизвестны, и их нужно оценить по результатам наблюдений, представленных в виде конечной выборки х =* (хг, х29 ..., хп)' Для решения этой задачи могут применяться разные методы, из которых наиболее часто практически используются четыре: 1) метод моментов, 2) оценка по апостериорному математическому ожиданию, 450
3) оценка по максимальной апостериорной вероятности и 4) метод максимального правдоподобия. Метод моментов заключается в том, что определенное количество моментов выборочного распределения приравнивается к соответствующим моментам теоретического распределения (см. § 4.2), являющимся функциями от неизвестных оцениваемых параметров. Рассматриваемое количество моментов должно быть равно числу подлежащих оценке параметров. Решая полученную систему уравнений относительно этих параметров, находим искомые оценки. В большинстве случаев этот метод не требует сложных вычислений. Однако получаемые оценки с точки зрения эффективности не являются «наилучшими» из возможных оценок: ό больших выборках они имеют не наименьшую возможную дисперсию. flew Рис. 4.3.· К определению доверительных интервалов 4.4. Логарифмическая функция Три последних метода базируются на рассмотрении апостериорной плотности вероятности. Поясним это. При решении некоторых задач до проведения наблюдений (взятия выборки) с большей или меньшей степенью обоснованности бывает известной (точно или ориентировочно) плотность вероятности оцениваемого параметра ррг (λ), которую называют априорной (доопытной) плотностью вероятности. Пусть выбранная нами плотность вероятности случайной величины ξ зависит от одного неизвестного параметра λ и при фиксированном значении λ есть ρ (χ |λ). По теореме умножения вероятностей можем написать ρ (χ; λ) = ρρτ (λ) ρ (χ|λ) = ρ (χ) ρ (λ|χ). (4.4.1) Отсюда получаем формулу Байеса для условной плотности вероятности параметра λ при данной выборке χ = {xlt x2, ..., хпУ ρ (λ|χ) = ррг (λ) ρ (χ\λ)/ρ (χ), (4.4.2) где по условию нормировки ρ(χ) = |/ν(λ)/>(χ|λ)ίίλ, (4.4.3) Λ — область всех допустимых значений параметра λ. 15* 451
Условная плотность вероятности ρ (λ|χ) называется апостериорной (послеопытной) плотностью вероятности параметра Pps (λ) = ρ (λ|χ). (4.4.4) При данной выборке она дает полные сведения об интересующем нас параметре λ. Условная плотность вероятности ρ (χ|λ), рассматриваемая как функция λ, называется функцией правдоподобия L(X) = ρ(χ|λ). (4.4.5) При извлеченной выборке (без учета априорного распределения параметра λ) она показывает, насколько одно возможное значение параметра λ «более правдоподобно», чем другое. С учетом введенных обозначений (4) и (5) можно написать Pps (λ) = kppr (λ) ρ (χ|λ) = kppr (λ) L (λ), (4.4.6) где k =7?-1 (χ) — коэффициент, зависящий от результатов выборки, но не зависящий от параметра λ. Если апостериорная плотность вероятности имеет достаточно «хороший» вид, а именно имеет одну вершину и почти симметрична, то представляется естественным искать такую оценку λ параметра λ, которая имеет минимальное апостериорное рассеяние. Сущность оценки параметра по апостериорному математическому ожиданию состоит в том, что оценка λ подбирается из условия минимума апостериорной дисперсии ^ = |(λ-λ)2Ρρδ(λ)Λ. (4.4.7) л Приравняв нулю результат дифференцирования правой части по λ, получим, что оценка определяется формулой* λ = ^λρΡ8(λ)άλ. (4.4.8) л В данном случае оценка представляет собой математическое ожидание или среднее значение («центр тяжести») апостериорной плотности вероятности. Такая процедура построения оценки оказывается сложной, и поэтому оценку чаще находят другими методами (в частности, методом максимального правдоподобия). В методе максимальной апостериорной вероятности в качестве оценки λ параметра λ берется то значение, при котором для заданного χ апостериорная плотность вероятности имеет абсолютный макси- *Оценки λ, полученные разными методами, здесь обозначены одинаково. Следует иметь в виду, что эти величины, вообще говоря, различны (см. пример 4.4.4). Они совпадают лишь в некоторых частных или асимптотических случаях. 452
мум. Иначе, за оценку принимается мода апостериорной плотности вероятности. Это значение является решением уравнения dPp*M I =о, (4.4.9) dX |λ=1 которое явным образом зависит от данных выборки. Так как логарифм — однозначная и монотонно возрастающая функция аргумента (рис. 4.4), то процедура максимизации апостериорной вероятности и величины In pps (λ) совпадают. Поэтому вместо уравнения (9) можно отыскивать соответствующий корень уравнения din pps (λ) dX .=0. (4.4.10) Во многих практических случаях априорная плотность вероятности Ррг (λ) оказывается неизвестной, и ее полагают достаточно равномерно распределенной (например, прямоугольной или нормальной с большой дисперсией) на интервале возможных значений параметра. При этом координата λ максимума апостериорной плотности вероятности будет совпадать с соответствующей координатой функции правдоподобия. В этом случае метод максимума апостериорной вероятности переходит в метод максимального правдоподобия. Здесь в качестве оценки берется тот корень уравнения dlnL(X) 1 = d\np(x\X) dX |λ=λ dX л*=0, (4.4.11) который явно зависит от данных выборки. Это уравнение называется уравнением правдоподобия. Если оценке подлежат несколько параметров λχ, λ2, .... %т распределения ρ (χ; λχ, λ2, ..., λ™), то апостериорная вероятность и функция правдоподобия будут зависеть от этих параметров. В данном случае совместные оценки hltX2, ...Дт параметров определяются как решения системы уравнений JLlnLfab, ... Лт)1 г, / = 1,2,...,/я, (4.4.12) oXi ,λ*=λί д 1ηρΡ8(χ|λ1, λ2,..., £w), i=l,2,...,m. (4.4.13) dXt Решения должны явным образом зависеть от результатов выборки и обеспечивать получение абсолютного максимума апостериорной плотности вероятности или функции правдоподобия. Покажем теперь, что три последних метода оценки параметров можно получить как частные случаи более общего, байесовского метода. Свяжем оптимальность оценки с так называемой функцией потерь с (λ, λ), вид которой выбирается из интуитивных соображений. Так, если хотят, чтобы оценка λ была близка к истинному значению λ, то с (λ, λ) должна иметь минимум при λ = λ и увеличиваться с ростом 453
|λ — λ|. Можно предложить много выражений для таких функций потерь, например: <:(λ,λ)Ηλ—λ|, <;(λ, λ) = (λ—λ)2, c(kf £) = const — δ(λ— λ), (4.4.14) где δ (λ:) — дельта-функция. На практике наиболее часто используются квадратичная (вторая) и простая (третья) функции потерь. Поскольку оценка ί зависит от результата наблюдения χ = = {хъ х2, ..., хп}> т. е. λ = λ (χ), то значение функции потерь с (λ, λ (χ)) является случайным. Средние потери, связанные с принятой оценкой ϋ при конкретном результате наблюдения х, определяются выражением с(£]х)= JC(X, λ (χ))/? (λ Ι χ) Λ, (4.4.15) (λ) где ρ (λ[χ) — условная или апостериорная плотность вероятности (4). Это есть условные потери, осредненные по всем возможным значениям параметра λ. Полные потери или средний риск получаются осреднением (15) по всевозможным наблюдениям х: c(i) = R(i)= §c(X\x)p(x)dx = (χ) = j ρ (χ) dx j c (λ, λ (χ)) ρ (λ | χ) άλ. (4.4.16) (χ) (λ) Байесов подход к оценке параметра предполагает заданным априорное распределение параметра ррг (λ), позволяющим по формуле (2) определить ацостериорное распределение ρ (λ[χ). При этом качество устройства, которое по реализации χ выносит оценку ί (χ), характеризуется средним риском R (λ). Оценка, минимизирующая средний риск, называется оптимальной байесовой оценкой. Нахождение оптимальной баейсовой оценки сводится к минимизации внутреннего интеграла в правой части (16): j с (λ, λ)ρ(λ|χ)ίίλ = ηιίη. (4.4.17) (λ) £ Подставив вторую функцию потерь из (14) в (17), получим уравнение для оптимальной оценки при квадратичной функции потерь: λ2—2λ J λρ(λ|χ)^λ + f λ2ρ(λ|χ)ίίλ = Π3ίη. (λ) (λ) £ Α. Отсюда дифференцированием по λ находим λ= ( λρ(λ|χ)ίίλ = Μ{λ|χ}. (4.4.18) (λ) Таким образом, при квадратичной функции потерь (что соответствует оценке по минимуму среднего квадрата ошибки) оптимальная байесо- 454
ва оценка совпадает с условным или апостериорным математическим ожиданием. Важно отметить, что эта оценка не зависит от вида апостериорной плотности вероятности ρ (λ|χ). Условное математическое ожидание (18) является оптимальной бай- есовой оценкой не только для квадратичной функции потерь, но и для более широкого класса функций потерь. Укажем здесь два таких класса [271. 1. Функция потерь зависит только от разности ε — λ — λ, симметрична с (ε) = с (— ε), выпуклая (с вогнутостью вверх) и апостериорная плотность вероятности ρ (λ|χ) симметрична относительно математического ожидания Μ {λ[χ}. 2. Функция потерь симметрична с (ε) = с (— ε), неубывающая с (ε2) ^ с (εχ) при е^е^Ои апостериорная плотность вероятности симметрична относительно Μ {λ|χ}, унимодальна и удовлетворяет условию lim с (λ) ρ (λ | χ) = 0. λ->-οο Отметим, что нормальная плотность вероятности удовлетворяет указанным выше условиям. И Если в уравнение (17) подставить простую функцию потерь (14), то оно примет вид const—ρ (λJ χ) |я=л = min λ или Р(Мх)|ЯеД = тах. («ΑΙ») λ Согласно формуле (1) последнее уравнение можно также записать в эквивалентной форме Ρρτ(λ)ρ(χ\λ)\λ^ = νη3ΧΪ (4.4.20) Следовательно, при простой функции потерь оптимальной байесо- вой оценкой согласно (19) является оценка по максимуму апостериорной плотности вероятности, а при равномерном априорном распределении ррг (λ) в силу (20) это есть оценка по максимуму функции правдоподобия. В большинстве радиотехнических задач, связанных с оценкой параметров, преимущественно используется метод максимального правдоподобия. Это объясняется рядом достоинств оценок, получаемых этим методом, а также сравнительной простотой вычислений и практической реализации соответствующих алгоритмов в виде измерительных устройств. Перечислим основные достоинства оценок метода максимального правдоподобия [1581. 1. В случае оценки одного параметра оценка λ наибольшего правдоподобия оказывается всегда состоятельной. 2. При больших η распределение оценки является приближенно нормальным 455
с центром в точке λ и дисперсией, определяемой формулами (4.3.24) или (4.3.35). Иначе говоря, оценка /С является асимптотически эффективной, так как не существует другой оценки с меньшей дисперсией. 3. Если параметр λ допускает эффективную оценку (несмещенную, состоятельную и имеющую минимальную дисперсию), то эта оценка получается как единственное в этом случае решение уравнения правдоподобия. 4. Как следует из предыдущего, оценка полностью использует всю информацию относительно параметра, которая доставляется выборкой, т. е. является достаточной статистикой. 5. Оценка обладает свойством «инвариантности» относительно замены переменного. Поясним это важное свойство. Пусть вместо параметра λ нужно оценить некоторую его однозначную функцию φ (λ). Тогда оценкой для φ (λ) будет φ (λ). Действительно, допустим, что обратной функцией для φ (λ) является λ=ψ(φ). Подставив ее вместо λ в функцию правдоподобия, имеем L(X) = L (ψ (φ)) = Lx (φ). (4.4.21) Так как максимум L (λ) соответствует λ = λ, то ψ (φ) следует приравнять λ, чтобы получить максимум Lt (φ). Следовательно, φ будет равно φ (λ). Отметим, что оценки \ максимального правдоподобия часто оказываются смещенными. Однако эта смещенность не имеет существенного значения и во многих случаях может быть устранена при надлежащем исправлении оценки. Рассмотрим четыре иллюстративных примера. Пример 4.4.1. Пусть случайная величина ξ принимает двч значения 1 и О с вероятностями Ρ (ξ = 1) = λ, ρ (ξ = 0) = 1 - λ. Допустим, что в результате п испытаний исход ξ = 1 осуществился k раз, а исход ξ = 0 η — k раз. Тогда функция правдоподобия будет определяться биномиальным распределением Ζ,(λ)=<:*λ*(1 — λ)"-*. В данном случае уравнение правдоподобия (11) принимает вид dlnL(£) k n~^!L_ dX λ 1 —λ Отсюда получаем решение λ = kin. Следовательно, относительная частота kin появления исхода | = 1 является асимптотически эффективной оценкой вероятности ρ (ξ = 1) = λ. Для нахождения дисперсии этой оценки вычислим: др/дХ = 1 при ξ = 1, др/дХ = —1 при ξ = 0. Подставив этот результат в (4.3.27), имеем Μ a in ρ (ξ ι λ) дХ --L.+ ■ ' λ 1—λ λ(ΐ — λ) По формуле (4.3.24) для больших п находим дисперсию оценки Ό~=Χ(\ — Χ)/η. 456
Пример 4.4.2. Методом максимального правдоподобия по независимой выборке объема η нужно оценить математическое ожидание тх и дисперсию D нормально распределенной случайной величины ξ, имеющей плотность вероятности Ρ (*; ти £>) = (2π£)-1/2 exp [—(χ—тг)*120]. (4.4.22) В рассматриваемом примере функция правдоподобия равна L (mu D)=(2nD)-nl2 exP ~ ^" 2 ^^т^ \nL(mlt D)»--|-Ш2я—j-lnD—^-Σ (^-m^. (4.4.23) Отметим, что обращение в максимум InL по параметру тг эквивалентно обращению в минимум суммы квадратов Σ (χι — /ηχ)2. Следовательно, в этом частном случае, когда наблюдения распределены нормально, из метода максимального правдоподобия следует так называемый метод наименьших квадратов (см. §4.5). Запишем систему из двух уравнений правдоподобия для определения неизвестных параметров тг и D: 1 дтх \пЦтъ D)\ ^ = — 2j(xi— m1)=0t D = D ^-\nL(mi,D)\ =-—L-L_-Lf (*г-т,)21=0. dD '«,_«. 2D I D i=1 J D = D Решением этих уравнений являются η *-±Σ«·ν-τ Σ ('·--)'■ (4.4.24) ι=1 /=1 Для получения дисперсий оценок и нормированной корреляционной функции между ними вычислим сначала необходимые математические ожидания, входящие в формулу (4.3.37). Из (22) имеем 1η ρ (χ; mit D) = — — In 2π-— In D —— (*— mx)2. Поэтому I L дщ J J Μ J In ρ (*; 'ίηχ,ϋ) Цд/Г Π I) = 1 D2 4D2 Μ {(x—mt) }=—, D Vv + x-^ \4Π Vv 1 1 -τετ (1-2+3)-—^Γ 4Da 2D2 457
Здесь была использована формула (1.4.45) для центральных моментов нормально распределенной случайной величины, причем учтено, что нормально распределенная случайная величина (ξ — πι-^ΐΥϋ является нормированной (имеет дисперсию, равную единице). Далее __ [ д 1η ρ (χ; т^, D) д In ρ \x; тъ D) 1 [ dm± ■ dD J = ""1^M ((*-^i)-(*-^i)3}=0, так как все нечетные центральные моменты нормально распределенной случайной величины равны нулю. Итак, ηΐχ и D являются асимптотически нормальными оценками математического ожидания тг и дисперсии D нормально распределенной случайной величины с дисперсиями, равными соответственно ЯЙ1 =S//if Db=2D4n, (4.4.25) причем нормированная корреляционная функция между оценками равна нулю, т. е. эти оценки асимптотически независимы. Пример 4.4.3. Требуется оценить параметр λ в законе распределения Пуассона ρ (*; λ)=ε~λ Xх /*!, (4.4.26) пользуясь независимой выборкой, которая для случайной величины ξ дала значения хъ х2, ..., хп. Запишем функцию правдоподобия согласно (10): п —λ Xxi 2 xi ·Ι(λ)=Π е =е-ЛЧ1' (хх\ х2\ ...хп\)~1 и ее логарифм η η In Ζ, (λ) = —/2λ+1η λ 2 xi— Σ *η (*|ϊ). Уравнение правдоподобия (11) принимает вид д lnL(T) -=-/2+4:2 Xi==0- Отсюда получаем, что оценкой параметра λ закона Пуассона является среднее арифметическое значение Ήτ2*«·. (4·4·27) Воспользовавшись формулами (4.3.27) и (4.3.24), нетрудно убедиться, что дисперсия оценки равна ■£U. = (l/n)T. (4.4.28) λ Пример 4.4.4. Сравним оценки, получаемые разными методами, для следующего простого примера [166]. Пусть подлежащий оценке параметр λ имеет равномерную априорную плотность вероятности (рис. 4.5, а) 1, 0< λ< 1, λ < 0, λ > 1. 458 PptW={J;
Наблюдением является случайная величина I = λ + η, где η -- «шум» наблюдения, имеющий априорную плотность (рис. 4.5, б) (4.4.29) вероятности Ρ И = Г я/2, О I 0, η <п<2, <0, η > 2. ЛгМ| ММ /5/7 /2/7 />М Этот шум мешает получению точной оценки параметра λ по наблюдению ξ. Параметр λ и шум η предполагаются независимыми, т. е. р2 (λ, п)=ррг (λ) Χ Χ ρ (η). По единственному значению ξ, равному χ = 2,5, нужно оценить λ. Для получения различных оценок необходимо предварительно найти условную ρ (*|λ),совместную ρ (λ, χ) и апостериорную ρр$ (λ)=ρ (λ\χ) плотности вероятностей. Причем эти три плотности вероятности целесообразно определять в указанной последовательности, поскольку априорные сведения заданы соотношением (29) и априорными плотностями ррг (λ) и ρ (я). Из (29) следует, что при заданном значении λ условная плотность вероятности ρ (χ\λ) совпадает по виду с плотностью вероятности ρ (η), за исключением того, что последняя сдвигается влево или вправо на заданную величину λ. Например, ρ (χ\λ) при λ = 0,5 показана-на рис. 4.5, в. Если теперь найти ρ (χ\λ) для любого допустимого λ и умножить ее на соответствующее значение ρ рГ (λ) (в нашем примере ррг (λ)= 1), то получим совместную плотность вероятности ρ (λ, χ), показанную на рис. 4.5, д. Апостериорная плотность вероятности ρ(λ\χ) при заданном χ = 2,5 находится по формуле ρ(λ|*)=ρ(λ, х)1р(х)\ она изображена на рис. 4.5, г. По формуле (8) находим оценку как математическое ожидание апостериорной плотности вероятности (рис. 4.5, г) ι 1 Г= Г λρ(λ\χ)άλ= Г λ(_±λ+^)*λ * _0f738e 1/2 ,J/2 V ? 7 I 42 Из рис. 4.5, г видно, что оценкой по максимуму апостериорной плотности вероятности (по апостериорной моде) является значение % = 1/2. Наибольшее значение функции правдоподобия ρ (*|λ) соответствует правому верхнему углу рис 4 5 в. Для наблюденного *=2,5 это наибольшее значение достигается при λ= 1/2, причем λ= λ = 1/2 есть оценка максимального правдоподобия. Как и следовало ожидать, она совпадает с оценкой по максимуму апостериорной плотности вероятности, что согласуется с равномерным распределением pvr (λ). Оценка по методу моментов находится из соотношения Μ {ξ} = Μ {λ} + Μ {η}. При наличии единственного результата измерения χ = 2,5 следует положить Μ {ξ} = χ = = 2,5. Поэтому % = Μ {λ} = 2,5 - Μ {η} = 2,5 - 4/3 - 1,2. Такая оценка неприемлема, так как противоречит априорной плотности вероятности ррг (λ). 459 Рис. 4.5. Различные плотности вероятности
4.5. ЛИНЕЙНОЕ ОЦЕНИВАНИЕ. МЕТОД НАИМЕНЬШИХ КВАДРАТОВ Оценки неизвестных параметров распределения, представляющих собой линейные функции от элементов выборки, называются линейными оценками. Одним из частных примеров такой оценки является выборочное среднее значение (4.3.40). Однако это выборочное среднее значение есть только одна из возможных линейных оценок математического ожидания, которые можно построить. Например, для выборки (xlf x2f ..., ..., χη) величина (взвешенное выборочное среднее) m! = Σ?. !<!,*,, (4.5.1) где αι — заданные коэффициенты (веса), удовлетворяющие условию Σ?-ια,= 1, (4.5.2) будет также несмещенной оценкой математического ожидания. Действительно, если все xt имеют одно и то же математическое ожидание Μ {Xi} = тъ то Μ {т\} = 2 aiM ixt) = "h 2 *ι = тг. (4.5.3) Можно привести следующий пример, когда оказывается необходимым пользоваться формулой (1) вместо (4.3.40). Пусть выполнены прямые, но неравноточные измерения некоторой случайной величины |. Неравноточность может быть обусловлена использованием неодинаковых приборов или разными объемами выборок. Спрашивается, как в данном случае определять оценку неизвестного математического ожидания тг случайной величины. Ниже будет показано, что в данном случае следует пользоваться формулой (1), подобрав надлежащим образом веса at. Если среди всех линейных оценок выбрана какая-то определенная оценка, то необходимо указать критерий, на основании которого этот выбор сделан. Для линейных несмещенных оценок один из широко применяемых критериев состоит в выборе той оценки, которая обладает наименьшей возможной дисперсией. Такая оценка называется линейной оценкой с наименьшей дисперсией. Аналогично если (xlt x2, ..., хп) есть выборка из совокупности с математическим ожиданием тг и дисперсией D, то любая квадратичная форма ^tfiij (Xi — т\) (xj — ml), математическое ожидание которой равно D, является несмещенной квадратичной оценкой для D. Если существует единственная несмещенная квадратичная оценка для D, имеющая наименьшую возможную дисперсию, то она называется квадратичной оценкой с наименьшей дисперсией. Отметим, что любая квадратичная оценка есть линейная функция от квадратичных членов. Поэтому часть результатов теории линейных оценок применима к квадратичным оценкам. Линейные оценки с наименьшей дисперсией сами имеют дисперсию, которую обычно можно несмещенно оценивать при помощи квадратичных оценок. 460
В качестве примера линейной оценки рассмотрим оценку взвешенного выборочного среднего (1). Если отдельные наблюдения (измерения) %i независимы и имеют дисперсии Du то дисперсия взвешенного выборочного среднего т\ будет определяться выражением 1 /=1 Чтобы линейная оценка (1) имела наименьшую дисперсию, веса нужно выбирать из условия получения минимума правой части выражения (4). Ввиду того, что на коэффициенты at уже наложено ограничение (2), исследуем выражение на условный минимум, применяя метод множителей Лагранжа. Составляем функцию Лагранжа: Приравняв нулю частные производные по at J?L = 2a,D| — 2λ = 0, t=l,2,..., dai находим веса ai^%lDi = Xgi> gt^Df1. (4.5.5) Следовательно, веса аъ ..., ап должны быть обратно пропорциональны дисперсиям отдельных измерений. При этом формулы для взвешенного выборочного среднего (1) и дисперсии (4) примут следующий окончательный вид: m? = i=i , D*--^ · (4.5.6) Σ st \Σ^ Для упрощения вычислений дополнительное условие (2) можно вообще отбросить, понимая под ft величины, обратно пропорциональные дисперсиям Di\ ft - ft:...: gn =DT4: D;1:...: AT1. (4.5.7) Если все измерения являются равноточными (Dx = D2 = ... =* = Dn), то ft = g2 = ... = gn и формулы (6) переходят соответственно в (4.3.40) и (4.3.41). Из второй формулы (6) следует, что весовое объединение результатов различных измерителей одной и той же случайной величины всегда повышает результирующую точность ее определения и поэтому является целесообразным. Например, для двух измерителей имеем D^.-DiIl+Di/DJ-1. Отсюда при D1<.D2 получаем Dmi,<.D1. 1 Отметим, что в случае двух коррелированных результатов измерений xxhxzc дисперсиями Dx, D2 и нормированной корреляцией г фор- 461
мулы (6) для выборочного взвешенного среднего и его дисперсии, как нетрудно убедиться, примут вид nfi^CkXi + CbX* Dm* ^AD^l ~г2)/Д, (4.5.8) где a^V^iVD'.-rVD,); а^У^У^-гУЩ/А; (4.5.9) A = D1^2rl/'A^+D2. Положим в предыдущих формулах giDt^D, (4.5.10) где γΊΤ^ σ можно назвать средней ошибкой измерения на единицу веса. Тогда вместо (6) можно написать 0«j = 0/2?-ift- (4.5.11) По результатам измерений можно вычислить приближеннее значение D: 5* = s2--!— У gi{Xi-m\)\ . (4.5.12) Оправданием этой формулы служит то, что математическое ожидание величины s2 равно D. Для доказательства этого утверждения выберем начало отсчета на оси Ох так, чтобы выполнялось условие т* = 0. В этом случае М{Ъё1{х1-тХУ) = ЩЪё1х}-2Ъё1х-т\ + Ъё1тГ} = Поэтому согласно (12) M{s2}=;Z). (4.5.13) В силу (11) для дисперсии Dm* взвешенного выборочного среднего (6) получим приближенное значение Dm;=sW-iff!. . (4.5.14) Эту формулу можно применять лишь тогда, когда известно, что веса взяты правильно, т. е. обратно пропорциональны дисперсиям Dt. Можно показать, что если (хъ ..., хп) — выборка случайной величины ξ, имеющей математическое ожидание т1 и дисперсию D, и если {gij} — некоторый набор постоянных, для которых сумма Q= S *!/(*|-т!)(*,-тТ) (4.5.15) имеет математическое ожидание D, то значения величин {gij}t для которых Q имеет минимальную дисперсию, определяются выражениями gH =* 1/(л - 1), I =. 1, 2, ..., л; g„ =* 0, ί ^ /. (4.5.16) 462
В этом случае Q сводится к выборочной дисперсии D*. С линейным оцениванием тесно связан метод наименьших квадратов. Этот метод дает алгоритм обработки результатов наблюдений с целью получения оценок неизвестных параметров*. В том случае, когда при линейном оценивании средние значения наблюдений являются линейными функциями неизвестных параметров и когда наблюдения попарно некоррелированы, получаемые оценки обладают свойством оптимальности: они оказываются несмещенными, имеют наименьшую дисперсию и являются линейными функциями от наблюдений. Иногда указанную задачу оценки параметров трактуют иначе — как задачу о сглаживании экспериментальной зависимости и формулируют ее следующим образом. Пусть задана детерминированная функция У = Ψ (*> λχ, ..., Xh)f зависящая от k параметров %ъ ..., λ^, значения которых неизвестны. По результатам наблюдений (уъ у2, ..., уп) в выбранных точках {хъ #2, ..., хп) нужно получить оценки неизвестных параметров λχ, ..., Xk. В качестве критерия оптимальности принимается следующий: сумма квадратов отклонений наблюденных значений yt от ординат сглаживающей кривой (p(xit λχ, ..., Xk) должна быть минимальной: S \Уг—ф(*ь λι>···> λ^)]2=:πιίη. (4.5.17) Отсюда и происходит название «метод наименьших квадратов». В рамках линейного оценивания функция φ (χ, λχ, ..., Xk) должна зависеть линейно от неизвестных параметров. Она, например, может иметь вид k где φ; (λ;) — известные функции. '.-. Методика нахождения оценок следующая. Чтобы выражение (17) имело минимум, нужно приравнять нулю частные производные по λι, ..., λ&: 21 Wi—φ(^λ!,...,λΛ)]φ' -О, Σ U/i-ф (*ι, Alf..., λ*)] q^ -0, (4.5.18) Σ U/*—ψ(*iДl>···>λiO]ψL = 0· . \ *Если результаты наблюдений имеют совместное нормальное распределение, то метод наименьших квадратов следует из метода наибольшего правдоподобия·. 463
Таким образом, имеем систему k уравнений с k неизвестными, из которых (при определенных условиях) определяем искомые значения λχ, ..., λΛ. Так как система содержит случайные величины уъ ..., ynt то и решение системы λΐ, ..., %% будет случайным. Величины λΐ, ...,λ£ являются оценками неизвестных параметров по результатам наблюдений. Их статистические характеристики находят по соответствующим вероятностным характеристикам наблюдений. Рассмотрим простой пример. Пример 4.5.1. Подбор параметров линейной функции. Пусть из опыта получена совокупность значений (хи yt), i — 1, 2, ..., η (рис. 4.6). Нужно методом наименьших квадратов подобрать параметры а и Ь линейной функции y = ax+bt (4.5.19) изображающей данную экспериментальную зависимость. Применительно к рассматриваемому примеру выражение (17) примет вид η Σ (У*—axi—&)2=min. /Ξι a. b Приравнивая нулю результат дифференцирования по а и bt получаем систему из двух линейных уравнений Σ (у~αχί—b) **=°> Σ (у*—αχϊ-6)=0· Из второго уравнения находим ι п ι п Ь = ту-атх, тц=— £ Уи тх =— £ xi- /=1 /=1 Подставив найденное значение в первое уравнение и преобразуя его, имеем Σ *i У'г —а Σ х*—пт*х (ή*—am*)=0, откуда находим η η 2 xiyi-nrnxm*y 2 (*!—«*)(У1~т1) /=1 /=1 а = = Σ xf-nml2 Σ (ъ-т*хУ или где 1 п 1 п Таким образом, линейная функция У-«; = /С(*-"Ж ' (4-5.20) наилучшим образом (среди всех линейных функций) выражает зависимость у от х, Приведем теперь основные результаты теории линейного оценивания по методу наименьших квадратов, применяя для экономии записей векторные и матричные обозначения [16]. 446
Запишем линейную модель в виде х = Αλ + ε, (4.5.21) где χ — вектор-столбец наблюдений xt размерности п\ к — матрица (п X k) известных коэффициентов atj (η > k)\ λ — вектор-столбец оцениваемых параметров Xt размерности k и ε — вектор-столбец случайных ошибок ει размерности п. Предположим, что отдельные ошибки ег- имеют нулевые математические ожидания Μ {ε} = 0 (4.5.22) и корреляционную матрицу ошибок измерений Re = Μ {εετ}, (4.5.23) где R8 — невырожденная матрица (η χ η). Метод наименьших квадратов состоит в минимизации квадратичной формы S = (χ — Αλ)? R"1 (χ — Αλ) (4.5.24) по компонентам вектора λ. В том случае, когда ошибки измерения гг не коррелированы в совокупности и имеют дисперсии Dit т. е. R8 — диагональная матрица, критерий (24) упрощается: s= 2 ЯГ1 Г*1-2 *,ДЛ\ (4.5.25) /=i L /=i J η В данном случае минимизируется сумма квадратов (xt — 2 auh)2 с весами, обратно пропорциональными дисперсиям ошибок измерений Dt. Необходимым условием обращения (24) в минимум является условие dS/dh = 0. Выполняя дифференцирование, имеем ATR8 (χ — Αλ) = 0. Отсюда находим вектор оценок λ* = (ΑτΚ-1 A)-* ATR-iX. (4.5.26) Предполагается, что матрица ATR8A невырождена и, следовательно, может быть обращена. Докажем, что оценки (26) несмещенные. Используя (21), запишем (26) в виде j^^R-1 Α)-1 Α^-ΐ(Αλ + ε) = λ+(Α^~1 A)-» AtR-U. (4.5.27) Поскольку матрицы А и R8 постоянны, то в силу (22) получаем требуемый результат Μ{λ*} = λ. (4.5.28) 465
Корреляционная матрица ошибок оценок Ч* = м {(λ*-λ) (λ*-λ)* } (4.5.29) после подстановки в нее (27) примет вид Κλ* = М {[(A' R-* A)-» A- R8-i ε] [(A* R-* A)-» A- R-* Βγ } ^ *= (Ат R-1 A)-1 Ат R-1 Μ {εετ } R-1 A (AT R-1 Α)-ι. Отсюда с учетом (23) получим окончательную формулу Rb* = (A*R-*A)~i. (4.5.30) Приведем два простых частных результата, следующих из формул (26) и (30). Пусть имеется η неравноточных некоррелированных результатов измерений λ$ скалярной величины λ. Теперь матрица А будет вектор-столбцом размерности η с элементами, равными единице, а матрица ошибок R8 порядка (η Χ п) будет диагональной с элементами Dt. Из (26) и (30) получим i«l / ί=1 V=l J Эти формулы еще более упрощаются для равноточных измерений (Dt~D, ί= 1, 2 η): λ* = τΣλί> *λ* = ^λ*=ν· , (4.5.32) 4.6. ПРОВЕРКА СТАТИСТИЧЕСКИХ ГИПОТЕЗ Предположим, что наблюдается событие, которое может быть порождено одной из двух взаимоисключающих причин Л0 и Л1# Гипотезу о том, что событие обусловлено первой причиной Л0, обозначим через #0, а гипотезу о том, что событие обусловлено второй причиной Аг — через Нг. Требуется установить подходящее (оптимальное) правило для выбора между гипотезами, т. е. для решения вопроса, какая из. двух причин наблюдаемого события в определенном смысле более правдоподобна. Такое оптимальное правило принятия решения должно быть сформулировано до наблюдения события; после наблюдения события должно быть вынесено решение. Очевидно, что для получения такого правила нужно иметь некоторые сведения о причинах события и о связи причин с событиями, которые могут происходить. Пусть Г есть пространство всех возможных значений наблюдаемой величины ξ, зависящей от двух взаимоисключающих причин Л0 и Ль одна из которых должна быть в действительности. Предположим, что если имеет место причина Л0, то известна условная плотность вероятности ρ (х\А0) =5 р0 (х)9 где χ — некоторая точка пространства Г. Аналогично причине Аг соответствует другая известная плотность вероятности ρ (х\Аг) = рх (х). Относительно априорных (доопытных) сведений о причинах Л0 и Аг возможны два случая: иногда можно 466
считать известными априорные вероятности причин pw (Л0) = ρ и Ррг (\) = <7 = 1 — р, а во многих случаях отсутствуют обоснованные и достоверные сведения об этих вероятностях. В обоих случаях задача заключается в установлении разумного, в определенном смысле наилучшего правила принятия решения о выборе между гипотезами Н0 иЯх.Это означает, что пространство наблюдений Г нужно оптимальным образом разделить на две части Г0 и Тг (рис. 4.7) так, чтобы для всякого результата наблюдения χ можно было однозначно сказать, какой из причин он порожден. ' Рис. 4.6. Линейная ап- Рис. 4.7. Проверка двух гипо- проксимация тез Будем считать,что если в результате наблюдения мы получаем значение х> относящееся к области Г0, то нужно выбирать гипотезу Н0; если χ относится к области 1\, то следует выбирать Нг. При рассмотрении двух гипотез обычно одну из них выделяют и проверка гипотез рассматривается с точки зрения этой гипотезы. Если выделена гипотеза #0, то Г0 называется областью принятия гипотезы, а 1\ — областью отклонения гипотезы или критической областью (см. рис. 4.7). Для пояснения сказанного приведем два примера. Пример 4.6.1. Имеется склад готовой продукции. Известно, что изделия (например, однотипные лампы) поступают на склад одинаковыми партиями с двух заводов, выпускающих продукцию разного качеетва, и такими же партиями отпускаются потребителю. Качество продукции характеризуется вероятностью ρ наличия дефектных изделий. Для одного завода ρ = р0, а для другого ρ = = Pi (Ро > Pi)- Потребитель наугад выбирает одну партию изделий. Нужно на основании результатов контроля решить, на каком заводе изготовлена выбранная партия изделий. Пусть #о — гипотеза, состоящая в том, что выбранная партия изделий плохого качества (вероятность брака р0); Нг — противоположная гипотеза (вероятность брака рх). Часто Н0 называется нулевой гипотезой, а Нг — конкурирующей гипотезой. Отберем из партии η изделий. Пусть ξ обозначает количество бракованных изделий среди отобранных. Ясно, что |гесть случайная величина с возможными значениями 0, 1,2, ..., л. Под решением сформулированной задачи понимается выработка решающего правила, которое сопоставляет каждому возможному значению случайной величины ξ одну из гипотез Я0 или Я1в < '" Обозначим указанный набор возможных значений случайной величины ξ через Г· Тогда искомое решающее правило состоит в том, что интервал F раз- 467
бивается на две области Г0 и 1\. При попадании случайной величины χ в область Г0 принимается гипотеза #0, а при попадании в 1\ — гипотеза Ηλ. Главный вопрос заключается в том, какое из возможных разбиений интервала на области Г0 и Тг нужно выбрать. Пример 4.6.2. На вход радиоприемного устройства в некоторый фиксированный момент времени t = const воздействует случайное напряжение ξ (t), которое является либо суммой известного сигнала s (t) и случайной помехи η (t), либо одной помехой η (t). Производится измерение величины ξ (t). По полученному числовому значению нужно решить, присутствовал ли на входе сигнал s (для определенности примем $ > 0), т. е. выбрать одну из двух возможностей. Эту задачу можно сформулировать иначе. Случайную величину ξ (t) можно представить в виде ξ (t) = η (t) + λε {t)y где λ — случайный параметр, принимающий лишь два значения: λ = 1 (сигнал присутствует) и λ = 0 (сигнал отсутствует). По результатам наблюдения над ξ (t) нужно решить, какое значение имеет параметр λ. Подобная ситуация называется двуальтернативной или бинарной, В качестве нулевой гипотезы Я0 можно принять отсутствие сигнала, а в качестве конкурирующей Нг — наличие его. Если мгновенные значения помехи не ограничены, то множество Г всех возможных значений случайной величины ξ представляет собой всю действительную ось х. Искомое решающее правило состоит в наилучшем разбиении оси χ на две части Г0 и Тг. Прежде чем дать понятие оптимальности правила решения, заметим, что всякое решение (по существу разбиение Г на области Г0 и 1\) из-за случайного характера рассматриваемых событий будет сопровождаться ошибками. Действительно, введем следующие события: А — осуществляется событие Л0 (верна гипотеза Я0), А — осуществляется событие 1\ (верна гипотеза #χ), В — результат наблюдения χ попал в область Г0, В — результат наблюдения попал в область Гх. Тогда итогом решения может быть только один из следующих четырех возможных исходов: АВ — верна гипотеза Я0 и принято решение о ее истинности; АВ — верна гипотеза Я0, а принято решение об истинности гипотезы #ъ АВ — верна гипотеза Нъ а принято решение об истинности гипоте- зы Я0; АВ — верна гипотеза Нх и принято решение о ее истинности. Отсюда видно, что исходы АВ и АВ соответствуют правильным решениям, а исходы АВ и АВ являются ошибочными решениями. Следовательно, принятие решений всегда сопровождается ошибками двух родов. Во-первых, гипотеза Я0 отвергается тогда, когда в действительности она верна. Иначе говоря,хотя на самом деле гипотеза Я0 является истинной, но наблюдаемое значение χ попадает в область Г\ (мы отвергаем Я0). Эта возможная ошибка называется ошибкой первого рода. Во-вторых, отвергается гипотеза Яь в то время как она верна. Это означает, что χ попадает в Г0, хотя правильной является гипотеза Ηг. Эта возможная ошибка называется ошибкой второго рода. Вероятность р0 (Гх) отвергнуть гипотезу Я0, когда она является правильной, в математической статистике называется уровнем значимости критерия. Вероятность рг (Гх) принять гипотезу Ни когда она является верной, называется мощностью критерия. 468
Обозначим через α условную вероятность ошибки первого рода, вычисленную при условии истинности события Л0 (гипотезы Я0), а через β — условную вероятность ошибки второго рода, вычисленную при условии истинности события Лх (гипотезы #χ). Из введенных определений следует, что а есть уровень значимости критерия, а (1 —β) — мощность критерия. Применяя правило определения вероятности попадания случайной величины ξ в заданную область, можем написать а = /> (5 |Л0) = J Ро (*) d*> β = ρ(β |Λχ) = J Pl (x) dx. (4.6.1) Γι Γο Безусловные вероятности ра и Ρβ ошибок первого и второго рода выражаются через α, β и априорные вероятности событий Л0 и Л1#· ра=р(А0)р{В\А0)=ра = р ^p0(x)dxt | ν , Γι (4.6.2) Ρβ =Ρ (Αι) ρ (Β Ι Αι) = ί/ J рг (х) dx. Го / Поэтому полная (суммарная) вероятность ошибки Ре = Ра +Ρβ =Р f Ро (*) dx + (l—p) jpi (x) dx. (4.6.3) Γι Γο Основываясь на введенных вероятностях α и β, можно дать несколько определений оптимальности решения. Характер оптимальности в значительной мере зависит от двух факторов: 1) одинаковы или различны по значимости ошибки первого и второго рода, 2) известны или нет априорные вероятности ρ и q. Мы приведем здесь лишь три оптимальных правила решения, которые наиболее часто применяются в радиотехнических приложениях. Критерий Байеса. Идеальный наблюдатель. В правилах решения, основанных на критерии Байеса, исходят из того, что оптимальное правило должно минимизировать ущерб от принятия неправильных решений. При этом считаются заданными априорные вероятности каждой из двух гипотез pnqta также количественные характеристики ущерба, т. е. так называемые функции потерь сг^, ί, / = О, 1. Здесь первая цифра подстрочного индекса означает выбранную гипотезу, а вторая — гипотезу, которая была правильной. Таким образом, каждому ошибочному решению ставится в соответствие некоторая положительная плата: с10 — стоимость ошибки первого рода, с01 — стоимость ошибки второго рода. Для безошибочных решений эта стоимость принимается нулевой (сп = с00 = 0). Согласно критерию Байеса оптимальное решающее правило должно быть таким, чтобы средняя плата за ошибки была минимальной или, иначе, должен быть минимальным средний риск R, который можно представить как среднее значение по пространству наблюдения Г от среднего риска при каждом значении х: R = $R(x)p(x)dxf (4.6.4) ρ 469
где R(x) — средняя плата при условии наблюдения χ (апостериорный риск); ρ (χ) — плотность вероятности наблюдений. Получим выражения для R (х) и ρ (χ). Пусть Μ есть некоторое множество значений х. Согласно закону Байеса условные вероятности событий Λχ и Л0 при условии, что χ принадлежит множеству М, определяются формулами ' ρ (Λχ | М) - '(М ^ (Л'>, ρ (Л01М) - р т^ (Л°>, (4.6.5) где ρ (Μ) = ρ (Λχ) ρ (Μ Ι Αχ) + ρ (Λ0) ρ (Λί |Λ0). Если в качестве Μ взять множество значений, заключенных в интервале (л:, χ + dx)t то, используя ранее введенные обозначения, получим ρ (ЛЛ*) = qPl (x)lp (x)t ρ (Λ01 χ) = pp0 (χ)/ρ (χ), (4.6.6) где ρ (χ) = ρρ0 (χ) + qp1 {χ). (4.6.7) Условные вероятности Pps (Αχ) = ρ (Λχμ), ρρ8 (Λ0) = ρ (Α0\χ) (4.6.8) часто называют апостериорными вероятностями событий Аг и Л0, а отношение плотностей вероятностей / (χ) = Ρι (χ)/ρ0 (х) * (4.6.9) — отношением правдоподобия. С учетом этих обозначений запишем отношение условных вероятностей Pps (Λι)//^ (Λ0) = qPl (х)/рр0 (χ) = (q/p) I (x). (4.6.10) Если после наблюдения χ принять решение о справедливости гипотезы #0, т. е. отнести точку χ к области Г0, то апостериорный риск согласно формуле для математического ожидания дискретной случайной величины равен t Ro(*) = Coo Pps (Л0 [ x) + c01 pPs (Λχ Ι χ) = c01 pps (Λχ | x)f (4.6.11) так как с00 = 0. Аналогично если после наблюдения χ принять решение #х, т. е. отнести точку χ к области Гх, то R1(x) = cllPps(A1\x) + cl0pPs(A0\x) = c10pP6(A0\x). (4.6.12) Для того чтобы решающее правило обеспечивало минимум среднего риска /?, достаточно, чтобы оно обеспечивало минимум апостериорного риска R (х) при каждом наблюдении х. Для этого согласно (11) и (12) решающее правило должно относить точку χ к области Γχ (принимать решение о справедливости гипотезы #χ), если % Pps (Αχ I x) > Сю pps (Λ01 χ). (4.6.13) При выполнении противоположного неравенства должно приниматься решение в пользу гипотезы Н0. При равенстве апостериорных рисков можно выбирать любую из гипотез (допустим, #χ). Запишем неравенство (13) иначе: Cqi Pps (Λχ Ι χ) _ coi qpx (χ) __ coi q ^ ,. j (4 6 14) C\o Pps (Λ0 | x) c10 pp0 (x) c10p 470
Отсюда получим окончательное решающе правило: I (х) <С h—принимается Я0, т. е. χ ΕΞ Г0, ) /4 fi I *ft / (л;) ^ А—принимается Нъ т. е. χ ΕΞ Г1э / где ft — пороговая постоянная: h = c10p/c01q. (4.6.16) Решающее правило (15) базируется на отношении правдоподобия и поэтому называется критерием отношения правдоподобия. Этот критерий широко используется в статистике. Таким образом, критерий Байеса приводит к критерию отношения правдоподобия. Если при всех допустимых χ отношение правдоподобия / (х) является монотонной функцией х, то очень часто вместо (15) используется эквивалентное неравенство 1η[/(*)1^Λο· h0~\nh. (4.6.17) Hi Из (15) видно, что вся процедура обработки наблюдения сводится к вычислению отношения правдоподобия / (х). Априорные вероятности и стоимости не оказывают влияния на отношение правдоподобия; от них зависит только значение порога А. Эта инвариантность процедуры обработки результатов наблюдения имеет большое практическое значение. Весьма часто функция потерь и априорные вероятности являются просто квалифицированными предположениями на основе предыдущего опыта. Правило (15) дает алгоритм устройства обработки, рассматривая h как переменный порог, учитывающий изменения в наших оценках априорных вероятностей и элементов функции потерь. Наиболее часто критерий Байеса используется с так называемой простой функцией потерь, когда £ю = Sol = It Coo = Сп = 0. (4.6.18) При такой функции потерь значимость ошибок первого и второго рода принимается одинаковой. В данном случае выражения (11) и (12) упрощаются: Ro(*HPw(Ail*), Ri(x) = Ppb(\\x). (4.6.19) Соответственно оптимальное решающее правило (15) примет вид и н l(x)^h = plq или pPs (Аг \ х) ^ pPs (Л01 х). (4.6.20) Нг Я, Отсюда следует, что оптимальное решающее правило (20) максимизирует апостериорную вероятность правильного решения. Поскольку это справедливо для каждого наблюдения х, то соответствующее решающее устройство будет максимизировать полную (среднюю по наблюдениям) вероятность правильного решения или, что эквивалентно, минимизировать вероятность полной ошибки решения ре. 471
Действительно, в одномерном случае все возможные значения случайной величины | расположены на действительной оси х. Допустим, что интервал Г0 включает все значения χ <С х01 а 1\ — значения χ ^ х0. Тогда вероятность полной ошибки ре будет определяться формулой Ре = р\ Po(x)dx-Yq J p!(x)dx. Хо — °° Найдем такое значение x0t при котором эта вероятность минимальна. Из условия dpe/dx0 = О получаем следующее уравнение для определения х0: Pi (ХоУро (хо) = I (хо) = plq- Из сравнения этого уравнения с первым соотношением (20) следует, что х0 = ht т. е. правило решения (20) действительно обеспечивает получение минимума ре. Правило решения (20) в литературе называют по-разному: идеальный наблюдатель, идеальное решение или наблюдатель Котельникова— Зигерта. Итак, критерием оптимальности идеального наблюдателя (20) является то, что он минимизирует вероятность полной ошибки. Минимальное значение вероятности полной ошибки в одномерном случае определяется формулой оо h Ре = Р j Po (х) dx +<7 J A (*) dx. (4.6.21) h —oo Руководствуясь правилом (20), наблюдатель, обрабатывающий длинную последовательность повторных наблюдений, может быть уверен в том, что вред, причиняемый неверными заключениями, окажется минимальным. Пользуясь правилом решения идеального наблюдателя (20), получим теперь решения для двух приведенных примеров. Пример 4.6.1. В данном примере вероятность ρ того, что наугад выбранное изделие является бракованным, не зависит от результатов проверки других изделий и при истинности гипотезы Н0 равна р0. Поэтому закон распределения случайной величины | будет биномиальным: Po (*)=<£Ρο(1—Ρο)Λ~* · *=0' 1. 2, ... f я. Аналогично при справедливости гипотезы Нг Ρι (χ)=ΟΪΡΪ(ι-Ρι)η~Χ> χ=°> 1» 2> ··· · п- Записываем отношение правдоподобия Pi (х) _ Г PiO-Po) 14 1—Ρι\η Ро (*) I Po (I—Pi) J V 1— Pol ' Допустим, что среди партий готовой продукции, хранящейся на складе, одна четверть плохого качества. Если потребитель наугад выбирает одну партию изделий, то априорная вероятность ρ (Н0) = ρ = 1/4 и соответственно Ρ №) = Я = 3/4.
Согласно правилу (20) имеем L Mi—л) J я \ 1-pi/ Из условия p0 > рг следует неравенство рх (1—Ро)/ро (1 — Pi) < 1 и» следовательно, In fp! (1 — p0)/po 0 — Ρι)1 < О· Учитывая монотонный характер логарифмической функции и логарифмируя (22), получаем Х< "[НЭТН-ЖН·'-··'·'·■··"· <«-й> Таким образом, если число χ бракованных изделий среди наугад выбранных η изделий удовлетворяет неравенству (23), то принимается решение о хорошем качестве полученной партии, в противном случае — решение о плохом качестве. Ошибки решения вычисляются по формуле (3), в которой для дискретной случайной величины нужно записать вместо интегралов соответствующие суммы. Пример 4.6.2. Для решения этого примера необходимо дополнительно указать вероятностные характеристики случайной помехи η (t) и априорные вероятности отсутствия и наличия сигнала ρ и q в рассматриваемый момент времени t = const. Допустим, что помехой η (t) является гауссовский стационарный шум с нулевым математическим ожиданием и известной дисперсией D, а априорные вероятности одинаковы (р = q = 1/2). При этом пороговая постоянная в (20) равна h = 1. Так как в отсутствие сигнала ξ = л, то условная плотность вероятности случайной величины ξ определяется нормальным законом р0 (x)=(2nD)~l/2 exp (-*V2D). Если же сигнал присутствует, то ξ = s + η и, следовательно, Pi (*) = Po (xs)=(2nD)-lf2 exp [_(*_S)V2D]. Графики этих плотностей вероятностей изображены на рис. 4.8. Применительно к данному примеру правило решения (20) принимает вид / (х)=рг (х)/р0 (х)=ехр [— (s*—2xs)/2D] > 1, что эквивалентно (после логарифмирования) неравенству χ > s/2. Итак, принимается решение о наличии сигнала (#ι), если замеренное значение χ > s/2 (область 1\); при χ <. s/2 (область Г0) констатируется отсутствие сигнала (#0). По формуле (1) находим условные вероятности ошибок первого и второго рода s/2 f s \ <*= Гро(*М* = 1— ф( L—^i β= Г Ρι (χ) dx = \ — φί 2y—Ь (4.6.24) где Φ (χ) — интеграл вероятности (1.4.5). Ошибки α и β показаны на рис. 4.8 в виде площадей, отмеченных разной штриховкой. В данном примере пороговая постоянная h = s/2 определяется точкой пересечения плотностей вероятностей р0 (х) и рг (х). Из графика видно, что при р = q = 1/2 полная вероятность ошибки Ре = ар + β<7 = ι __ φ (s/2 VD ) (4.6.25) имеет минимальное значение. 473
Наблюдатель Неймана—Пирсона. Во многих задачах априорные вероятности гипотез Н0 и Нх неизвестны. Кроме этого, может оказаться затруднительным количественное задание ущерба (функции потерь), сопутствующего ошибкам первого и второго рода. При этих условиях невозможно воспользоваться критерием Байеса и необходимо применять другие методы решения. Сущность одного из них излагается ниже. Будем рассматривать только такие решения (такие разбиения области Г на две части Г0 и Гх), для которых условная вероятность ошибки первого рода не превышает некоторую наперед заданную величину f p0(x)dx^ с = const. (4.6.26) Γι Одно это условие не определяет однозначно критическую область Гх. Представляется естественным среди разбиений, удовлетворяющих условию (26), в качестве наилучшего взять такое, которое имеет наименьшую условную вероятность ошибки второго рода β по сравнению со всеми другими возможными разбиениями. Это эквивалентно выбору критической области с наибольшей мощностью. Если принять эти соглашения, то оптимальная критическая область Π кроме условия (26) должна также удовлетворять условию Г p1(x)dx^n\ax f px(x)dx. (4.6.27) г* (Γι) f, Сформулированный критерий оптимальности решения называется критерием Неймана—Пирсона. Часто также говорят о наблюдателе Неймана—Пирсона или решающем устройстве Неймана—Пирсона. Оптимальный характер решения Неймана—Пирсона состоит в том, что при заданной ошибке первого рода минимизируется ошибка второго рода. Условия (26) и(27) определяют однозначно требуемое разбиение области Г на подобласти Π и Го = Г — Т\. Это утверждение основано на следующей теореме Неймана—Пирсона. Если h — действительное неотрицательное число, то критическая область Г* (А), состоящая из всех х, для которых I (х) = Рх (*Уро (х) > К (4.6.28) определяет критерий выбора между гипотезами Н0 и Hl9 обладающий максимальной мощностью из всех критериев с уровнем значимости, не превышающим а— [ Po(x)dx- (4.6.29) Г* (Л) Из формулы (28) видно, что критерий Неймана—Пирсона сводится к критерию отношения правдоподобия. Этот факт объясняется тем, что при неизвестных априорных вероятностях гипотез основой для выработки решающего правила может служить только сравнение заранее известных условных плотностей вероятностей; никакими другими сведениями наблюдатель не располагает. 474
* Поскольку отношение правдоподобия сравнивается с порогом, то решение Неймана—Пирсона, как и решение (20), можно назвать пороговым. Пороговая постоянная h определяется по наперед заданной ошибке первого рода а из (29). Поясним это рассмотрением приведенного выше примера 4.6.2. Пример 4.6.2 (продолжение). Ранее уже говорилось, что областью Г является вся действительная ось х. Нам известно, что применительно к данному примеру критерий отношения правдоподобия приводит к разбиению оси χ на два интервала. Обозначим пока формально через х0 значение, разделяющее ось χ на два интервала: Г? {х > х0} и Г; {х< х0}. Пусть задана ошибка первого рода а: Рис. 4.8. Нормальные плотности ве- Рис. 4.9. Нормальные плотности вероятности и ошибки первого и вто- роятности и ошибки первого и второго рода рого рода По таблицеинтеграла вероятности находим значение аргумента XqT[/D, при котором выполняется это равенство. Тем самым будет определена пороговая постоянная h = *ο· Зная *о, вычисляем минимальное значение ошибки второго рода '-_ϊ««Λ-βτ=)· Ошибки α и β показаны на рис. 4.9 в виде площадей, отмеченных разной штриховкой. Такой результат, когда решающее правило делит ось χ на два интервала, встречается довольно часто.] ОднакоЗ он не является общим, могут встретиться более сложные разбиения. До сих пор мы оперировали с результатом одиночного измерения. Если наблюдатель располагает результатами нескольких измерений хъ х2, ..., хп> то все предыдущие соотношения останутся в силе, нужно лишь в них подставить вместо одномерных условных плотностей вероятностей рг (х) и ро (х) соответствующие многомерные плотности вероятности р1п (х19 х%9 ..., Хп) и роп fa, *s. ....*»)· В частности, отношение правдоподобия будет теперь определяться формулой - к (*i. х* ···> Хп) = Ли (хъ х%· —. хп)1роп (Χι, x* ...» Хп). (4.6.30) Конечно, в многомерном случае определение оптимальной границы между областями Тг и Г0 может оказаться не столь простым, как в одномерном. 475
Однако критерий отношения правдоподобия позволяет не находить в явном виде границы областей Г0 и IV Для определения принадлежности наблюдения произвольной размерности к областям Г0 или 1\ достаточно вычислить отношение правдоподобия (или некоторую монотонную функцию от него) и сравнить его с порогом. Если результаты всех измерений получены при одинаковых условиях (стационарный случай) и взаимно независимы, т. е. pin (xlt x2i ..., χη) = ρχ (хг) рг (х2) .../?! (χη), i = 0, 1, то многомерное отношение правдоподобия и его логарифм будут равны η η In (*Ъ *2, ... . *Л) = Π * (*,), 1П {ln (Xlt Хъ ... , Χη)} =2 Ιη Ι' (Xi)l (4.6.31) где / (Xi) = рг (Xi)/p0 (*,). В заключение отметим важный результат, который следует из сравнения критерия Байеса и критерия Неймана—Пирсона. Он заключается в том, что несмотря на различную постановку задач, конечный результат по существу одинаков. Это обстоятельство свидетельствует об универсальном характере критерия отношения правдоподобия и может служить некоторым обоснованием его применения в случаях, когда практическую ситуацию затруднительно описать каждым из рассмотренных подходов. Последовательный наблюдатель. Приведенные выше два правила решения были основаны на предположении, что число наблюдений η не зависит от получаемых при испытании результатов. Однако если стоимость или время, затрачиваемое на получение одного измерения, значительны, то может оказаться выгодным оставить вопрос о числе измерений открытым и считать число измерений достаточным лишь тогда, когда наблюдатель убедится в правильности одной из гипотез. Соответствующая процедура, позволяющая определить наименьшее необходимое число наблюдений, была разработана А. Вальдом и называется последовательным наблюдателем или последовательным испытанием. Если раньше использовали только две области в пространстве выборок: область принятия какой-либо из гипотез и область ее отрицания, то при последовательном испытании вводится еще одна промежуточная область, в которой окончательное решение не принимается, так как проделанные испытания еще не могут в достаточной степени оправдать принятие одной из гипотез и необходимо производить дополнительные измерения. При последовательном испытании наблюдатель принимает одно из трех решений: 1) принять гипотезу Нг; 2) принять гипотезу Н0 или 3) произвести следующее измерение. Очевидно, что на любой стадии испытания принимаемые решения будут зависеть от результатов уже выполненных измерений. Методика проведения последовательного испытания качественно состоит в следующем. На основании каких-либо соображений выбираются приемлемые значения ошибок первого и второго рода α и β. По результатам первого измерения наблюдатель вычисляет отношение прав- 476
доподобия I fa) = Ρχ (Xi)/po (xi)- Полученное значение сравнивается с двумя постоянными а и Ь. Если / (хг) ^ а, то наблюдатель принимает гипотезу #! и испытание прекращается. При / (х^ < b наблюдатель решает в пользу гипотезы Н0 и испытание также прекращается. Если же Ь < / (хг) < а, то наблюдатель делает второе измерение, вычисляет новое отношение правдоподобия и повторяет ту же процедуру сравнения с порогами. После η измерений, дающих значения хг, хг, ..., хп, отношение правдоподобия будет определяться формулой (30). Если 1п {Х\> ···> χη) > а> принимается гипотеза Нъ при ln (xlt ..., хп)<С Ъ выбирается гипотеза Н0, а если Ь <1п (хъ ...,хп) <а, то производится (п + 1)-е измерение. Постоянные а и Ь должны выбираться так, чтобы вероятность того, что 1п (хг, ..., хп) будет больше а, когда справедлива гипотеза Я0, равнялась а, а вероятность того, что при гипотезе Нг величина 1п (хг, ... ..., хп) меньше Ь, равнялась β. Вообще определение этих постоянных представляет собой трудную математическую задачу. Однако Вальд показал, что они подчиняются следующим неравенствам: а < (1 — β)/α, b > β/(1 — а), (4.6.32) причем для многих практических задач здесь можно брать знак равенства. Основное преимущество последовательного наблюдателя заключается в том, что среднее число измерений существенно меньше (приблизительно вдвое) по сравнению с числом измерений, необходимых при применении классических правил решения с той же мощностью. ГЛАВА 5 СЛУЧАЙНЫЕ ПРОЦЕССЫ В ЛИНЕЙНЫХ СИСТЕМАХ 5.1. ОСНОВНЫЕ СВЕДЕНИЯ ИЗ ТЕОРИИ ЦЕПЕЙ. ЗАДАЧИ АНАЛИЗА. СТОХАСТИЧЕСКАЯ СХОДИМОСТЬ Как известно, устройства или системы, подчиняющиеся принципу суперпозиции, называются линейными, а остальные—нелинейными. Линейные системы осуществляют линейное преобразование входного сигнала в выходной. В качестве одного из определений линейного преобразования можно принять формулу (3.1.2). Полное описание поведения любой линейной системы при заданных начальных условиях дается решением соответствующего линейного дифференциального уравнения. Однако иногда для этих же целей можно пользоваться импульсными и переходными характеристиками, а также передаточными функциями и комплексными частотными характеристиками, которые связаны друг с другом. Импульсная характеристика линейной системы h (t) представляет собой выходной сигнал системы при входном сигнале в виде дельта-функции δ (f) и нулевых начальных условиях. Переходная характеристика g (t) — есть выходной сигнал системы с нулевыми начальными условиями при входном сигнале, имеющем вид единичной функции: 1 (t) =0 при 477
t < 0 и 1 (t) — 1 при ί^Ο. Эти характеристики связаны соотношениями ■g(t)=§h(x)dT, ft(0=^L. Передаточная функция линейной системы H(s) является преобразованием Лапласа от импульсной характеристики: оо Η (s)= f /z(x)e-STdr, s = a + j ω, о а комплексная частотная характеристика /((jco) представляет собой преобразование Фурье от импульсной характеристики: оо /t(jco) = j /г (0 e-i^ d^ = | /С (j со) | exp [—j arg /С (j со)], (5.1.1) о где l/CO©)!— амплитудно-частотная характеристика; arg/СО ω) — фазочастотная характеристика системы. Из обратного преобразования Фурье следует выражение импульсной характеристики через комплексную частотную характеристику: оо fi(t) = -L Г /С (j ω) е)«>< Ло. (5.1.2) — оо Выражения К О©) и h (О Для нескольких простейших схем приведены в табл. 5.1. Из физических соображений ясно, что выходной сигнал не может упреждать входной, т. е. h (t) = О при t < 0, и, кроме того, для устой- оо чиво работающих систем § \h (t)\dt<. оо. Этот результат обычно фор- мулируют в виде двух эквивалентных условий физически возможной линейной системы: оо оо h (t) = 0 при t < О, Г \h (t)\dt<oo; Г ln|JC(j0))l* do <oo. J J 1 +«>2 ·— oo «— oo (5.1.3) Для гауссовского и идеального полосового фильтров, указанных в двух последних строках табл. 5.1, условия (3) не выполняются, и они физически невозможны, т. е. неосуществимы. В дальнейшем будут рассматриваться в основном линейные стационарные системы (системы с постоянными во времени параметрами)t в которых сдвиг входного сигнала во времени приводит к такому же сдвигу выходного сигнала. В качестве определяющих характеристик таких систем будем использовать импульсные и комплексные частотные характеристики. 478
OS Εί К К « 2 о X э •я о о. с я я я Η 3 я ч >» с S я 3 я о § за 4> Ч I О -к о? о I + -δ о а? 3 + I * + 1 ■ ^ Чл чту *|ч ftr|^ 3 + ос 479
я к sr К о « О 3 -к л % л МО У S О, С N*» 3 sin ι о 3 в V МО ©J 3 S а, с S ^ II |со МО 3 S е α- Ι 3 1 1 « ^с > ? -в «« С1© 3 а> МО 1 \\в 3 Τ «о 3 3 * в + *3 I - > "Ρ 3 С (Ν + м© 3 К <Ν О, S о ев lh lh з к <3 (Ν 3° Δω< о I 5 о 'φ 3 (Ν <\ + ο 3 V/ 3 V/ 3|<Ν < 3 S >* & S α. с ο a S -Β* ο ο с 3 3 »=: eg S κ 480
Пусть на вход линейной системы (рис. 5.1), начиная с момента времени t0 воздействует случайный процесс (сигнал) l(t) со спектральной плотностью S| (ω), причем начальные условия нулевые. Тогда выходной случайный процесс (сигнал) η (/) определяется интегралом Дюа- меля*: t t—u x\(t)=\h(t—x)l(x)dx= J h(s)l(t—s)ds. (5.1.4) t0 0 Если при t = t0 начальные условия в системе ненулевые, то результирующий выходной процесс будет содержать дополнительные слагаемые, обусловленные «затуханием начальных условий». Начальные Рис. 5.1. Преобразова- ^... яие случайного процесса ^( линейной системой Ь$(со) hit) n(t). δ η (ω; условия могут быть как детерминированными (фиксированными), так и случайными (например, случайными величинами с заданными распределениями вероятности). В общем случае, когда интересуются как нестационарным, так и стационарным режимами работы системы и начальные условия в системе ненулевые, следует пользоваться дифференциальными уравнениями. Если же начальные условия нулевые, то целесообразно пользоваться импульсными характеристиками. С комплексными частотными характеристиками обычно оперируют в том частном случае, когда интересуются лишь стационарным состоянием системы, т. е. когда процессы на входе и выходе системы оказываются стационарными. При этом в § 5.2 будет доказана простая формула (5.2.19) пересчета спектральных плотностей. ι В практических приложениях при рассмотрении преобразований случайных процессов линейными системами могут встретиться разнообразные задачи. Однако можно сформулировать следующую, достаточно общую задачу анализа. Пусть на вход линейной системы с заданной импульсной характеристикой h (t) воздействует случайный процесс ξ (t) с известными плотностями вероятности /?ξ (|ь ..., ξ&; tlt ..., tk). Требуется найти плотности вероятности рц (%, ..., х\г\ tlt ..., ίζ), Kky случайного процесса η (ή на выходе линейной системы. В общем виде не существует прямого и достаточно простого метода, который бы позволял находить непосредственно плотности вероятности для процесса η (ή на выходе линейной системы по заданным плотностям вероятности процесса ξ (0«на входе. Здесь исключение состав- *Для нестационарных линейных систем (систем с изменяющимися во времен пи параметрами) η(/) = [Α(/, τ)1ξ(τ)Λ. U 1Q 3w, 956 481
ляют гауссовские и марковские процессы ξ (t)9 а также некоторые частные примеры (см. пример 5.9.1). Сформулированную задачу приходится решать следующим образом (см. рис. 1.9). При помощи формул (2.1.23) и (2.1.28) по заданным плотностям вероятностей р% вычисляют моментные или корреляционные (кумулянтные) функции процесса ξ(/). По моментным или корреля* ционным функциям процесса ξ (t) можно найти моментные.или корреляционные функции процесса η (f) (см. §5.2). Определив их, находят характеристические функции и соответствующие плотности вероятности /?η. При приближенном определении одномерной плотности вероятности процесса η (t) можно попытаться отыскать аппроксимирующую кривую из семейства кривых Пирсона (см. § 1.5). Для этого требуется вычислить лишь первые четыре одномерные моментные или кумулянтные функции процесса η (/). . Применительно к гауссовским процессам ξ (f) решение задачи упрощается на том основании, что при преобразовании гауссовского процесса линейной системой выходной процесс η (/) остается также гауссовским. Действ-ительно, в формуле (4) разобьем интервал интегрирования U0, /] на η равных подынтервалов одинаковой длительности Δτ = (/ — t0)/n и обозначим средние точки этих подынтервалов τν, ν = 1, 2 , ..., η (τχ<τ2< ...<τη). Тогда интеграл можно представить в виде суммы η(0~ 2 fi(t-tv)l(rv)Ar, (5.1.5) где ζ (iy), ν = 1, ..., η, есть совместно гауссовские случайные величины. Поскольку процесс η (/) представляет собой линейную сумму совместно гауссовских случайных величин, то он будет также гауссовским. По-видимому, этот результат останется в силе и при Δτ-> 0, т. е. при обратном переходе от суммы (5) к интегралу (4). Так как гауссов- ский случайный процесс полностью определяется математическим ожиданием и корреляционной функцией, то для нахождения плотности вероятности процесса r\(t) достаточно вычислить математическое ожидание и корреляционную функцию выходного процесса. Укажем, что в некоторых случаях решение сформулированной задачи облегчается благодаря использованию явления «нормализации»; плотность вероятности процесса на выходе сильно инерционной системы приближается к нормальной. При этом необходимо вычислять лишь ограниченное число первых корреляционных (кумулянтных) функций выходного процесса (см. §5.10). Если выходной процесс η (t) является марковским, то плотность вероятности /?η можно получить, решая соответствующее уравнение Фоккера—Планка—Колмогорова (см. § 2.6). Следует всегда иметь в виду, что необходимая степень детальности решения задач анализа (т. е. какие именно характеристики выходного процесса нужно находить) целиком определяется характером конкрет* №
йо сформулированной задачи. Например, если рассматривается воздействие выходного процесса на триггерные устройства, то необходимо знать по крайней мере двумерную плотность вероятности выходного процесса. При решении задач в рамках корреляционной теории часто можно ограничиться вычислением математического ожидания и корреляционной функции выходного процесса. При оперировании с интегралами и производными от случайных процессов (в частности, в связи с формулами (4) и (5)) возникают некоторые специфические проблемы. Как известно, операции интегрирования и дифференцирования определяются через пределы. Спрашивается, какой смысл имеет, например, интеграл в правой части формулы (4). В обычном математическом анализе интеграл для детерминированных функций всегда понимается как предел определенным образом составленной интегральной суммы, причем основное внимание здесь уделяется правилу составления этой суммы, которое различно при разных определениях интеграла. Что же касается предельного перехода, то он всегда имеет один и тот же смысл и с ним не связано никаких трудностей. Иначе обстоит дело для случайных функций (процессов). Здесь главным является не понятие интегральных сумм или дифференциала, а то, какой вероятностный смысл придавать предельному переходу, т. е. что, например, понимать под записью ξη-> ξ при я-> оо, где {£„} — последовательность случайных величин. Объясняется это тем, что случайные функции или последовательности задаются соответствующими плотностями вероятности и предельный переход можно трактовать по-разному. Приведем четыре понятия сходимости случайных величин, из которых в дальнейшем будет использоваться преимущественно второе [1, 2, 18]. Пусть имеется последовательность случайных величин llt ξ2, ... • · ·» δη» 1. Сходимость с вероятностью единица, или сходимость почти наверное. Говорят, что последовательность случайных величин {1п} сходится к величине £ с вероятностью единица (или почти наверное), если Ρ {1п~+1}= 1 при п+оо, (5.1.6) или lim ξη-> ξ при п-+ оо. 2. Сходимость в среднеквадратическом смысле. Последовательность случайных величин 1п сходится в среднеквадратическом смысле к ξ, если Μ{|ξ„ — ξ|2 }-> 0 при п-> оо. (5.1.7) Сходимость в среднеквадратическом смысле часто записывают иначе: l.i.m. ξ„ = |, * (5.1.8) /l-*oo где обозначение l.i.m. составлено из начальных букв английских слов (limit in the mean square). 16* 483
3. Сходимость по вероятности. Рассмотрим вероятность Ρ {\tn — — ξ Ι > ε} того, что \1п — 1\ больше заданного числа ε > 0. Эта последовательность чисел будет зависеть от ε. Если она сходится к нулю для любого ε, τ. е. Ρ №п — ξ|>ε}->0 при л-*оо, (5.1.9) то говорят, что последовательность длучайных величин сходится к ξ по вероятности. 4. Сходимость по распределению. Пусть Fn {χ) и F (χ) — функции распределения случайных величин ξη и ξ соответственно. Если £„ (л:) ->· +-> F (х) при η ->■ оо в каждой точке х9 где F (х) непрерывна, то говорят, что 1п сходится к ξ по распределению. 1 По бероятности \в средней б адра-\ тичвском 1 ι > По распределению Щ \%^ последодательностей \с дероятностью 1 L ; Рис. 5.2. Соотношения между разными видами сходимости случайных последовательностей Предположим, что ξΛ сходится к ξ в каком-либо смысле. В общем случае случайное предельное значение ξ, как правило, неизвестно и для проверки сходимости необходимо иметь критерий, который бы не содержал ξ. Как и в случае детерминированных последовательностей, в качестве критерия существования предела можно воспользоваться критерием Коши: \1п+т — ξη| ->■ 0 при /г-*- оо и любом т. (5.1.10) Если этот предел существует с вероятностью единица, в среднеквадра- тическсм смысле или по вероятности, то случайная последовательность 1П сходится в соответствующем смысле. Например, если при заданном ε > 0 можно найти такое число n0t что м {\1п+т — In I2} < ε при η > п0 и любом т > 0, (5.1.11) то последовательность ξη сходится в среднеквадратическом смысле. Соотношения между разными видами сходимости показаны на рис. 5.2. На основании приведенных определений вероятностной сходимости можно дать определение стохастической непрерывности и дифференцируемое™ случайного процесса. При этом нужно всегда помнить, что такие определения относятся не к отдельным реализациям процесса, а ко всему ансамблю реализаций в целом. Если lim ξ (t + τ) = ξ (0 при τ-> 0, (5.1.12) 484
to говорят, что случайный процесс \ (t) непрерывен в точке t с вероят* ностью единица. Это означает, что наличие реализаций случайного процесса, для которых соотношение (12) не выполняется, имеет нулевую вероятность. Мы скажем, что вещественный случайный процесс ξ (ή непрерывен в среднеквадратическом смысле в точке tt если Μ {β(ί+ τ) —ξ(/)]8}-*0 при τ->0. (5.1.13) Если процесс имеет нулевое математическое ожидание, то Μ {II (t2) -1 ft)]*} = D6 (t2) + D% ft) - 2£ξ (/lf t2). (5.1.14) Применительно к стационарному процессу эта формула упрощается: Μ {[ξ (f+ τ)- ξ (/)]*} = 2Dl [1 -rft (τ)]. (5.1.15) Из (14) следует, что случайный процесс ξ (t) будет непрерывным в среднеквадратическом смысле в точке /, если его корреляционная функция Ri (tl9 t2) непрерывна по tx и t2 в точке tx = t2 = t. В этом случае правая часть выражения (14) стремится к нулю при τ = t2 — — ίΑ-^0 и поэтому будет выполняться предельное соотношение (13). Процесс ζ(ί) является непрерывным в среднеквадратическом смысле при любом ty если корреляционная функция Ri(tlt t2) непрерывна вдоль всей линии tx = t2. Применительно к стационарному в широком смысле процессу ξ (t) соотношение (13) будет выполнено, если корреляционная функция R% (τ) = D%r% (τ) непрерывна при τ = 0 и наоборот. Следовательно, стационарный процесс ξ (/) является непрерывным в среднеквадратическом смысле тогда и только тогда, когда его корреляционная функция непрерывна при τ = 0. Воспользовавшись неравенством (2.2.29) в виде М2 {H(t + x + e)-l(t + τ)] I (t)} < Μ {[ξ (t + τ + ε) - -ξ(/ + τ)Ρ>Μ{ξ*(0> нетрудно показать, что если корреляционная функция R% (τ) стационарного процесса ξ (t) непрерывна при τ = 0, то она непрерывна при любом τ. . Необходимо отметить, что стохастическая непрерывность процесса в том или ином смысле совсем не означает, что реализации процесса являются непрерывными функциями. Например, дробовой шум состоит из дискретных импульсов, хотя процесс будет непрерывным. Правильное заключение из стохастической непрерывности состоит в том, что при заданном t вероятность того, что случайно выбранная реализация случайного процесса является разрывной в точке t9 равна нулю. Аналогично стохастической непрерывности определяется производная случайного процесса как предел (в каком-либо из указанных смыслов — см., например, (5.6.2)) выражения 1'(0=!Ж = Ит i(t+w-tm , (5.1.16) at Δί->ο At В перечисленных ранее трех смыслах сходимости следует понимать существование предела сумм вида (5). Так, интеграл (4) в среднеквадра- 485
тическом смысле определяется как среднеквадратический предел суммы (5), если он существует, выражением l.i.m. M Ч (О- Σ Λ(/—τν)ξ(τν)Δτν ν=ι = 0 при Δτν -»■ 0. (5.1.17) Отметим, что понятия непрерывности и дифференцируемости случайного процесса не тождественны. Требование дифференцируемости случайного процесса является более жестким и ограничительным, чем требование непрерывности процесса. Например, стационарный случайный процесс с корреляционной функцией R% (τ) = Ζ) ξ exp (—α|τ|) согласно выражению (15) является непрерывным. Однако в §5.6 будет показано, что такой процесс не дифференцируем. Приведем некоторые сведения о многомерных линейных системах. Их свойства так же, как и одномерных систем, могут быть охарактеризованы при помощи импульсной или комплексной частотной характеристики. Рассмотрим их на примере двумерных фильтров. Двумерной импульсной характеристикой h (x,y) фильтра называется его реакция на входной сигнал в виде пространственной дельта- функции 6 (х, у). Это значит, что если на вход линейного двумерного фильтра действует сигнал б (х9 у), то сигнал h (x, у), появляющийся на выходе фильтра, будет двумерной импульсной характеристикой. Если на вход линейного фильтра с импульсной характеристикой h (х9 у) действует двумерный сигнал ξ (х9 у), то сигнал η (х9 у) на выходе фильтра определяется в виде двумерного интеграла свертки оо оо η (х, У) = J J I (μ, ν) h (χ— μ, у—ν) αμάν = ΟΟ — ΟΟ ΟΟ ΟΟ = J J ξ(χ-μ,ί/-ν)Λ(μ>ν)φα'ν, (5.1.18) -co — оо называемого также интегралом Дюамеля. Двумерная комплексная частотная характеристика К QuXf ]uy) фильтра представляет собой реакцию фильтра на воздействие в виде плоской пространственной гармоники. Комплексная частотная характеристика К (}их, ]иу) связана с импульсной характеристикой прямым преобразованием Фурье К 0 uxf j iiy)= f J A (x. У) e-^+^dxdy. (5.1.19) CO CO Наоборот, оо оо Λ(*,ί/) = -^ f j K(lux,]uy)ei(x"-+!"'yUuxduy.(5A.20) -CO CO 486
Поскольку /С (juXf juy) есть комплексная функция,-запишем К (К, К) = К ("*, Щ) е-,ф (-«·"»), (5-1 -21) где К (их, иу) и φ (uXf uy) — соответственно амплитудно- и фазочастот- ная характеристики фильтра. Если на вход двумерного фильтра воздействует сигнал произвольной, формы I (х, у) с известным спектром 5 ξ Qux, ]uy), то спектр 5Ч Qux, )uy) выходного сигнала η (χ, у) определяется формулой 5η (]uXf )Uy) = К (j иХУ j uy) 5| (j uxt j Uy). (5.1.22) Зная 5Ч, с помощью обратного преобразования Фурье можно найти выходной сигнал η (χ, у). В том случае, когда пространственная фильтрация осуществляется несколькими последовательно включенными линейными четырехполюсниками, то пространственно-частотная характеристика всей цепи есть произведение характеристик отдельных звеньев, т. е. К Qux> }Uy) = Кг{]их, )Uy) Кг Q"x> )Uy) ··· Кп QuXf }иу). (5.1.23) Многомерные линейные системы могут быть реализованы различным образом. Вид линейной системы определяется воздействующим на нее полем и задачами, возложенными на систему. Для полей, представляющих собой некоторые изображения (фотографии, пленки), в качестве линейной системы могут служить элементы оптики: слой однородного пространства, транспарант в виде пленки с изображением, один из оптических приборов, например диафрагма. Создаются также специальные оптические фильтры для требуемого изменения пространственного спектра входных сигналов. В случае активной или пассивной локации применяются направленные антенные системы, формирующие в пространстве нужную диаграмму направленности. «Пятно», образующееся в результате пересечения диаграммы направленности и исследуемой поверхности, также можно рассматривать как двумерный пространственный фильтр. Отметим, что чем выше разрешающая способность РЛС, тем меньше размеры пятна и тем более высокочастотные составляющие пространственных частот могут быть зафиксированы приемником РЛС. К числу фильтров пространственных частот можно отнести также приемники РЛС и ИК-приемники со своими антеннами, различные элементы телевизионных систем, зрительный аппарат человека и т. д. В особую группу двумерных фильтров следует выделить получающие все большее распространение электронно-оптические фильтры. Примером таких фильтров может служить потенциалоскоп, в котором с помощью электронного луча на мишени*(экране)^записывается по? тенциальный рельеф поля ζ(χ, у). Процесс фильтрации основан на том, что потенциальный рельеф отличается от ^рельефа зарядов, содержащихся в электронном луче, при этом 'ослабляются (или подчеркиваются) определенные пространственные частоты. Комбинация электронных и оптических средств дает широкие возможности дли самых разнообразных преобразований дзух- н дэже трехмерных полей. 487
5.2. ВЫЧИСЛЕНИЕ МОМЕНТНЫХ И КОРРЕЛЯЦИОННЫХ ФУНКЦИЙ НА ВЫХОДЕ ЛИНЕЙНОЙ СИСТЕМЫ Установим правила вычисления моментных и корреляционных функций процесса η (t) на выходе стационарной линейной системы по известным .моментным и корреляционным функциям входного процесса 5(0 [167]. Воспользуемся приближенным представлением интеграла (5.1.4) t t η(0 = J h{t-u)l{u)du = ^h{u)l{t---u) du (5.2.1) о о ' в виде суммы η η r\(t) ex 2 Λ (t—ih ) ξ (ι/ν ) Δ"ν ~ 2 h(uv)^ (t — uv) Auv . ν=ι ν=ι Для простоты последующих записей принято t0 = 0. Согласно формуле (1.3.6) математическое ожидание суммы случайных величин равно сумме математических ожиданий отдельных слагаемых. Поэтому можно написать Μ {η (ί)} ~ 2 h ('""ν ) Μ {ξ («ν )} Δ«ν = ν=1 = 2 Μ"ν)Μ{ξ(/-«ν)}Δ«ν. ν= 1 При Δί/ν ->- 0 эти приближенные равенства перейдут в точные, а суммы справа в интегралы. Таким образом, получим окончательную формулу для математического ожидания t щ (0 = Μ {η (t)} = ξ h (f—u) Μ {ξ (и)} ώ/ - n t = ^h(u)M{l(t — u)}du. (5.2.2) о Эта формула показывает, что операции взятия математического ожидания и интегрирования можно менять местами. Этим результатом воспользуемся в дальнейшем. Запишем равенство (1) для нескольких моментов времени tl9 t2f ..., tn, перемножим левые и правые части полученных равенств и результат вероятностно осредним. Поменяв затем местами операции интегрирования и взятия математического ожидания, получим выражение для n-мерной начальной моментной функции выходного процесса: и *п Μ {л(У η (/а)... η (ί„)} = J ... \h {ιιλ) h (a2)... h (un) X о ό χ Μ {ξ (ti—Ui) I (t9—ud ... I (tn — un)} dux du2... dun. (5.2.3) 488
При ix = i2 s= ... = tn s= Готсюда следует формула для одномерных начальных моментов * ί Μ {η« (/)} = J ... J /г (αχ)... /ι (ип) Μ {ξ (/—nj ... ξ (*—un)} dt^... dun, о о (5.2.4) а при л = 2 формула для ковариационной функции и и Μ {η (*ι) η (4)} = I I h (ιιλ) h (u2) Μ {ξ (<! — иг) I (t2—u2)} dux du2 о о или и и Кц (/ι, /г) = ^ \ h (ui) h (u*) %Ъ ifi—ab t2—u$ dt^ du2. (5.2.5) о о Аналогичным путем получается выражение для (т + /г)-мерной взаимной моментной функции между входным ξ (ή и выходным η (/) процессами: Μ {ξ ft )... ξ ( tm) η (tx)... η (*„)} = $' ... f А Ы ... Α (ιΟ Χ (5.2.6) о о χ μ {ξ (/;)... ξ ( q ξ (/!-«,)... ζ (tn-un)} dUl... d^. В частности, взаимная ковариационная функция между входным ξ (Ϊ) и выходным η (ί) процессами определяется формулой t ΚΪΆ (t\ t) = M{l (Г) η (ί)} = J h (и) Μ {ξ (Γ) χ Χ ξ (*—ί/)} ώι = $ λ (w) /Ci (*', /—и) dw. (5.2.7) Нетрудно получить формулы для центральных моментных функций. Для этого вычтем из (1) выражение (2) и обозначим центрированные функции нулевым индексом: t t η0 (t) = \h (t—u) |0 (u) du = \h (u) ξ0 (/ и) du. о о Повторив приведенные выше рассуждения, нетрудно убедиться, что формулы (3), (4) и (6) останутся в силе, только теперь в них нужно "под- ставить соответствующие центрированные функции. Запишем формулы для корреляционной /?η (tl9 /2), взаимной корреляционной /?ξη*(ί',0' функций и третьей центральной моментной функции: и *« Rr\ (tlf ί2) = ^ ^ h (ίλ—иг) h {t2—u2) Ri (ul9 u2) dux du2 = о о 489
Л [ h (иг) h (и2) /?| {ii — Ыъ tr— «2) dUidiib (5.2.8) о о #ξη (/', 0 = J A (/—w) /?ξ (Г, α) du = J Λ (α) /?ξ (/', / — и) Λι, (5.2.9) 0 ° , - /1 ί. *з Μ {%&) η0 (4) Ло (**)) = I S J Λ (Ί—«Ι) Λ (/2— iia) Λ (t3—us) X 0 0 0 Χ Μ {ξ0 (^) £0 (α2) ξ0 (и3)} Λ*ι dMg ώ/3 — и t% tt ^\ I S ft ("1) A W ft Ы Μ {ξ0 й-«1) ?о (4~и2) ?о (<з-"з)} Χ 0 0 0 χ аигаи2аи9л (5.2.10) Из (8) при tx = ί2 = t получаем выражение для дисперсии '· { βη (/) = j j Л (/—ιΟ Α (/—w2) ^ξ (ulf u2) dux du2 = о о = f f А (иг) A (w2) /?| (<—uu t—u2) dux du2. (5.2.11) о о Из формулы (4) видно, что одномерный момент п-го порядка случайного процесса на выходе линейной'системы выражается через η -мерный момент случайного процесса на входе системы. Поэтому если для процесса η (t) нужно найти приближенное выражение одномерной плотности вероятности (с учетом лишь первых η кумулянтов—см. (1.3.49)), то должны быть известны все корреляционные или моментные функции процесса ξ (f) до /г-мерной. Если процесс задан плотностями вероятности, то необходимо знать /г-мерную плотность вероятности, по которой можно найти эти корреляционные или моментные функции. Разумеется, что процесс вычисления /г-кратных интегралов вида (4) является весьма трудоемким и сложным. В этом и состоит основная трудность решения задач о преобразовании плотностей вероятностей инерционными линейными системами [168]. Формулы, аналогичные (3)—(11), можно написать и для нестационарных линейных систем. До сих пор на входной процесс ξ (t) не налагалось никаких ограничений, в частности, он мог быть нестационарным (рис. 5.3). Естественно, что при этом выходной процесс η (t) будет также нестационарным. Сделаем теперь последовательно два упрощающих предположения. 1. Допустим, что входной процесс ξ (t) стационарен в широком смысле, т. е. Щ =М {\ (*)} = const, Ri (tl9 *2) = #* W, τ = /2—tx. (5.2.12) Применительно к стационарным входным процессам некоторые из предыдущих формул несколько упрощаются. Так, например, формулы (2), 490
%(t) Aft) η ft) Рис, 5.3. Реализация случайных процессов на входе и выходе линейной системы (8), (9) и (И) принимают соответственно вид t mn(t) = mi f h(u)du, (5.2.13) <t ί· #nfo> /*) = С f A (%) Л N #1 ('«—*i—«a + «i) ^i ^2, (5.2.14) Я (t'tt) = $h(u)Rl(t—t'-u)du, о t t Л (%) Α (и2) Я| (Ui—Uz) dux du2. (5.2.15) (5.2.16) Из этих формул видно, что хотя входной процесс ξ (/) стационарен в широком смысле, выходной процесс η (t) будет нестационарным. С качественной точки зрения здесь имеется полная аналогия со случаем воздействия детерминированных сигналов на линейные системы. Если входной сигнал начинает действовать в момент времени t0 = 0, то стационарный режим работы системы математически достигается асимптотически при ί-> со.Однако в инженерной практике принято говорить о конечной длительности переходных процессов, после «завершения» которых состояние практически можно считать стационарным. Целесообразно аналогично поступить и в рассматриваемых задачах. Кстати, отметим, что если, например, процесс ξ (ή трактуется какстационарный в широком смысле через время τ ξ (рис. 5.3), то выходной процесс η (t) может рассматриваться как стационарный в том же смысле только через большее время τη > t|. 491
2. В случае линейных пассивных систем с затуханием по истечении достаточно большого времени τη от момента t0 = О случайный процесс η (ί) будет приближаться к стационарному в широком смысле. Действительно, полагая в формуле (13) ί->οο и учитывая (5.1.1), получаем оо тл = Μ {η (0} = ml[ h (u) du = mlK (0), (5.2.17) о Т. е. математическое ожидание не зависит от времени. Чтобы подучить выражение для корреляционной функции, обозначим t2 — ij = TH перейдем в (14) к пределу при tx->- оо. Тогда получим окончательную формулу для корреляционной функции процесса т) (t) в стационарном состоянии: #η (τ) = f \ h (#ι) h (u2) Ri (τ + иг—ид dux duz = о 5 ©о τ + и = §h(u)du f h(x + u—v)Ri(v)dO. (5.2.18) Убеждаемся, что корреляционная функция процесса η (ί) зависит только от разности временных аргументов τ = t2 — i^ Следовательно, выходной процесс η (ί) асимптотически (при /->оо) становится стаиСионарным в широком смысле. В инженерной практике процесс η (t) обычно трактуется как стационарный через некоторый конечный интервал времени τη, определяемый длительностью переходных процессов в системе. Формула (18) позволяет получить простое соотношение между спектральными плотностями Бц (ω) и S| (ω) для выходного η (/) и входного ξ (ί) стационарных процессов. Действительно, беря преобразование Фурье от обеих частей равенства (18), имеем оо оо оо оо δη(ω)= Γ /?η(τ)ε-ίωτΛ= f e-J® <τ+"-0></τ f f e-J* ^~и) X — оо -^оо 0 0 X А (и) A (v) Ri(t-\-u — v) dudv. Меняя местами порядок интегрирования и учитывая формулу (5.1.1), получаем δη(ω)= Г e~'^vh(v)du f e^uh(u)du Г e-J" (* + «-*> Χ χ т. е. 492 Rt(T + u — υ)άτ = Κ(](ο)Κ(—jco) f e-i<»s#|(s)ds, — оо 5η(ω) = 5ξ(ω)|/((ΐω)|2. (5.2.19)
Следовательно, спектральная плотность процесса на выходе стационарной линейной системы в стационарном режиме работы равна спектральной плотности входного стационарного процесса, умноженной на квадрат амплитудно-частотной характеристики системы. Этот важный результат позволяет продуктивно использовать спектральную плотность при расчетах случайных процессов в линейных системах. Формулы (16) и (15) при ί-><χ> имеют вид ОО ОО Д, = f f λ (их) h (ы2) #|(«χ—ы2) ащ. du2, (5,2.20) б о ОО /?6η(τ)= Γ Α(Μ)/?ξ(τ—u)du, x = t — t\ (5.2.21) о На основании (17) и (21) можно сделать вывод, что если входной процесс ξ (t) стационарен в широком смысле, то процессы ξ (t) и η (t) асимптотически (при ί-^οο) являются стационарно связанными в широком смысле. В отличие от стационарности в широком смысле, стационарность входного процесса ξ (t) относительно /г-мерной плотности вероятности в общем случае не гарантирует асимптотически (при t-+ oo) стационарность в узком смысле даже относительно одномерной плотности вероятности выходного процесса η (t). К такому заключению можно прийти хотя бы на основании указанной выше методики (4) вычисления одномерных моментов различного порядка выходного процесса. Применим формулы (18) и (21) к важному частному случаю, когда входным процессом является стационарный белый шум с корреляционной функцией (2.5.38). Получим ОО #η (τ) = ЛЬ. Г h (и) h (| τ Ι + и) du, (5.2.22) Ό R^) = i{NJ2)h(X)' τ = '-<'>°> (5.2.23) I 0, τ<0. Из последней формулы видно, что с точностью до постоянного множителя (Ν0/2) импульсная характеристика линейной системы совпадает с взаимной корреляционной функцией между входным стационарным белым шумом, воздействующим на систему, и выходным случайным процессом. Этим результатом пользуются при экспериментальном определении импульсной характеристики неизвестной линейной системы при помощи коррелометров. Схема такого коррелометра (при выполнении условия эргодичности) изображена на рис. 5.4. Применительно к белому входному шуму формула (19) принимает вид 8ϊ](ω) = (Ν0/2) [Κϋω)!2. · (5.2.24) В связи с формулами (22) и (24) имеет смысл постановка следующего вопроса. Пусть η (t) — стационарный процесс с нулевым математиче- 493
Нормированные корреляционные функции Процесс или формирующий фильтр 1 °° г (τ)=— j* S (ω) e/ωτ </ω Аналитическое выражение | График | — г" (0) 1. Белый шум Ν, δ (τ) iioo £_ ο τ 2. Низкочастотный /?С-фильтр β-α|τ| ж 0 г 3. Два низкочастотных ЯС-фильтра (1+α|τ|)β-°"τ' 0 Τ α* 4. Гауссовский низкочастотный фильтр -ατ1 .ж 0 Г 2α 5. Идеальный низкочастотный фильтр sin (Δωτ) Δωτ 0 ^Х — (Δω)* 6. Синусоида со случайной фазой cos ω0τ тЩь CUJS 7. Колебательный контур е~~а {τ ' cos ω0τ 8. Колебательный контур 4S4 β-α,τΙ (cosco0t + α + — sin ω0 Ι τ Ι) ω0 α2 + ω?
й сйектрйльные njidTHOctM Таблица S.2 5(ω)= J r (τ) β-/ωτί/τ Аналитическое выражение График Af3/A/ 2 roo I eo-» 0 Ш 2α α2 + ω2 #C = 4 Δ/9 0 W 4α3 (α2 + ω2)2 α=8 Δ/э 4- 0 ω г ω2 V/ π — е 4 α, α = πΔί| О Ш --— при | ω |<Δω, Δω О при | ω |>Δω О Ш π [δ (ω —ω0) + δ (ω +ω0)] Li_L -ω0 ο ω0ίθ α2+(ω—ω0)2 α2+(ω+ω0)2 JLLA -οο0 ο ύΰ0ω 4αω§ [α2+(ω— ω0)2] [α2 + (ω+ω0)2] ΑΙΑ -w0 ο ω0ού 493
Процесс или формирующий фильтр г<х)^- Τ 5(ω)β'ωτ^ 2 π Аналитическое выражение График -г" (0) 9. Гауссовский радиофильтр е ατ~ cos ω0τ isf^m^i ω? + 2α 10. Идеальный радиофильтр sin (Δωτ/2) Δωτ/2 ■ cos ω0τ ω20 + — (Δω)- ским ожиданием и корреляционной функцией /?η (τ). Всегда ли существует линейный фильтр с импульсной характеристикой h(t)> позволяющий представить процесс η (/) в виде г)(/) = j h(s)n0(t—s)dsf (5.2.25) где п0 (t) — входной белый шум. Можно прийти к заключению, что необходимое и достаточное условие справедливости формулы (25) состоит в том, чтобы для корреляционной функции процесса η (/) при некоторой постоянной с и интегрируемой в квадрате функции h (t) выполнялось соотношение оо /?η (τ) = Μ {η (0 η (t + τ)} = с f h (s) h (s—τ) dx. (5.2.26) Этот результат можно записать через спектральную плотность: оо ί iniVli^ 1+ω2 <оо. (5.2.27) Комплексная частотная характеристика интересующего нас линейного фильтра должна иметь вид К (jco) = const ]/5η (ω) ei° <ω\ (5.2.28) где θ (ω) — вообще говоря, произвольная фазочастоТная характеристика. Поскольку условие (5.1.3) оказывается выполненным, то θ (ω) всегда можно подобрать так, чтобы фильтр был физически возможным (осуществимым). 4Э6
Окончание табл. 5.2 S (τ)= j r (τ) e-J^T dx Аналитическое выражение График vs (ω—ω0) (ω + ω0)* β 4 α _j-e 4 α -Щ о ω0 ω 1,065 т— при I ω±ω0Ι<Δω/2, Δω О при |ω±ω0|>Δω/2 UJ -ω0 о ш0ш С учетом сказанного формулы (22) и (24) дают простой практический способ получения стационарных в широком смысле случайных процессов с заранее заданными корреляционными функциями (спектральными плотностями). Такие задачи часто возникают при моделировании n0(t) Рис. 5.4. Функциональная схема коррелометра hit) -l(t) χ Оценка Ihlt) tJo n0(t-t)^(t) случайных процессов (в частности, на ЭВМ). Во многих случаях требуемую корреляционную функцию удается получить, «пропуская» белый шум через надлежащим образом подобранный линейный фильтр, который в данном его применении принято называть формирующим фильтром. В Игабл. 5.2 помещены некоторые нормированные корреляционные функции и соответствующие им спектральные плотности; часть из них может быть получена преобразованием белого шума линейным формирующим фильтром. 5.3. ПРИМЕРЫ ЛИНЕЙНЫХ ПРЕОБРАЗОВАНИЙ Рассмотрим несколько примеров. Пример 5.3.1. Чисто диффузионный процесс. К понятию чисто диффузионного процесса, называемого также процессом Винера или процессом Винера—Леей, можно прийти разными путями, например 497
путем надлежащего предельного переводи Ё йростейшей задаче о симметричном случайном блуждании частицы, встречающейся в броуновском движении. Из~курса физики известно, что молекулы газа или жидкости в отсутствие внешних влияний находятся в постоянном хаотическом (броуновском) движении, интенсивность^которого зависит только от температуры и плотности. Молекула в случайные моменты времени сталкивается с другими молекулами и меняет при этом свою скорость и направление. Рассмотрим движение относительно тяжелых частиц в газе или жидкости, считая, что масса такой частицы много больше массы молекул окружающей среды. Будем следить, как изменяется с течением времени одна из координат избранной тяжелой частицы, допустим, горизонтальная координата. При этом можно не учитывать силу тяжести; на частицу действуют только сила трения об окружающую среду и случайная сила толчков. Если масса тяжелой частицы т, то, пренебрегая силой трения, для горизонтальной компоненты скорости w (t) на основании закона Ньютона записываем уравнение движения частицы mdwldt = nQ (/), где-я0 (0 —составляющая случайной силы толчков вдоль горизонтальной оси. Чтобы поведение частицы было статистически определенным, необходимо указать характеристики случайной силы. При соблюдении условий симметрии толчки, испытываемые данной частицей в результате столкновения с молекулами окружающей среды, в разных направлениях равновероятны. Поэтому среднее значение (математическое ожидание) Μ {/ι0 (/)}» очевидно, равно нулю. Случайная сила щ (t) представляет результирующий эффект, обусловленный большим числом отдельных толчков. Скорость частицы представляет собой интеграл от случайных толчков. При большой концентрации молекул за время t > τ0, где τ0 — среднее время между соседними толчками, скорость частицы w (t) согласно центральной предельной теореме теории вероятностей будет гауссовским процессом. Этот результат останется справедливым для любых значений t, если формально трактовать случайную силу п0 (t) как гауссовский процесс с дельтообразной корреляционной функцией (гауссовский белый шум). Введение идеализированного белого шума существенно упрощает все вычисления и во многих случаях позволяет получить правильный окончательный результат. В известной мере такая идеализация оправдана тем, что обычно нас интере- сует-не микроскопическая, а макроскопическая картина явления. Все реальные физические приборы, с помощью которых осуществляются наблюдения и измерения, имеют конечное время разрешения и неизбежно осуществляют некоторое «взвешивание» воздействующих на них процессов (за время Δ£ > τ0). Приведем определение чисто диффузионного процесса и перечислим его основные свойства. Чисто диффузионный процесс w(t) формально можно определить через белый шум п0 (t) при помощи стохастического дифференциального уравнения dwldt = n0 (i), w (0) = 0. (5.3.1) Наоборот, белый гауссовский шум является производной от чисто диффузионного процесса. Под белым шумом п0 (t) понимается гауссовский стационарный процесс с нулевым математическим ожиданием и дельтообразной корреляционной функцией Μ {п0 (t)} - 0, Rn (tu t2) = (Ν0/2) δ (t2 - у, (5.3.2) Где Af0 — интенсивность (высота) односторонней спектральной плотности. 498
Из (1) следует, что t w (t) = Г п0 (τ) dx или dw (ί) = п0 (/) Л. (5.3.3) о Любое из этих выражений можно также принять за определение вине- ровского процесса. Поскольку белый шум п0 (t) предполагается гауссовским процессом и при линейных преобразованиях свойство гауссовости сохраняется, то процесс w (t) будет также гауссовским. Согласно (3) математическое ожидание и дисперсия процесса w (ή равны Λ1 {«;(/)} = О, t t Dw (ή = J j Μ {n0 (xx) n0 (r2)} dxx dxz = -M . (5.3.4) о о Поэтому одномерная плотность вероятности процесса w (t) имеет вид p(W',t)= i^expf-J^l />0. (6.3.6) ynN01 \ "о * / Итак, винеровский процесс ш (/) является гауссовским нестацио* нарным процессом с нулевым математическим ожиданием и дисперсией, пропорциональной времени. На основании (3) находим выражение для корреляционной функции (см. пример 5.3.2) Rw (к, к) = [ ] Μ {п0 (хх) п0 (τ^} dxx dx2 = γΝ0min (tlt /2). (5.3.6) о о Установим некоторые свойства приращений гауссовского процесса w (t) на неперекрывающихся интервалах времени. Пусть 0 < ^<С < ^2 < ^з· Вычислим математическое ожидание, дисперсию и взаимную корреляционную функцию приращений. Из очевидного соотношения Aw = w (4)—о> (*ι) = f я0 (т) dt (5.3#7) следует/ что математическое ожидание приращений равно нулю, а дисперсия приращений пропорциональна разности рассматриваемых моментов времени DAw = Μ {[a; (t2) — w &)]2} = Ν0\χ\/2, χ = t2 — tv (5.3.8) Плотность вероятности приращений является нормальной: p(Aw) = —7=L==-expf——\ (5.3.9) С использованием (6) находим взаимную корреляционную функцию приращений Μ {[w (t3) - w (t2)] [w (t2) - w &)]} = Rw (i9t U) - Rw (t2i t2) - 499
- Rw (t3Ji) + Ru, (*2Λ) = 0. (5.3.10) Следовательно, приращения процесса w (t) на неперекрывающихся интервалах времени не коррелированы. Поскольку эти приращения нормально распределены, то они независимы. Кроме этого, несмотря на то, что сам процесс w (t) нестационарен, приращения стационарны, так как математическое ожидание приращений равно нулю, а дисперсия пропорциональна разности рассматриваемых моментов времени. Можно показать [19], что для любого процесса ζ (t) с некоррелированными стационарными приращениями при tx <C t2 < ts < tx должно выполняться соотношение Μ {[ζ (t3) - ζ &)] Ιζ (/4) - ζ (t2)]} = Μ {[ζ (ts) - ζ (/2)Ρ} = = const |/3— ί»|. (5.3.11) 4ZD- R n0(t)( С±Ц{%) Рис. 5.5. Воздействие белого шума на цепь RC На основании определения непрерывнозначного марковского процесса (2.6.126) можно убедиться, что винеровский процесс w (t) является марковским, причем для него коэффициент сноса равен нулю, а коэффициент диффузии отличен от нуля. Этим и оправдывается название процесса w (t) как чисто диффузионного. В радиотехнических приложениях винеровский процесс встречается, например, при анализе гармонических автоколебаний. Можно показать [17], что фазу гармонических колебаний при учете тепловых и дробовых шумов элементов схемы автогенератора можно приближенно рассматривать как винеровский процесс. Пример 5.3.2. Воздействие белого шума на интегрирующую цепь RC. Пусть на интегрирующую цепь RC (рис. 5.5) с момента времени t0 = 0 воздействует напряжение в виде гауссовского белого шума п0 (t) с нулевым математическим ожиданием и дельта-функцией корреляции (2). Найдем математическое ожидание и корреляционную функцию для напряжения ξ (t) на емкости С. Напряжение ξ (t) определяется линейным дифференциальным уравнением dl/dt + al = an0(t). (5.3.12) Общее решение этого уравнения при начальном условии ξ = |0 при t0=0 дается выражением t И (t)=lo e~at + ae~at f eax n0 (τ) dx. (5.3.13) Ό f Относительно характера начального условия нужно различать два случая: 1) начальное условие является неслучайным (детерминированным) и 2) начальное условие является случайным. 50Э
Предположим пока, что начальное напряжение ξ0 на конденсаторе неслучайное; плотность вероятности напряжения на конденсаторе при t0 = О есть дельта-функция р0 (|) = δ (ξ — ξ0). Очевидно, что процесс | (t) является гаус- совским и для его описания достаточно вычислить математическое ожидание и корреляционную функцию. Из решения (13) находим математическое ожидание t ml(t)=m{l(t)\l0}=l0e-at+ae-at\e(XTM{n0(x)}dT=l0e-at. (5.3.14) Ό В данном случае, при нулевом математическом ожидании шума п0 (/), математическое ожидание напряжения на конденсаторе обусловлено только начальным зарядом конденсатора, который в результате разряда конденсатора с течением времени стремится к нулю. Для корреляционной функции напряжения по определению имеем /?f (*ι, «=Μ {[ξ (ω-Λξ (ω] [ξ &)-m6 (^]}=^у^е-а^ + ^> χ и t2 Χ f f ea (τι+τ2> δ (τ2-τι) dxx άτ2. (5.3.15) о о При вычислении данного интеграла нужно воспользоваться формулой (1-6)' Области интегрирования в выражении (15) для t2 = t\ + τ при τ > 0 и τ < О показаны соответственно на рис. 5.6, α и б. Дельта-функция δ (τ2 — τχ) обращается в бесконечность лишь на том участке биссектрисы координатного угла плоскости переменных τχ, τ2, который определяется наименьшим из пределов t\, t2. В заштрихованных областях δ (τ2 — Tt) обращается в нуль. Поэтому при вычислении интеграла в выражении (15) оба предела интегрирования нужно полагать одинаковыми и равными наименьшему: t = min (tlt t2). Так, например, если tx < /2, т. е. τ > 0 (рис. 5.6, а), то при вычислении интеграла полагаем t = t\\ j=\ {βα<τ«+τ·> δ (τ2-τχ) άτχ Λ,= Ό ο = f eaT* dxx (>τ' δ (τ2~τι) <*τ2=-ί- ( e2a<- l). о о 2a Теперь (15) можем записать i|(U1)=j^,e-I|i+«(eW-l). Полагая £2 = / + τ, получаем R% (t, t+x)=^N0 e-«Ml-e-2ai). Рассмотрев аналогичным образом случай τ < 0, получим окончательную формулу ^(/,/+т) = -^^0е-а1т1(1-е-2аО. (5.3.16) Отсюда при τ = 0 получаем выражение для дисперсии CE(/) = j«0(l-e-w)· (5.3.17) Формулы для корреляционной функции и дисперсии в стационарном состоянии получаются из (16) и (17) при £-><х>: /?ξ (τ) = £>ξ β-α,τ|, D6j=atf0/4. (5.3.18) 501
Данная корреляционная функция имеет одну специфическую особенность, а именно, для нее выполняется соотношение (см. с. 608) #ξ (h-h) =Я6 (b-t%) /?ξ (h-h)/^ ,tx<t%< t3. (5.3.19) Можно показать, что такой процесс ξ (t) является марковским [169]. Следовательно, случайный процесс \(t) является одновременно и гауссовским и марковским. Корреляционной функции (18) соответствует спектральная плотность - s6(«)=j vT>e~Je,*=-^i·· (5·3·20)- — οο Линейные фильтры, квадрат амплитудно-частотной характеристики которых имеет вид |K(ju>)|« = const [1+(ω/ωβ)2/,1"!, (5.3.21) где о)с — граничная частота, принято называть низкочастотными фильтрами Батерворта п-го порядка [170]. Спектральная плотность (20) имеет характер функции Батерворта 1-го порядка. Ширина односторонней спектральной плотности Δω на уровне 0,5 от максимального значения 5|maK = S* (0) = 2DJa совпадает с граничной частотой <ос и равна Δω = ос = α. Найдем взаимную корреляционную функцию между входным шумом п0 (tx) и выгодным процессом ξ 02): Rni (h, h) -Μ {η0 (h) ξβ(*ι)}-α β-αί· Γ βατ Μ {η0 (tx) щ (τ)} dxm U e IS- *-o/. Γ βατ 6 (τ—/!) Λ. Поскольку дельта-функция является симметричной относительно особой точки τ = ti, то получим I(aN0/4) exp (—-at2) при ^=0, (аЛУ2) ехр [-а (*а—У] при 0< /х < *а, (5.3.22) aiV0/4 при ^ = /2· Здесь может возникнуть сомнение относительно значений взаимной корреляционной функции при t\ = 0 и ίι=^2· ^ аналогичных случаях во избежание ошибки полезно рассматривать белый шум как предельный случай гауссовско- го коррелированного процесса, например, с корреляционной функцией R (τ) = = (Л^(/4) γ ехр (—γ|τ|) при у -> оо, удовлетворяющей равенству оо ОО — оо — оо Для такой корреляционной функции обычно легко выполняются вычисления при конечном значении параметра γ. 'Затем в полученных выражениях нужно перейти к пределу при γ -> оо. Рассмотрим теперь второй случай, когда не зависящее от шума п0 (/) начальное значение ξ0 является случайным с заданным распределением р0 (ξ0), имеющим математическое ожидание т0 и дисперсию D0. 5С2
Решение (13) целесообразно представить в ЗйДе суммь! двух слагаемых (не* зависимых процессов) ι м = δι (о + £а ω, (5·3·23) t где ξι (0 = l0e~at; ξ2 (0 = ае~Ы ί е*т "о (τΜτ· Согласно формуле (3.2.2) про- о цесс ξ1 (t) имеет распределение рг (ξχ) = eaV0 (ea/ ξχ) с математическим ожиданием mi (t) и дисперсией Dx (t)y равными m1(t) = m0 e~atf Dx (t)=Da e"2a<. (5.3.24) Процесс ξ2 (t) является гауссовским с нулевым математическим ожиданием и дисперсией (17). Воспользовашись известным правилом композиции распределений (3.2.60), можно найти плотность вероятности процесса ξ (t). Очевидно, что в общем случае процесс ξ (t) является нестационарным и не- гауссовским. Он будет гауссовским лишь в частном случае, когда начальное распределение р0 (|0) нормально. Рис. 5.6. Области интегрирования Рис. 5.7. Дискретный формирующий фильтр Из (24) видно, что тг (t) —у 0 и D± (t) -> 0 при £-> оо, причем математическое ожидание стремится к нулю медленнее, чем дисперсия. Следовательно, при t—> оо процесс %i(f) асимптотически стремится к постоянной величине (см. с. 50), в данном случае равной нулю. При этом случайный процесс \ (t) можно рассматривать как стационарный с нормальной плотностью вероятности Pst (ξ)=(2*0ξ )-1/2 exp (-l2/2Dl), (5.3.25) ' не зависящей от начального распределения. Такой результат имеет общий характер. При стационарном воздействии на любую физическую систему с затуханием, имеющую конечное число устойчивых состояний, по истечении времени, определяемого наибольшей постоянной времени системы, в системе установится стационарный процесс, характеристики которого не зависят от начального состояния системы. В настоящее время в связи с развитием цифровой техники часто используют описание процессов в дискретном времени. Проиллюстрируем процедуру перехода'от непрерывного времени к дискретному на примере линейного дифференциального уравнения dkldt = — αλ + η (0, (5.3.26) где η (f) — по-прежнему нормальный белый шум с нулевым математическим ожиданием и корреляционной функцией 503
Μ {η (Ο η (t2)} = (Ν/2) δ (^ — h). (5.3.27) Уравнение (26) полностью аналогично (12), но изменены обозначения: ξ (t) -^ λ (t)f an0 (t) -> η (t). Согласно формуле (18) дисперсия стационарного процесса λ (f) теперь равна Οχ = Ν/4α, т. е. N = 4αΖ)λ. Будем брать отсчеты дискретного времени tv, v = Q, l, 2, ... через постоянный интервал времени: tv+1 — tx = Δ = const. Принимая значение λν-1 = λ (/ν-ι) за начальное, найдем λν = λ (/ν). Согласно решению (13) 'ν λ(/ν) = λ(/ν„,)6^α(/ν-^ν-ι)+ j* е-*(^-хЫ(х)с1г = Δ = λ(/ν_ι)6-αΔ+ [е-^Аг^—s)ds. о Этот результат можно записать в виде разностного уравнения ; λν=βλν_ϊ+^ν, (5.3.28) где Δ β = β~αΔ, ην= f e~asn (tv—s)ds. о Так как случайные величины nv получены в результате интегрирования гауссовского белого шума на неперекрывающихся интервалах времени, то они образуют последовательность независимых гауссов- ских случайных величин', которую принято называть дискретным белым шумом. Каждая из величин распределена нормально с нулевым математическим ожиданием и дисперсией Δ Δ Dv= Г fe-a<s*+s*>— 6(82—8,)rfSlrfs2 = —(1-е-2аД). 0 0 Видно, что дисперсия дискретного белого шума ограничена. При малых Δ (αΔ < 1) справедливы приближенные равенства β^1_αΔ, Dv~#A/2. (5.3.29) Эти приближенные соотношения останутся справедливыми и для переменного коэффициента α (t), если только он существенно не изменяется на интервале длительностью Δ. В этом случае их следует записать βν_ι~ Ι —αν_ιΔ, Dv~jVA/2. (5.3.30) Дискретный случайный процесс λν можно сформировать из дискретного белого шума ην с помощью дискретного формирующего фильтра, приведенного на рис. 5.7, который является аналогом интегрирующего фильтра RC в случае непрерывного времени (рис. 5.5). Стационарный случайный процесс ξ (t) с корреляционной функцией (18) и спектральной плотностью (20) часто используется в качестве модели некоторых простейших сообщений в системах передачи информации. Приведем еще два примера случайных сообщений. 504
Пусть стационарный процесс ξ (t) с корреляционной функцией (18) воздействует на интегрирующую цепь RXCX с постоянной времени β = 1/R&. Процесс η (t) на выходе этой цепи можно сформировать путем пропускания белого шума п0 (t) через две последовательно соединенные (без учета взаимной реакции) интегрирующие #С-цепи с постоянными времени 1/а и l/β (рис. 5.8, а). Найдем корреляционную функцию процесса η (t) в стационарном состоянии. На основании формулы (5.2.8) имеем «η(Ί. '»)=β"0ξ e-a<'' + ''>JJ *xv[$(u1 + Ui)-a\u2-u1\]du1du2. о о «Τ οι- 5ϋ «( Pi ff/ff/ *; 0,6 0,2 Διϋ - ίιΜ, Snmra 0,6 0,6 OS 0,1 ή-άω~ ι 0,5 1,0 1,5 2,0 ω ffj 8 ω Рис. 5.8. Схемы формирования из белого шума случайных процессов η(/) {а) и их относительные спектральные плотности (б) При вычислении интеграла целесообразно сделать замену переменной и2 согласно равенству и' = и2 — иг. При этом прямоугольная область интегрирования по переменным ult u2 перейдет в параллелограмм для новых переменных ult и' (рис. 5.9). Учитывая знак переменной и' в каждой из заштрихованных подобластей, можем записать *η(/1§ t2)=^Dl е-Р^ + ^}1е2^^1ГуУ1е^-а)",^' + о L о 1 β^ + J е(*+а> «' du* [(α+β) е"* <'» + '■>-ае"* <'■"''> + β2 — α· + β( e~a{ti~tl} — e-a'*-^—e"atl~ &*ή]. Если положить здесь t% = t\ + τ и устремить затем ^ —> оо, то с учетом четности корреляционной функции в стационарном состоянии получим ■tfn. (5.3.31) Такой корреляционной функции соответствует спектральная плотность 1 1 V^ % Ν* [1+(ω/α)»][1+(ω/ρ)«] (5.3.32) 505
Этот результат легко получить по формуле (5.2.19). При а = β выражения (31) и (32) принимают вид «η Μ=Dy) О +<* Μ) e"a| τ Ι, ϋΆ = atfe/8; ?η (ω) = 0,5W0 [1 +(ω/α)2]-2. (5.3.33) На рис. 5.8, б изображен график нормированной спектральной плотности 5η (*>)/5η шах=Л (ω)/5η №) =[1 + (ω/α)«] ~2. Ширина спектральной плотности процесса η (/) на уровне 0,5 от максимального значения Δω ~ 0,64α. Рис. 5.9. Области интегрирования Рис. 5.10. Нормированные корреляционные функции По формуле (5.2.21) с учетом (18) находим взаимную корреляционную функцию между входным процессом ξ (/), воздействующим на интегрирующую цепь RiClt и процессом η (/+ τ) на выходе этой цепи в стационарном состоянии оо оо /?δη (τ) = Γ h (и) R^x—u) du = β£>ξ J exp (—β«—α|τ—и|) du. о о Выполнив вычисления, получим *to W β —a V α+β / β , τ<0. α + β При α = β это выражение упрощается: (Ds /2) (1 +2ατ) exp (—ατ), τ > 0, **ι W = (Ds /2) exp (ατ), τ<0. (5.3.34) (5.3.35) Для этого частного случая на рис. 5.10 приведен график нормированной взаимной корреляционной функции (1+2ατ) e^p (— ат)/У2 , τ > 0, exp (ατ)/)/Τ\ τ < 0, (5.3.36)
Для сравнения на рисунке изображены также нормирование корреляционные функции стационарных процессов ξ (t) и η (/), которые легко находятся из формул (18) и (33). Наглядно видно, что поведение нормированной взаимной корреляционной функции двух стационарно связанных процессов существенно отличается от характера нормированных корреляционных функций самих процессов. Другие примеры взаимных корреляционных функций будут приведены в § 5.6. Если процесс ξ (t) воздействует на дифференцирующую цепочку. i^Q (рис. 5.8, о), то при тех же условиях для корреляционной функции процесса η (t) на выходе двух последовательно соединенных цепочек (без учета взаимной реакции), первая из которых является интегрирующей, а вторая — дифференцирующей, получим ντ> = ^ρ- («.-ι^-β.-»'"). Яя-ГтЙйГ*· (5'а'37) Соответствующая спектральная плотность равйа 1 (ω/β)2 «n^-T^n + CZ-W [! + («/».]■ (5·3·38) В частном случае а = β эти формулы упрощаются: /?п (т) -=£>„ (1 —α | τ |)е-*1 * I, D„ = aiVD/8; S„ (ω) = γ Ν0 (ω/ο)· [1 + (ω/α)3]~2. (δ.3.39) На рис. 5.8, б приведен график относительной спектральной плотности sn И Sy И 4 (ω/α)2 Snmax " Va> ~ [1 + (ω/α)ψ; Ч Ширина спектральной плотности на уровне 0,5 от максимального значения Δω с^ ~ 2а. Пример 5.3.3. Корреляционная функция стационарных узкополосных процессов. Линейные радиотехнические системы, работающие на высоких и-промежуточных частотах (например, усилители высокой и промежуточной частоты), как правило, являются узкополосными. При воздействии на такие системы белого шума процесс на выходе согласно формуле (5.2.19.) оказывается узкополосным. При этом под стационарным узкополосным процессом по-прежнему (с. 145) понимается случайный процесс, спектральная плотность которого сосредоточена в сравнительно узкой полосе Δ/ около некоторой центральной частоты /0, причем Δ/ </0. (5.3.40) Под Δ/ можно понимать эффективную ширину односторонней спектральной плотности S+ (/) или ширину на уровне 0,5 от максимального значения (рис. 5.11). Покажем, что корреляционную функцию стационарного узкополосного случайного процесса ξ (t) всегда можно представить в виде Rl (τ) = DlP (τ) cos Ιω0τ + γ (τ)], (5.3.41) где ρ (τ) и γ (τ) — медленно изменяющиеся функции по сравнению с cos ω0τ. 507
Рис. 5.11. Спектральная плотность узкоиолосных процессов Если в формуле (2.3.13) перейти к новой переменной ν = / — /0, то можно написать то оо #£ (τ) = J S+(f) cos (2π/τ) df = J S+ (/0 + v) cos 2π (/0 + ν) τάτ. о -/о Используя обозначения оо Dg рс (τ) = f S+ (/о + ν) cos (2πντ) dv, -fo (5.3.42) имеем где Е>Ъ 9S (τ) = J S+ (/ο + ν) sin (2πντ) dv, -/о Rl (τ) = D| [pc (τ) cos (2π/0τ) — ps (τ) sin (2π/0τ)] = D|p (τ) cos [ω0τ + γ (τ)], (5.3.43) Ρ (τ) = ίρ? (τ) + ρ! (τ)]*/*, tg γ (τ) = ps (т)/рс (τ). (5.3.44) Таким образом, корреляционную функцию стационарного узкополосного случайного процесса всегда можно представить выражением (41). Так как рс (τ) есть четная функция τ, a ps (τ) — нечетная, то ρ (τ) всегда четная функция τ, а γ (τ) — речетная. Предположим, что спектральная плотность S+ (/) симметрична относительно центральной частоты /0 = ω0/2π. Поскольку для узкополосных процессов ширина спектра мала по сравнению с /0, то нижний предел интегрирования в выражениях (42) без значительной погрешности можно заменить на — оо. Тогда ps (τ) = 0 и из (43) получим оо R* (τ) = D| ρ (τ) cos ω0 τ = cos ω0 τ Γ S+ (/0 + ν) cos (2πντ) dv. (5.3.45) Λ Следовательно, корреляционная функция стационарного узкополосного случайного процесса с симметричной спектральной плотностью может быть представлена формулой Rl (τ) = D|p (τ) cos ω0τ. (5.3.46) 508
Качественное различие корреляционных функций узкополосйыХ случайных процессов с симметричной (γ (τ) = 0) и несимметричной (γ (τ) φ 0) спектральными плотностями иллюстрируется рис. 5.12. Укажем весьма существенный факт, характерный для узкополосных случайных процессов. Спектральная плотность S+(/0 + ν) узкополосного процесса практически полностью расположена в низкочастотной области частот ν (см. рис. 5.11). Поэтому функции рс (τ) и ps (τ) и, следовательно, ρ (τ) и γ (τ) для узкополосных процессов являются медленно изменяющимися по сравнению с cos ω0τ. S+(fh х-т(с)+о γ(τ)Φ0 Рис. 5.12. Корреляционная функция узкополосного процесса с симметричной (γ(τ)=0) и несимметричной {^{х)ФЩ спектральными плотностями Приведем конкретные выражения корреляционных функций на выходе идеализированных узкополосных линейных систем с прямоуголь* ной и гауссовской амплитудно-частотными характеристиками, когда на них воздействует стационарный белый шум с односторонней спектраль- ной интенсивностью Ν0. Хотя такие характеристики не могут быть реализованы практически, они часто применяются для аппроксимации характеристик реальных систем ввиду простоты аналитической записи и малого числа определяющих параметров. Пусть Ко, |/Wol<A//2, 0, |/-/οΙ>Δ//2. lK(]2nf)\ (5.3.47) Односторонняя спектральная плотность выходного процесса, очевидно, равна s+(/ (JVo/α IH.KA//2, ^.48) i 0, |/-/,|>Δ//2. Такой спектральной плотности соответствует корреляционная функция R(T) = Dsin("Ah)cos(2nf0x), D = N0K%Af. (5.3.49) πΔ/τ 509
Ёели в (48) положить /0 = Δ//2 («низкочастотный» процесс), то Rix) = Djin№f±t (5.з.50) 2πΔ/τ Для линейной системы с гауссовской амплитудно-частотной характеристикой | К (]'2π/) | = К0 ехр [- f (-^J], (5.3.51) получим S+(r) = N0Kbexp[-n(±^J (5.3.52) /?(т) = ^оКо2А/эехр[-я(Д/эт)'2]со8(2я/0т), А/э«/0. (5.3.53) Отметим, что для идеализированных линейных систем (46) и (51) условия физической возможности систем (5.1.3) не выполняются. Это проявляется в том, что случайные процессы на выходе таких систем обладают некоторыми специфическими свойствами, схожими со свойствами детерминированных функций. Поэтому такие случайные процессы называются вырожденными (сингулярными) или аналитическими (см. §5.6). Пример 5.3.4. Осреднение стационарного процесса за конечный интервал времени. Пусть \ (ή — стационарный в широком смысле случайный процесс с математическим ожиданием trig, корреляционной функцией R* (τ) = D^r^ (τ) и спектральной плотностью S* (ω). Образуем новый процесс η(0==2Δ" f "5(") A<> (5.3.54) t-Δ получаемый в результате осреднения процесса ξ (/) за временной интервал (t—Δ, t+ Δ). Такая операция при больших Δ встречается при измерении характеристик случайных процессов, а при малых Δ — при сглаживании быстрых изменений процесса и часто называется текущим (или скользящим) сглаживанием. Найдем математическое ожидание тт, дисперсию ϋη, корреляционную функцию R (τ) и спектральную плотность 5η (ω) сглаженного процесса η (t). Воспользовавшись установленной на с. 488 возможностью перестановки операций математическою ожидания и интегрирования, получим, что для любого стационарного в широком смысле процесса ξ (t) выполняется равенство тц = Μ {η (0}=^- j Μ {ξ (и)} du=m% . (5.3.55) t— Δ Вычтем из обеих частей равенства (54) математические ожидания (55) и обозначим центрированные величины нулевым индексом: *+Δ f —Δ 510
По определению записываем выражение для корреляционной функции dudv. ί-Δi+t-Δ Подставив сюда £η (τ) =Μ {η0 (t) η„ (ί+τ)} ~^j- J J R% (u-v) R% (u~v)= — Г S£ (ω) eJca (α-ο) <ίω S(tH(t)+n(t) $\#* I HsT(t) it) w №) t-τ о , τ Рис. 5.13. Оценка детерминированного сигнала с помощью скользящего сглаживания и поменяв порядок интегрирования, имеем *+Δ *+τ+Δ 1 Г Sl{u))d<i> Г e-lavdu Г eji0W<to. ^W=' NT1'W/ 2π·4Δ2 .1 6 Выполнив интегрирование, получим *-Δ ί+τ~Δ 00 Отсюда непосредственно следует, что £η (ω) = St (ω) (sin Δω/Δω)2. (5.3.57) Так как функция sin Δω/Δω сконцентрирована в окрестности малых значений *Δω, то операция текущего сглаживания (54) действительно подавляет высокочастотные составляющие спектра S* (ω), т. е. устраняет быстрые изменения, если они были в процессе ξ (/). Из сравнения формул (5.1.4) и (54) следует, что операцию текущего сглаживания можно рассматривать как пропускание процесса | (/) через линейную систему с прямоугольной импульсной характеристикой ,1/2Δ.|/|<Δ. и I о, ш>д. Комплексная частотная характеристика такой системы равна Δ K(jco)=^- J β"'·" Λ=- sin Δω Λω 611
Подставив в формулу (56) оо θξ(ω)= J /?6(т')е-'от'Л', — оо поменяв местами порядок интегрирования и выполнив вычисления, получим формулу для корреляционной функции 2Δ R*{x)=ir ί Ο-ιδ1)** <*-*>*· (5·3·5δ) ' -2Δ Отсюда при τ = 0 находим дисперсию 2Δ — 2Δ Следовательно, для вычисления дисперсии скользящего временного среднего значения стационарного в широком смысле случайного процесса необходимо знать его корреляционную функцию. Часто формула (59) используется в несколько ином виде. Если вместо (54) рассматривать процесс t τ r\r(t) = y J mdu~±^l(t-s)ds, (5.3.60) t-T 0 то дисперсия его равна τ τ Α.(7) =-ρj(i-jr)R^)dr = ^-^(l-jr)rt(r)dx. (5.3.61) 0 0 Эта формула является основной при формулировке различных зрго- дических теорем (см. § 5.4). При этом главный интерес представляет установление условий, при которых выполняется предельное соотношение lim £>η(7) = 0. (5.3.62) Т->оо То, что это не всегда так, легко понять из следующего тривиального примера. Пусть ξ (/) = X, где X — случайная величина с дисперсией, не равной нулю. Тогда из (55) имеем г\т = X и было бы неправильно утверждать, что случайная величина ητ равна Μ {Χ}. В качестве простого примера на применение формул (55) и (61) рассмотрим следующую задачу. Пусть детерминированный сигнал s (t) принимается совместно с шумом η (/), так что непосредственному наблюдению доступна только сумма (рис. 5.13) |(/) = s (0 + η (/). Для текущей оценки сигнала s (t) предлагается использовать скользящее среднее значение t sT(t)=— Г 1(τ)άτ. (5.3.63) t-T
Пусть шум η (t) является стационарным с нулевым математическим ожиданием и очень узкой корреляционной функцией Rn (τ); протяженность ее по оси τ много меньше Т. Найдем математическое ожидание sT (t), принимаемое за оценку сигнала s (t), и дисперсию этой оценки. Беря математическое ожидание от обеих частей равенства (63), имеем t {5т-(0}=— j s(T)dx. Μ к ' β Т t — T По формуле (61) находим выражение для дисперсии оценки Л m 2Dn Г ί τ \ х , 2Dn Г , , const о о Таким образом, для уменьшения дисперсии оценки нужно брать время осреднения Τ большим. Однако при большом Τ происходит сильное сглаживание (искажение) сигнала и с этой точки зрения интервал Τ желательно брать настолько малым, чтобы за время Τ сигнал существенно не изменялся. Пример 5.3.5. Корреляционные свойства приращений стационарного случайного процесса. Получим формулу для нормированной корреляционной функции между приращениями стационарного в широком смысле случайного процесса ξ (t) на примыкающих интервалах времени %г и г2 (рис. 5.14). Для упрощения записей примем Μ {ξ (t)} = 0. По определению для корреляционной функции приращений можно написать *Δξ С*. τ2) -Μ {[ξ (k+τύ-Ι (/χ)] Ц (/ι+τχ+τ2) -ξ ft+τχ)]} = =^[^ω+^(τ2)-^(τ;+τ2)-1]. (5.3.64) Воспользовавшись для дисперсий формулой (5.2.16), записываем выражение для нормированной корреляционной функции между приращениями: г% (τι) + Γ. (τ2)— г* (τι+τ2) — Ι '«(τι·τ2)= ^.-r^n^fa)])./. · (53·65) Это выражение принимает очень простой вид для.процесса с экспоненциальной корреляционной функцией вида (18): Где (τι. τ2) = -γ [(1 -β~Μ·) (l -e^)]1'2. Можно убедиться, что lim rAl(xlt τ2)= —1/2, lim гд. (τχ, τ2) =0. τι, τ2->-οο b Τι, τ2->0 * Формулы (64) и (65) показывают, что приращения стационарного в широком смысле случайного процесса всегда являются стационарными в широком смысле: их корреляционные свойства зависят не порознь от рассматриваемых моментов времени, а только от их разностей. Кстати, приведем выражение для спектральной плотности случайного процесса η (0 = 6 W ± I V - П Τ = const, получающегося на выходе схемы, изображенной на рис. 5.15. Корреляционная функция процесса η (t) равна Rn (τ) =2R% (τ) ± /?ξ (τ+Γ) ± #ξ (τ-Τ). 17 Зак. 956 513
Находим спектральную плотность оо Sn(<»)^ j" /гп(т)*-^«»г-256(ш)(1±совв)Т). (5.3.66) Вычислим нормированную корреляционную функцию между «площадями» под случайным процессом η (t) на примыкающих интервалах времени τχ = τ2 = *ο+τ *ο + 2τ % = J Л («) Λ, η2 = J x\(s) to to+X ds. (5.3.67) Рассмотрим частный случай, когда стационарный в широком смысле случайный процесс η (t) имеет нулевое математическое ожидание и корреляционную функцию (31). т. I Х yjithi %№ц(ы) Рис. 5.14. К вычислению кор- релированности приращений Рис. 5.15. Линейное устройство получения суммы или разности Выполнив по известным правилам вычисления, получим D^M {rtf}=D2=M {η*}-} f #η (s2-~Sl) dsx </s2 = о о 2Ζ>„ α*β*(β-α) [рз(е-<**_ 1+ατ)-α3(β~βτ— 1+βτ)], (5.3.68) '12 = #12 = №{%%}« #12 ^(1-е-ах)2-аз(1~е-^)2], 1 (β/α)» (1 ~е-°")2~(1 -е~^)2 1/DiDa 2 (β/α)3(θ-^_ι+ατ)-(β·~βτ—1+βτ) Из последней формулы следует, что lim ri2 = 0, lim /ί2 = 1. τ->»οο τ-Μ) В дальнейшем нас будет интересовать промежуточный случай, когда выполняются неравенства 1/β > τ > Ι/α, т. е. βτ < 1 «- ατ. (5.3.69) В этом промежуточном случав г12 а* 1/2 ατ ~ 0. (5.3.70) Применительно к конкретному примеру, для которого была получена формула (31), величину τκ = Ι/α можно трактовать как время корреляции входного процесса итс= l/β как постоянную времени линейной системы, на которую воздействует этот процесс. Тогда можно сказать, что «площади» под выходным стационарным случайным процессом на примыкающих интервалах длительностью τ, удовлетворяющей неравенствам (69), практически некоррелированы. Если же входной процесс гауссовский, то эти «площади» будут независимыми. Поэтому процесс η (t) на интервалах времени порядка τ можно рассматривать как простой марковский, заменив входной процесс эквивалентным белым шумом. 514
5.4. ЭРГОДИЧНОСТЬ И ЭКСПЕРИМЕНТАЛЬНОЕ ОПРЕДЕЛЕНИЕ ОСНОВНЫХ ХАРАКТЕРИСТИК Пусть в нашем распоряжении имеется запись выборочной функции (реализации) стационарного случайного процесса | (t) конечной длительности Г и по ней нужно получить оценки следующих основных неизвестных статистических характеристик процесса: математического ожидания /П|, ковариационной функции Κι (τ), спектральной плотности S| (ω) и одномерной функции распределения F (ξ) или плотности вероятности ρ (ξ). Здесь возможны разные комбинации, например: математическое ожидание т% заранее известно и нужно определить лишь корреляционную функцию R$ (τ) и т. д. При этом естественно стремиться к тому, чтобы получаемые оценки обладали свойствами несмещенности, состоятельности и эффективности. В § 2.1 указывалось, что определение статистических характеристик случайного процесса по его одной реализации возможно лишь для стационарных процессов, обладающих эргодическим свойством. Конкретизируем теперь условия, при выполнении которых возможно экспериментальное определение перечисленных выше характеристик стационарного процесса и приведем некоторые конкретные результаты. При оценке характеристик случайного процесса, являющихся детерминированными функциями аргумента (например, R$ (τ), S| (ω) и др.), следует различать два случая: 1) известна функциональная зависимость рассматриваемой характеристики от конечного числа определяющих ее параметров, которые неизвестны или частично известны; 2) функциональная зависимость характеристики от определяющих ее параметров и аргумента заранее неизвестна. В первом случае оценка характеристики сводится к задаче оценки неизвестных определяющих ее параметров и для ее решения применимы оптимальные методы оценки параметров, изложенные в § 4.4. Второй случай более сложный, а требования к оценке более многообразны и жестки, так как теперь они должны выполняться при разных значениях аргумента. Ограничимся рассмотрением второго случая. В инженерной практике часто применяются достаточно простые и легко реализуемые способы оценки, которые представляются естественными, но выбраны по интуиции и не имеют глубокого теоретического обоснования. Проанализируем некоторые из них. Математическое ожидание В качестве оценки (выборочного значения) математического ожидания примем среднеинтегральное значение реализации на интервале (О, Т): τ О Ясно, что пгт является случайной величиной: она будет разной для разных реализаций одного и того же стационарного процесса ξ (t) 17* 515
длительностью Т. Беря математическое ожидание от обеих частей равенства (1), убеждаемся, что оценка тт несмещенная при любом значении Т: τ M{mT} = jr^mldt = ml. (5.4.2) О Дисперсия оценки определяется формулой (5.3.61): τ D {mT} = Μ {(тт-mif) = -£- j (1 —i-) £s (τ) dx = 0 ="τ£ί(1~τ)Γξ(τ)Λ· (5·4·3) о где Г| (τ) — нормированная корреляционная функция. Если lim D {mT} ->- 0 при Т->- оо, то оценка тг будет стремиться к неслучайной величине щ. При этом оценка т^, естественно, является асимптотически эффективной и состоятельной, что непосредственно следует из неравенства Чебышева (1.3.24). Следовательно, стационарный случайный процесс \ (t) эргодичен относительно математического ожидания, т. е. τ l.i.m ± [б(ОЯ-М{6(0}=т«. (5.4.4) о если и только если выполняется условие τ lim -jrj(l—^-)/?6(τ)Λ = 0. (5.4.5) О Для проверки эргодичности стационарного в широком смысле процесса относительно математического ожидания необходимо знать корреляционную функцию процесса. Таким образом, при выполнении условия эргодичности (5) принятая нами оценка математического ожидания (1) обладает хорошими асимптотическими свойствами. Однако на практике приходится иметь дело с реализациями случайного процесса не бесконечной, а конечной длительности Т. При этом всегда желательно получить эффективную оценку при заданном Т. Кроме того, при выполнении статистической обработки на цифровых вычислительных машинах (т. е. в дискретном времени) возникает вопрос о выборе целесообразного интервала дискретизации по времени. Кратко обсудим эти два вопроса. Ограничимся классом линейных оценок и примем за оценку математического ожидания среднеинтегральное значение взвешенной реализации на интервале (О, Т) [1711: ^ т mT = $h(t)l(i)dtt (5.4.6) 516
где h (t) — некоторая детерминированная весовая функция, которую формально можно интерпретировать как импульсную характеристику линейного фильтра. Математическое ожидание оценки равно ^ τ τ Μ {тт} = f h(t) mtdt = mi f A (t) dt. о о Чтобы оценка была несмещенной, весовая функция h (t) должна удовлетворять условию τ JA(i)<#=l. (5.4.7) о Считая это условие выполненным, дисперсия оценки (6) равна 0{тг} = М{(тт~т&)2} = м{| jA(0G(0-m6)#l }== τ τ = j j A (/) A (s) Rz (t—s) dtds = о о Τ Γ—τ = 2 ^Ri(x)dx j h(t)h(t + r)dtdx. (5.4.8) Дисперсия D {тт} существенно зависит от выбора весовой функции h (t). Из всех линейных оценок вида (6) назовем оптимальной такую оценку, которая обеспечивает минимум дисперсии (8) при условии (7). Математическое решение таким образом сформулированной задачи (при известной корреляционной функции процесса) сводится к решению интегрального уравнения для весовой функции h (t) и здесь не приводится [172, 173]. Уместно отметить, что такой метод получения оптимальной линейной оценки является довольно общим и с некоторыми формальными усложнениями применим для оценки других характеристик случайного процесса. Однако принципиальный вопрос о получении эффективных оценок остается открытым, так как для некоторых характеристик более эффективными могут оказаться нелинейные оценки. Можно показать [173], что, например, для стационарного случайного процесса с экспоненциальной корреляционной функцией #δ (τ) = = D| exp (—α[τ|) оптимальной линейной оценкой математического ожидания будет ■α$δ(/)#Ί тг=2т^г(0)+|(Г)+аг(/)Л1' (5Л9) Дисперсии оценок (1) и (9) равны соответственно ^^ = 7i-(aT-l+e-n-^lL = _l—. (5.4.10) Dl («Л2 Dg 2+αΓ 517
Отсюда видно, что при большой длительности реализации D {пгт} ~. D {тт} ^ 2Л|/аГ, аТ > 1. (5.4.11) Этот и другие примеры показывают, что для практически часто встречающегося случая аТ > 1 вместо оптимальной линейной оценки математического ожидания (9) можно пользоваться более простой процедурой оценки (1). При обработке реализаций случайных процессов на цифровых вычислительных машинах определение математического ожидания и других характеристик случайного процесса производится по дискретным значениям процесса, образующим случайную последовательность. Как правило, временные отсчеты реализации берутся через равные промежутки времени Δ = ΤΙ (η— 1), где Τ — длительность реализации; η — число точек. При этом возникает задача о выборе рационального числа точек или, иначе, интервала квантования по времени Δ. Выбор большого числа η (малого Δ) требует большой памяти ЦВМ и приводит к увеличению времени обработки результатов. При малом η (большом Δ) понижается точность оценки, что особенно нежелательно при дорогостоящих или уникальных экспериментах. Не касаясь учета квантования случайной последовательности по уровням (предполагается наличие очень большого числа уровней), в качестве оценок математического ожидания последовательности, аналогичных пгт и т^, следует принять случайные величины пь = ~Я;%№*)' Я|=2!Л(*А)6(*А). р2Л(М)=1У (5А12) k — 0 k=0 \k = o J Нетрудно показать, что дисперсии этих оценок будут равны 0{шп} = Щп + ^-П^(п-к)^(кА)\, (5.4.13) 0Κ}=Ο|ϊ λ»(Μ)+ 2*2 fe(M)""2"'A(iA)n [(*+*) Δ]1. (5.4.14) Применительно к корреляционной функции R$ (τ) = D| exp (—α|τ|) эти выражения принимают вид [173] Ъ{гпп}_ 1 J, , 2 β-αΜ/*(ΐ-β-αΔΜΐ-β-*αΔ)]) Я6 η ( η (ΐ-β-αΔ)2 Γ D{mn) = l + e-aA Dl „__(„_2)e-aA Если длительность реализации велика (аГ> 1), число временных отсчетов η большое и они взяты очень часто (αΔ < 1), то предельные значения дисперсий D {mn} и D {тп} равны и совпадают с асимптотиче-, ским значением (11) при аналоговой обработке реализации. Сравнение результатов расчетов по формулам (3), (8) и (13), (14) для разных корреляционных функций может дать количественное обо- 518
Таблица 5.3 Длительности реализаций при заданных относительных дисперсиях оценки математического ожидания tw ехр (—а | τ |) ехр (—а2т2) sin (Δωτ)/Δωτ Длительность реализации аТ аТ ΔωΓ D {mT)lD^ 0,1 20 17,7 31 0,05 I 0,01 40 35,4 62. 200 177 310 снование рационального выбора числа отсчетов η (временного интервала квантования Δ) при фиксированной длине реализации Т. Для ориентировки приведем результаты для трех нормированных корреляционных функций г1 (τ) = ехР (— α М)> h (τ) = ехР (— α2χ2)> h (т) ^ sin (Δωτ)/Δωτ. (5.4,15) В табл. 5.3 указаны значения безразмерных длительностей реализаций, при которых относительная дисперсия оценки математического ожидания, определяемая формулой (3) 5 о о равна 0,1; 0,05 и 0,01. Для полученных длительностей реализаций процесса по формуле (13) были вычислены зависимости относительной дисперсии оценки математического ожидания D {mn}IDi от числа временных отсчетов (рис. 5.16). Из приведенных результатов видно; что почти во всех случаях увеличение числа отсчетов л больше 15 -г 20 не приводит к существенному уменьшению дисперсии оценки. Дисперсия При оценке дисперсии D$ стационарного случайного процесса ξ (t) длительностью Τ нужно различать два случая: 1) математическое ожидание процесса Ш| точно известно и 2) в качестве математического ожидания используется его оценка гпт (2). Без достаточного обоснования примем за оценки дисперсии при известном и неизвестном математическом ожидании процесса соответствецно выражения τ Dr = ^ili(0~m*№ (5Λ16) о 519
ж Ή Μ Ν й it Lfi(T)'Sin(uQT)/a(ov 1 1 \v l\ ι ι ι ι 1 1 К 2 3 5 10 20 30 5070100 200 (ΆΤ.ΑωΤ 12 16 20 2Ь 28 Π Рис. 5.17. Зависимость относительной дисперсии оценки дисперсии от длительности реализации Рис. 5.16. Зависимость относительной дисперсии оценки математического ожидания от числа временных отсчетов at. (5.4.17) Беря математическое ожидание от обеих частей равенства (16), имеем г M{DT} = Y§M{lUt)-ml?}dt = Db (5.4.18) О т. е. оценка несмещенная при любом значении Т. Дисперсия оценки равна τ τ D{DT) = M{(DT-Dtf}=^L ^ jMilKO-mg]* χ о о XlS(s)—m$)dtd&—Df. Применительно к гауссовскому стационарному процессу ξ (t) стоящая под интегралом двумерная центральная моментная функция дается выражением (2.5.17'). Подставив ее, получим 520
τ τ λ Λ / Я- \ DPr} = ^-JJ/?|(i-s)*iis=±J(l—ί-)/?{(τ), 0 0 0 4D| ? / τ \ β-?ι"ί(,~τ)'|(τ)Λ· (5Α19) ο Отсюда видно, что гауссовский стационарный процесс эргодичен относительно дисперсии, т. е. τ U.m.-L f [6(0-т*рЯ = Яь (5.4.20) о если и только если выполняется условие τ Hm^-J(l—1-)/?ί(τ)Λ-0. (5.4.21) о Это условие выполняется, если функция xR\ (τ) абсолютно интегрируема на интервале (0, оо). При этом для больших Τ дисперсия оценки (19) приближенно равна τ τ D {DT} ~ -1 j д| (χ) dT = i£L j , j (τ) dx. (5.4.22) 0 0 Итак, оценка дисперсии гауссовского стационарного случайного процесса по формуле (16) при выполнении условия (21) является несмещенной при любом Τ и асимптотически (при Т-^оо) состоятельной и эффективной. Не всеми из этих свойств обладает оценка (17), в частности, она оказывается смещенной. Действительно, запишем выражение для Dt иначе: τ τ D} = γ^\m-Щ-(nгτ-ml)]Чt^jг^ll(t)-ml]Чt + о о τ + (mr-W|)2-2(mr-mg)yj[5(0-mg]d/ = о τ = Τ ί[ξ Ο—meP dt-(mT-mtf. о Беря математическое ожидание от обеих частей этого равенства, имеем Μ {Df} = Dt + D {mT}f (5.4.23) где D {mT} дается формулой (З). Таким образом, оценка дисперсии при неизвестном математическом ожидании по формуле (17) при ко- 521
нечной длительности реализации смещенная. Она будет асимптотически несмещенной при выполнении условия (5). В случае оценки дисперсии (при известном математическом ожидании) по временным отсчетам, взятым из реализации через'одинаковый интервал времени Δ, вместо (16) следует пользоваться формулой Ai = ^2K(M)-msP. (5.4.24) fc=0 Ш а) Ь 0,6 0,1 0,2 \ V τ) -е -«ιτι сг7 '-20, 40 200, т 9 пвд 0,8 0,6 д) Oft 0,2 δ 6 9 12 15 21 24 27 η π Α(ύΓ-31 31(j\ ^jhtefl ^Γ \ 6 9 12 15 21 24 27 η Λ [ ν \ ρξ frj-fi -**t 2 177 д5>\ j*r-Ws \ Рис. 5.18. Зависимость относительной дисперсии оценки дисперсии от числа временных отсчетов О 3 6 9 12 15 18 21 24 27 η Дисперсия такой оценки вместо выражения (19) определяется формулой (5.4.25) На рис. 5.17 приведены кривые, рассчитанные по формуле (19) для трех корреляционных функций (15), а на рис. 5Л8 — аналогичные кривые, рассчитанные по формуле (25) для разных длительностей реализаций, указанных в табл. 5.3. На основании этих результатов можно заключить, что во всех случаях увеличение числа отсчетов η больше 20 не приводит к существенному уменьшению дисперсии оценки. 522
Функция распределения и плотность вероятностей Рассмотрим эргодичность стационарного случайного процесса I (/) относительно функции распределения вероятностей F (ху= Ρ {ξ (t) < χ}. Предполагается, что величина χ является произвольной, но фиксированной. Х+Ах/2\ Χ-ΔΧ/2 Рис. 5.19. К определению функции распределения и плотности вероятности Введем случайный процесс η (t) (рис. 5.19, α) ΙΟ при £(*)>*. Математическое ожидание и ковариационная функция процесса r\ (t) по определению равны тч = Μ {η(ί)} = Ι.Ρ {ξ (t) < *} + 0·Ρ {l(t) > χ} = F(x)9 (5.4.26) ^η (τ) = Μ {η (<) τ) (/ + τ)} = Ρ {ξ (f) < χ, ξ (* + τ) < χ) = = F (*, χ; τ), (5.4.27) где F (χ1% Χ£ t) — двумерная функция распределения вероятностей процесса ξ (/). За оценку функции распределения вероятностей примем величину Άτι (5.4.28) 523
Очевидно, что τ Μ Ы = -ψ j" Μ {η (t)} dt = mn = F {x), (5.4.29) О т. е. оценка (28) функции распределения вероятностей несмещенная при любом значении Т. Для дисперсии оценки согласно формуле (5.3.61) можем написать τ 0Ы=тЯ1-т)1Кч(т)~^Ыт= о τ =t${1~t)IF{x' x; τ)-ρ(*)ΐΛ· (5·4·30) о Следовательно, при заданном χ τ l.i.m—Γη (/)<# =/?(*), (5.4.31) Г->оо Τ J если и только если τ Hrn-i- ^l-j^lF (χ, χ; т)-Я(х)]Л = 0. (5.4.32) о Это условие будет выполнено, если lim F (χ, χ; τ) = Ζ72 (χ). Таким об- τ-*οο разом, достаточное условие эргодичности стационарного процесса £ (/) относительно функции распределения вероятностей состоит в независимости значений процесса | (/) и ξ (ί + τ) при достаточно больших τ. Заметим, что случайная величина у\т представляет собой относительное время пребывания процесса | (/) ниже уровня ξ (/) = χ (см. рис. 5.19, б). Обозначим через tt интервалы времени, на которых | (t) < χ. Тогда условие эргодичности будет выполнено, если для достаточно больших Τ справедливо равенство Пг = (*ι + U + ... + ЬУТ ~ F (χ). (5.4.33) Вычисление дисперсии функции распределения вероятностей по формуле (30) для конечных Τ предполагает предварительное нахождение корреляционной функции /?η (τ) = /Сц (τ) — m\ для процесса η (/). На основании формулы (3.4.23) для гауссовского стационарного процесса \ (t) с нулевым математическим ожиданием и корреляционной функцией Ri (τ) = Dg rs (т) получим где ας =ρ "|/Ζ)δ; Ф<п> (s) — n-я производная от интеграла вероятности. Подстановка этого выражения в (30) при конкретно заданной корре 524 2 rg(t) п\ (5.4.34)
ляционной функции /?ξ (τ) позволяет получить выражение для дисперсии оценки в виде бесконечного ряда, по которому можно выполнить количественные расчеты. Получив оценку функции распределения вероятностей, можно через нее найти оценку плотности вероятности. Однако можно сразу интересоваться оценкой плотности вероятности р(х) без промежуточного определения функции распределения F(x). За оценку вероятности χ+Δχ/2 Ρ {χ—Δχ/2 < ξ (ή < χ + Αχ/2} = ( ρ (u) du (5.4.35) χ—Αχ/2 того, что значения случайного процесса находятся в интервале от χ — (Ах/2) до χ + (Δ*/2), примем случайную величину ' 1, χ—Δ*/2 <£(/)< л;+Δ*/2, О * В качестве оценки самой плотности вероятности ρ (χ) возьмем случайную величину Рт {х) = Pr^ = _±_ | Άχ {t) dtt (5.4.37) О где величина Ах достаточно мала. В дальнейшем будем предполагать, что истинная плотность вероятности ρ (χ) есть непрерывная и плавно изменяющаяся функция аргумента. Заметим, что случайная величина Рт (х, Ах) представляет собой относительное время пребывания реализации процесса ξ (t) в окне 1х — Αχ/2, * + Δ*/2]: PT(x,Ax) = -L^r]x(t)dt, η*(/) = { О при других £(/). (5.4.36) PT(xfAx)^jr^Ath = TjTt k=l где Тх = 2 А*ь> &h — отрезок времени, в течение которого значения k реализации процесса находятся внутри указанного окна (рис. 5.19, б). При этом оценка плотности вероятности принимает вид Рт (х) = TJTAx. Математическое ожидание оценки (37) равно τ τ χ-\ 2 ^X+'T~}dt^~L· f PMdu· (5.138) Δ* 2 525
Убедимся, что оценка рт (х) смещенная (рис. 5.20). Для этого разложим илотнопъ. pepQHjHQcra ρ (и) в ряд Тейлора в окрестности точки χ и ограничимся первыми тремя членами разложения: р(и)~р (х) + р' (х) (и — х)+ р° (х) (и — xf/2. Подставив это разложение в (38), получим приближенное выражение для смещения оценки Δρ (χ) = Μ {ρτ (χ)} — ρ(χ)~ (Δ%2/24) ρ" (χ). (5.4.39) Рис. 5.20. Иллюстрация смещенности оценки плотности вероятности Выражение для дисперсии рассматриваемой оценки при фиксированных значениях χ и Ах имеет вид ИРгМН-^М Ц-j [η« (0-М (Ч. (О}]*! - ΓΔ*« Я1 "И*- (τ) ά%> (5.4.40) где /?η (τ) — корреляционная функция процесса r\x(t). Это выражение позволяет сформулировать условие эргодичности процесса ξ (/) относительно плотности вероятности. Из (39) и (40) следует, что при фиксированной длительности Τ и одинаковых значениях других характеристик случайного процесса увеличение ширины окна Ах приводит к возрастанию смещения оценки. Применим полученные соотношения к гауссовскому стационарному процессу^ (ί), имеющему нормальную плотность вероятности ρ (χ) = (2πσ|)~1/2 exp [—(χ—m% )2/2σ|]. Из (39) получаем приближенное выражение для нормированной ошибки смещения ΔΡ (χ) Ρ Μ М(^)'->] Αχ (5.4.39') Л J J \ υΙ ' Видно, что смещение оценки нормальной плотности вероятности равно нулю в точках** = ms ± σξ, являющихся точками перегиба нормальной плотности вероятности. По мере отклонения от этих точек смещение оценки при фиксированном значении Ах возрастает. 526
χ Написанное приближенное выражение для смещения оценки справедливо лишь при малых Ах. Точное выражение для смещения оценки, справедливое при любых Ах, получается в результате подстановки нормальной плотности вероятности в (38) и имеет вид Δρ (χ) _ VW Гф / *-"*ξ -Δ*/2 \ ф /х-т1 +ΔΧ/2 р(х) Ax/θξ [ \ ог ) \ σδ X ехр [—(χ—η%ι )2/2σ|]—1, (5.4.39') где Φ (л:) — интеграл вероятности (1.4.5). Применение (3.4.23) к нелинейному преобразованию (36) позволяет получить выражение для корреляционной функции процесса х\х (t): ^W- Σ И ('-"if**'* j-φθ (*-4~A**\Jj№ m (5.4.41) Для заданной корреляционной функции #δ (τ) подстановка (41) в (40) позволяет получить выражение для дисперсии оценки нормальной плотности вероятности в виде бесконечного ряда. С помощью последующих количественных расчетов по формулам (39') и (40) можно ^решать разнообразные задачи по выбору оптимальной ширины окна Ах (минимизация полной средней квадратичной погрешности, минимизация смещения при заданной дисперсии и др.). Корреляционная функция При оценке корреляционной функции, как и при оценке дисперсии, возможны два случая: математическое ожидание процесса т^ известно или неизвестно. Предположим сначала, что математическое ожидание известно. В качестве оценки корреляционной функции на практике часто применяют два выражения: г—It I #г(т) = у j M0U' + M)#,Q<M<7\ (5.4.42) о Т-\Х\ *Γ(τ)β7^ΪΓ ί Μ0Μ< + Μ)Λ,0<|τ|<7\ (5.4.43) о где ξ0 (0 = I (t) — Щ — центрированная реализация процесса. Введенные оценки в литературе часто называют выборочными или кратковременными корреляционными функциями. По известным правилам находим математические ожидания оценок (42) и (43): Μ{/Μτ)Η^Ύ4(0^ 1 Τ J \ О, , |τ|>Γ, (5.4.44) 527
M{Rt(x)) 1 Γ-|τ| Τ~\τ\ Γ*»«-{*»< /?ξ(τ),0<|τ|<7\ |τ|>7\ (5.4.45) Видно, что Rt (τ) является несмещенной оценкой корреляционной функции /?ξ (τ), в то время как Rt (τ) только асимптотически несмещенная оценка при Τ -> <х>. Однако смещенная оценка (42) имеет меньшую полную среднюю квадратическую ошибку (см. рис. 5.22). Вычислим дисперсию оценки (42): Т-% */ -[Τ-τ) О T-V It Рис. 5.21. Области интегрирования D {RT(τ)} = Μ {[RT(τ)-Μ {Rt(τ)}]2} = !T—τ Τ—χ Τ—τ Τ—τ -R% (τ)] dt, da = Ij j J [Μ {Ιο (^ |0 & + τ) |0 (/2) ξ0 (ί, + τ)} - J 0 0 —R\ (τ)] dtx dt2. Дальнейшая конкретизация этого выражения возможна лишь для частных видов стационарных случайных процессов, для которых известно выражение четырехмерной центральной моментной функции четвертого порядка. В частности, для гауссовских стационарных процессов согласно выражению (2.5.22) можно написать Г—τ Τ—χ В{Яг(т)} = -^ j j [RUt»-td + Rt(U-ti+r) X о о X Ri (h—ti—τ)] dt± dt2. Если здесь перейти к новым переменным / = t2 — tlt s = t± (рис. 5.21) и выполнить интегрирование по s, то получим 528
и D<*r (*» = -£; J №(t) + Rt(t + r)Rt(t~v)]dtx Γ—τ Γ—τ Γ—τ—* Χ f ds+-L j [/?|(/) + ^|(/ + т)^(/_.т)]Л j ώ = — * О О Γ-τ = γ j (l - JL^LL) [*f (0 + Я* (** + *) /?i (/-τ)] Λ. (5.4.46) -(Γ-τ) Учитывая смещение оценки (44), полная средняя квадратическая ошибка смещенной оценки Rt (τ) будет определяться формулой Μ {lRT(x)-Rt (τ)]2} - D {tfr(τ)} + (τ/Γ)2 Д£ (τ). (5.4.47) Для несмещенной оценки Rt (τ) результат, аналогичный (46), выглядит так: г—τ Γ(ΐ+Γ-2|τ|·) _(iJ_t)V Γ / Χ [«Ι (0 + /?ξ (* + τ) /?ξ (/—τ)] Λ. (5.4.48) При очень больших Т и конечных τ вместо точных формул (46) и (48) можно пользоваться приближенным асимптотическим выражением оо 0{/?г(т)}^0{Лг(т)} = -1- j [/?|(0 + /?t(< + t)«ft(/-T)J Л. (5.4.49) Из формул (44), (45) и (49) следует, что при больших Τ математические ожидания оценок RT (τ) и Rt (τ) равны истинной корреляционной функции #ξ (τ), а их дисперсии пропорциональны 1/7\ Следовательно, если подынтегральные выражения в (46) и (48) являются абсолютно интегрируемыми функциями в интервале (— оо, оо), то рассматриваемые две оценки являются асимптотически состоятельными, а процесс ξ (/) эргодическим относительно корреляционной функции. При выполнении этого условия корреляционную функцию R% (τ) можно оценить с произвольно малой ошибкой по единственной достаточно длинной реализации стационарного процесса. Применительно к гауссовскому стационарному процессу с корреляционными функциями Rt W = Dl exp (- α | τ|), Rl (τ) = Ог ехр (- β*τ2) 529
вычисления по формуле (46) приводят к следующим результатам: ί 2ε-λ<»-*> + λ (1 —х)— 1 +ε~λ* [λ (1 — 2х) — — 1 +λ2 χ (l — А дЛ1 , ο < χ < 1/2, χ (1— χ2), 1/2 < д; < 1, D{Rr(T)}--jf- -λχ Χ где λ = 2αΤ, χ = τ/Τ; D{RT(r)} = 2D2 ( χ [φ (УГх (ΐ -χ))--f ]+γ (ε-λ* (,-*)* - 0}. где λ = |/2 βΤ; λ: = τ/Τ; Φ (χ) — интеграл вероятности. Аналогичный результат для несмещенных оценок RT (τ) получается заменой в этих выражениях перед скобками Τ на Τ — τ, т. е. λ на λ (1 — χ). Результаты расчетов дисперсий оценок для λ = 5 в зависимости от τ представлены на рис. 5.22. Там же для экспоненциальной корреляционной функции изображена штриховая кривая полной среднеквадра- тической погрешности (47). Видно, что полная средняя квадратическая ошибка смещенной оценки всюду меньше дисперсии несмещенной оценки. При τ = 0 они совпадают, а при τ-> Τ дисперсия смещенной оценки стремится к нулю, в то время как дисперсия несмещенной оценки стремится к бесконечности. Это свойство несмещенной оценки Rt (Ό делает ее неудобной. Если за оценку взаимной корреляционной функции двух стационарно связанных процессов ξ0 (t) и η0 (/ + τ) принять выражение г—τ *«п Μ = jr j So (0 Ло if + τ) dt, (5.4.50) то дисперсия такой оценки в случае совместно гауссовских процессов ίο (*ι) и η о (t%) будет определяться формулой Г—τ D {Я7|η (τ)} = jr j (l - JLS^L) Wl (О *ч W + -<Г-т) + Rl^(t+r)R^(t-x)]dt. (5.4.51) До сих пор рассматривался случай, когда математическое ожидание процесса т^ точно известно. Если математическое ожидание заранее неизвестно и его оценка производится по формуле (1), то в полученные формулы нужно ввести исправления. Теперь за оценку корреляционной функции вместо (42) целесообразно принять выражение 530
Рис. 5.22. Относительные дисперсии смещенных и несмещенных оценок корреляционной функции: DI е~а Ι χ Ι, 2αΓ=5; D| β-β2τ2,/2"βΓ=5 1,0 0,8 0,6 DA 0,2 \г I L_ /Ι / ^/ Ώ$ο%(τ)} Я^ dPILRtM-rmi2} 1 ^Г—*-.-! 0,2 #0,4 o,6 0,8 χ=τ/τ Γ-|τ| #·(τ) = -±- j* [l(t)—mT]il(t + t)-mT]dt9 (5.4.52) о где mT определено формулой (1). Запишем это выражеение иначе: Τ-\τ\ Rr(r) = jr J [l(t)-ml-(mT-ml)][l(t + r)-ml- о Г—|т| -(mT-m$]dt-=± J l6(0-m6][g(i+T)-inj£tt+(l-JlL)x о at. Если для сравнительно небольших τ можно приближенно принять Г т—\х\ τ—\\χ\ \ Jj ijo л « ^ J [i (t+xZdt ~(ι - JiL) mr, то предыдущее выражение упрощается: #г>) = ^)-(* - ^) C*r -** )2.5 (5.4.53) Отсюда с учетом формулы 7(44) следует, что Μ {^WHf1 - ^) *6 W-(l - -^)0{тг}, (5.4.54) где D {/П7} определено ^формулой (3). Следовательно, центрирование реализации при помощи выборочного среднего значения дополнительно увеличивает смещение оценки корреляционной функции. 531
При оценке корреляционной функции по временным отсчетам £ь 1г> ···» %п вместо (42) нужно пользоваться выражением я /-ι * /-ι (5.4.55) Приближенное выражение дисперсии такой оценки равно D{Rt(k)}&± Σ [RiW + RiU + QRtU-k)]· (5.4.56) Спектральная плотность [22, 173—183] Хотя согласно формулам Винера—Хинчина корреляционная функция и спектральная плотность содержат одинаковую информацию о стационарном случайном процессе, сложность их экспериментального определения оказывается разной. Для низкочастотных случайных процессов, как правило, практически легче создать коррелометры, позволяющие измерить корреляционную функцию. Однако в радиотехнических приложениях часто приходится иметь дело с высокочастотными флуктуационными токами и напряжениями. При разработке коррелометров для подобных процессов возникают практические затруднения, связанные с получением большого числа фиксированных временнйх задержек τ при небольших разностях Δτ между ними. В таких случаях предпочтительнее измерять при помощи спектроанализаторов спектральную плотность случайного процесса, по которой можно однозначно определить корреляционную функцию. Рассмотрим кратко проблему экспериментальной оценки спектральной плотности Si (ω) по единственной усеченной реализации стационарного случайного процесса длительностью 7\ При этом будем полагать математическое ожидание процесса равным нулю и спектральную плотность S | (ω) непрерывной и плавно изменяющейся функцией частоты. ЙН Представляется естественным следующий способ оценки спектральной плотности. Для реализации случайного процесса длительностью Τ (с интегрируемым квадратом) всегда можно записать пару преобразований Фурье: t=00 τ τ τ Ft (j ω) = j Ιο (Ο e-,e>< at = J % (i) cos ω tdt—j j % (t) sin <otdt. (5.4.57) 532
Если под ξ0 (0 понимать флюктуационный ток или напряжение, то средняя мощность, выделяемая на единичном сопротивлении потерь, равна τ τ χΛω = ЫГ oo / 00 OO где Г 7 Sr((o) = jr j j io (0 io (5) e-ί·»-) tfA = -i- \FT(]co)f = r о о τ ι ξ0 (ί) cos totdt + - go(/)sinarfd/ . (5.4.58) Введенную функцию Sr (ω) в литературе называют по-разному: выборочная спектральная плотность, периодограмма и др. Она дает разложение по частоте мощности реализации процесса длительностью Т. Отметим, что первое равенство в (58) можно представить в более привычном виде. Для этого в двойном интеграле сделаем замену переменных τ = t — s, f = s. Тогда τ τ τ Sr((o) = —Γ Γ ξ (Ο S (s) e-i» ί'-·> ΛΛ = Γ e-J·* dr X 0 0 Ο Τ—χ Ο Τ Χγ J l(t')t(t' + r)dt'+ J e-***<hy |*(Οξ(<' + τ)Λ' = О „-Т s ~Х Τ Τ —Χ 0 Ο Ο τ+χ + Je-j«rdT-i- J |(/")ξ(/"-τ)Λ" — Γ или иначе χ ST (ω)« J #г (τ) e~ Jωτ Λ, — oo < ω < oo, (5.4.59) 533
где Rt (τ) — выборочная корреляционная функция (42). Из обратного преобразования Фурье имеем оо RT (τ) = _L С sT (ω) esωτ d®, — Τ < τ < Τ. (5.4.60) Таким образом, выборочная спектральная плотность и выборочная корреляционная функция связаны взаимными преобразованиями Фурье. По аналогии с предыдущим казалось бы, что предельное значение выборочной спектральной плотности St (ω) при Τ -> оо можно принять за оценку истинной спектральной плотности Sg (ω). Однако в общем случае (в частности, для гауссовских процессов) применение такой процедуры не оправдано, так как St (ω) ни в каком вероятностном смысле не сходится к предельному значению. Функция St (ω) при каждой частоте сильно колеблется от одной реализации процесса к другой, обусловливая неприемлемую дисперсию оценки. Для уменьшения дисперсии необходимо применять сглаживание оценки. Существуют два способа сглаживания: по ансамблю'и по частоте. Им соответствуют два способа экспериментального определения спектральной плотности. Вначале убедимся, что сама выборочная спектральная плотность (периодограмма) (58) не может быть принята за определение истинной спектральной плотности. Для этого вычислим математическое ожидание и дисперсию случайной функции ST (ω). Согласно (58) имеем τ τ Μ {ST (ω)} = — Γ Γ fy (t—s) e-i« «-·> dtds. о о Перейдем от s к новой переменной τ = t — s. Получим τ τ ο r+τ Μ (Sr(co)} *= — Γ Γ Rt (τ) e-l™dtd% +.— Γ Γ £ξ (τ) e-№dtdx = ο τ **-τ ο τ ο = ± f (T-T)Rl(x)e-l«*<k + ± Γ (r + x)*6(T)e-J«A = 0 — 7 Τ · οο = f (l —-^r-)^We-^dT= f £r(x)e-J««A, (5.4.61) —г где Rt(t) = w(t)R1(x), -<И1-1Т|Т"М<Г' (5.4.62) I 0, |τ|>Γ. V ' Из (61) следует, что если •J |τ|#&(τ)ίίτ<οο, (5.4.63) 534
то оо limM{Sr(<»)} = f Ri(x)e-i^dT = Si(a>). *— оо Следовательно, асимптотически несмещенная оценка спектральной плотности дается формулой St (ω) = lim -L Ш <| FT(Jg>) |2}. (5.4.64) 7->oo 1 Эту формулу часто принимают за исходное определение спектральной плотности. При практическом определении спектральной плотности по реализации случайного процесса конечной длительности Τ за оценку следует принять допредельную формулу (61). По существу она дает первый способ экспериментального определения спектральной плотности. Определение спектральной плотности согласно формуле (61) предписывает следующую процедуру. Располагаемая длительность реализации случайного процесса Τ делится на η отрезков одинаковой длины θ = = Tin (организуется ансамбль из η реализаций). Для каждого отрезка вычисляется величина Τ"1 ψ τ (jco)|2, а затем на каждой частоте производится осреднение этой величины по разным отрезкам (по ансамблю η реализаций). Пока остается открытым вопрос о выборе целесообразного числа отрезков η и, следовательно, длительности θ отдельного отрезка. Соображения по этому поводу будут приведены ниже. Вычислим дисперсию выборочной спектральной плотности St (ω) для гауссовских стационарных процессов. По определению имеем D {ST (ω)} = Μ {S2T (ω)} - [Μ {ST (ω)}]2, где согласно (58) τ τ τ τ "ФИН-^ЯЯ M(io(0io(s)io(»)Mo)> x 0 0 0 0 Χ e-J°> 0-β+ΐί-ι» dtdsduch, a Μ {St (ω)} дается формулой (61). Воспользовавшись выражением (2.5.22) четырехмерной центральной моментной функции четвертого порядка гауссовского процесса через корреляционную функцию Μ {ξ0 it) ξ0 (s) ξ0 (и) Ιο Ш = Ri(t- s) #ξ (u-o) + + Rs(t— и) tfg (s — v) + #ξ (t — ν) tfξ (s — м), можно написать τ τ τ τ Μ {Sr(<o)} = -^ j J ^ [Я6 (t-s) *δ·(«-") + *ξ (t-u) tf6 (s-v) + 0 0 0 0 + Rl if—ό) Ri (s—u)] exp [—jco (t—s + u—v)] dtdsdudv = 535
= 2 [Μ {Sr («>)}]? + ■ 7^ ττ Γ Γ/?!(/—ti)e~i<»«+uy>dtdu о 6 Следовательно, 0{5Γ(ω)} = [Μ{5Γ(ω)}]2+^ Τ Τ f f Λξ (<—tt) e-J» «+«> d/dtt о о >[M{Sr(CD)}]2. (5.4.65) Можно показать, что если J |#ξ (τ)|ίίτ<οο, то второе слагаемое в правой части написанного равенства стремится к нулю при Т-> оо. Поэтому lim D{ST (ω)} = lim [M {ST (ω)}]2 = S| (ω). Для гауссовского стационарного процесса ξ (ί) с нулевым математическим ожиданием периодограмма ST (ω) согласно (58) представляет собой сумму квадратов двух независимых гауссовских случайных величин с нулевыми математическими ожиданиями и одинаковыми дисперсиями. Поэтому St (ω) имеет х2-распределение с двумя степенями свободы. Таким образом, сама выборочная спектральная плотность ST (ω) не является состоятельной и эффективной оценкой истинной спектральной плотности, поскольку дисперсия D{St (ω)} не меньше квадрата математического ожидания даже при Т-*оо. Иначе говоря, St (ω) является примером выборочной функции, для которой эргодическое свойство не имеет места, если даже для выборочной корреляционной функции оно справедливо. Оказывается, этот,результат имеет общий характер. Если имеется состоятельная оценка некоторой статистической характеристики, то ее преобразование Фурье не является состоятельной оценкой для преобразования Фурье этой характеристики. Итак, в качестве оценки спектральной плотности можно принять математическое ожидание выборочного спектра (61): Μ 1 1 {Sr(<»)}= f #Γ(τ)ε-*ωτ6ίτ= f w(τ) /?ξ (т)е-*»* dx. (5.4.66) *-т ~-т Оценка (66) представляет собой преобразование Фурье от произведения корреляционной функции R% (τ) и функции w (τ). По существу это означает, что исходная реализация случайного процесса i0 (t) умножается на финитную функцию времени / (t) длительностью Τ (применительно к (62) — на прямоугольный импульс единичной высоты), причем w (τ) есть свертка функций / (t) и / (t + τ). Подставив в (66) выражение (2.3.33) корреляционной функции через спектральную плотность, получим 536
oo Μ {ST (ω)} = — f W (ν) S| (ω—ν) dv, (5.4.67) где и, наоборот, Ψ(ω) = (ω)= j w(x)e-i*xdv (5.4.68) oo ш(т) = — Г W (ω) εΐωτ do>. (5.4.69) Для конкретной функции (62) имеем W (ω) = Г (ωΤ/2)-2 sin2 (ωΤ/2), т. е. oo Μ {ST(<»)} = -L- j Γ (£!^?)2SI (ω-ν) dv, (5.4.70) — oo Эта формула показывает, что математическое ожидание выборочной спектральной плотности соответствует как бы просматриванию истинной спектральной плотности Sg (ω) через спектральное окно Що>). Поэтому в литературе принято называть функцию Ψ(ω) спектральным окном9 a w(x) — корреляционным окном. Грубо говоря, спектральное окно действует как узкая щель шириной 2π/Τ, так что при достаточно больших Τ окно становится очень узким и стремится к дельта- функции. Естественно считать плавно изменяющуюся спектральную плотность Ss((d) приближенно постоянной внутри этой узкой щели. При этом 00 Μ {ST (ω)} « S£ (ω) -L j Τ ( Ш^ )' dv - Sg (ω). (5.4.71) — oo Как указывалось выше, фактическое выполнение операции математического ожидания (осреднения по ансамблю) в (66) можно осуществить следующим образом. Запись реализации процесса длительностью Τ разделим на η одинаковых отрезков длиной θ = Tin. Для каждого отрезка в соответствии с формулой (59) найдем выборочную спектральную плотность θ . S<*>(«>)= f RW(x)e-l™dx, £=1,2,..., η, Λ а затем определим сглаженную выборочную спектральную плотность η θ _ ST (ω) = — Σ S£*> (ω) = f Rt (τ) e-Jωτ dx. (5.4.72) 537
Здесь RT (τ) — сглаженная выборочная корреляционная функция: £θ-τ *=1 (/г—1) θ а для τ< 0 эта функция определяется согласно (42). Математические ожидания таким образом определенных сглаженных выборочных характеристик равны Μ{7Μτ)} = (ΐ--^) «s (τ), M{Sr (ω)} = JL J θ [^^J * (ω-ν) dv. (5.4.73) — oo Следовательно, при разделении реализации длиной Τ на η частей каждая длиной θ = Tin математическое ожидание сглаженной выборочной спектральной плотности (72) эквивалентно сглаживанию истинной спектральной плотности с помощью спектрального окна ψ (ω) = θ (ωθ/2)-2 sin2 (ωθ/2), (5.4.74) которому соответствует корреляционное окно 1 0,|τ|>θ. Спектральное окно (74) имеет ширину основного" лепестка 2π/θ (рис. 5.23), которая определяется выбранной длиной отрезка θ или, иначе, числом отрезков п. Описанный способ сглаживания, принадлежащий Бартлетту, наводит на мысль: нельзя ли получить сглаженную оценку St(g>) за счет надлежащего выбора окна. Иначе говоря, попытаемся подбором корреляционного (и соответственно спектрального) окна выполнить равенство (72): ST (ω) = J w (τ) Яг (τ) е-lωτ dx = j RT (τ) e_J m dx, (5.4.76) — oo —oo где RT (τ) — выборочная корреляционная функция (42). При этом потребуем, чтобы окна удовлетворяли следующим условиям: w (0) = 1; w (τ) = w (— τ); w (τ) = Ο, |τ| > θ, θ < Τ; (5.4.77) 2π οο Γ W (ω) άω = 1; W (ω) = W (—ω); ширина W (ω) ~ 2π/θ. (5.4.78) Можно предложить много функций, удовлетворяющих этим условиям [181—183]. Наиболее распространенные окна приведены в табл. 5.4 и изображены на рис. 5.24. 538
ΙΟ СО sr к χο се Η 3 φ Q β a, о s О) 3 ω о с s CD <£> Φ Φ I CD tf Φ 3 φ 3 I J4 a, ω 3 φ φ ю Φ φ ч л £ + φ 3 φ , 3 φ 3 κ & 2 ο" СЛ φ φ to 8 о <о о + s* φ з φ 3 оо Φι 3 к Χ l·3 φ ^> Φ φ со φ 3 ΦΙ col φ 3 * 539
Чтобы убедиться в возможности записи первого равенства (76) и конкретизировать требования к окну, необходимо рассмотреть_стати- стические характеристики сглаженной спектральной плотности St (ω), принимаемой за оценку истинной спектральной плотности S§ (ω). Подставив в (76) выражение для корреляционного окна (69) и учи-" тывая формулу (59), получим St оо W(v)ST(<u—v)dv. (5.4.79) Рис. 5.23. Спектральное окно ~6Я-4Я-2% 0 2% Ь% 6πωθ Беря математическое ожидание от обеих частей, имеем M{Sr(a>)} = — Г W(v)PA{ST((i>~v)}dv. (5.4.80) 1— оо ^Формулы (70) и (71) показывают, что при больших Τ справедливо приближенное равенство Μ {St (со)} ^ S| (ω). Поэтому оо Μ [ST (ω)} ~ — f W (v) S| (ω—ν) dv. (5.4.81) *— оо Очевидно, что это приближенное равенство при W (ν) ->- δ (ν) становится точным. Чем шире спектральное окно, тем больше будет отличаться Μ {St (ω)} от истинного значения спектральной плотности Si (ω). Смещение оценки можно приближенно характеризовать величиной 00 Δ (ω) = Μ [ST (ω)}—S| (ω) ~ — Γ W (ν) St (ω—ν) dv—St (ω). *— 00 (5.4.82) Допустим, что спектральную плотность Sg (ω) можно дважды дифференцировать по ω. Имея в виду, что окно является узким, воспользуемся разложением δξ (ω — ν) ~ δξ (ω) — Si (ω) ν + S£ (ω) (ν2/2), 540
где штрихами обозначены производные по частоте ω. Тогда с учетом свойств спектрального окна (78) для смещения оценки получим Δ (ω) ~ /CAS| (ω), (5.4.83) где коэффициент 4π J (5.4.84) характеризует величину смещения оценки. Он не зависит от характера спектральной плотности и полностью определяется выбранным окном. WB((0) о I ^учу\/ Vl/X/NL 0 1% ωθ А к Wj((u) А J- \ \~ 0 % ωθ л tv. 1,08θ, о π ωθ л к WP(w) у С л \ V. ) 4πωβ -θ 0 θτ -θ ο θτ -θ ο βτ -θ ο θ τ Рис. 5.24. Типовые спектральные и корреляционные окна Можно показать [174, 182], что при больших Τ для дисперсии оценки справедливо соотношение (по крайней мере для гауссовских процессов) D{Sr(co)} - {Ко IT) SI (ω), (5.4.85) где коэффициент оо оо KD= f ΌΐΡ(τ)άτ = — Γ W*(<u)do>, (5.4.86) — оо — оо характеризующий величину дисперсии оценки, не зависит от оцениваемого спектра и полностью определяется окном. Введем дополнительно величину Iw & lim W (ω), (5.4.87) которая характеризует ослабление спектрального окна при больших частотах. Значения /Сд> Kd и Ιψ для четырех наиболее распространенных окон приведены в табл. 5.4. Из формул (83)—(86) следует, что для уменьшения смещения оценки необходимо брать узкое спектральное окно (большое Θ), а для уменьшения дисперсии оценки — широкое окно (малое Θ). Эти требования противоречивы. Задачу выбора оптимального окна можно сформули- 541
ровать по-разному: можно стремиться минимизировать смещение оценки при заданном значении дисперсии или наоборот, а также можно для заданной спектральной плотности 5| (ω) определять окно, минимизирующее полную среднюю квадратическую ошибку оценки. В качестве итога можно рекомендовать три возможные процедуры определения оценки неизвестной спектральной плотности 5^(ω) стационарного случайного процесса по единственной реализации процесса длительностью Т. 1. Согласно (58) вычисляется выборочная спектральная плотность ι т fSo(0 β-,ωίΛ|, (5.4.88) St(*)~y а затем по формуле (79) находится ее свертка с заранее подобранным спектральным окном Ща>). Получающаяся сглаженная выборочная спектральная плотность оо 5Г (<») = — Г W(v)ST(o>—v)dv (5.4.89) 2π J принимается за оценку неизвестной спектральной плотности S| (ω). 2. По формуле (42) находится выборочная корреляционная функция г—ι τι Rt{x)ssT J М0М' + М)Я.М<Г, (5.4.90) о а затем согласно (76) определяется сглаженная выборочная спектральная плотность _ - Г ST (ω) = f w (τ) RT (τ) e~Jωτ dx9 (5.4.91) где w (τ) — выбранное корреляционное окно. 3. Сначала вычисляется выборочная спектральная плотность (88), по ней в соответствии с (60) находится выборочная корреляционная функция и она подставляется в (91). Такая процедура содержит только операции умножения и преобразования Фурье и не требует вычисления свертки, что имеет вычислительные преимущества. До сих пор рассматривались в основном вычислительные методы определения спектральной плотности. Приведем обоснование аппаратурного способа экспериментального определения спектральной плотности. При этом стационарный случайный процесс ξ0 (0 по-прежнему считаем центрированным, а его спектральную плотность 5δ (ω) — плавно изменяющейся функцией частоты. Схема спектроанализатора приведена на рис. 5.25. Процесс ξ0(0 воздействует на перестраиваемый по частоте узкополосный линейный фильтр, выходной процесс фильтра η (t) возводится в квадрат и затем осредняется за достаточно большой интервал времени 7\ При некоторых условиях последние две операции выполняются приближенно в 542
термоприборах или раздельно при помощи двустороннего квадратичного элемента и осредняющего фильтра. При таком способе осуществляется сглаживание по частоте (в пределах полосы пропускания узткополосного фильтра). Такое сглаживание согласуется с физическим принципом измерения спектра. Из-за конечной разрешающей способности спектроанализаторов практически невозможно определить значение спектра на единственной фиксированной частоте, а можно лишь определить «интегральное» значение спектра в достаточно малом, но конечном диапазоне частот. Ml Перестроидаемый узнополосньй фильтр 7}(t) <к, уЩ jfriHtldt f-T •0 Рис. 5.25. Функциональная схема измерителя спектральной плотности Ограничимся рассмотрением стационарного режима работы. Пусть комплексная частотная характеристика узкополосного фильтра сконцентрирована в узкой полосе частот (ω — Δω/2, ω + Δω/2). Спектральная плотность стационарного процесса η (/) на выходе фильтра согласно (5.2.19) равна 5η(ω) = 5ξ(ω)|^αω)|2. По спектральной плотности находим дисперсию оо А,=^ j Sl(w)\K{j(o)\^d(o. *— оо Если полоса пропускания фильтра Δω настолько мала, что в пре^ делах ее спектральная плотность S| (ω) почти не изменяется, то A,--i-S|(<») Г |/C(j©)|2iico--i-S|((»)/Co2A«)a, (5.4.92) — 00 где Ко — коэффициент усиления фильтра на центральной частоте; 2Δα>3 = /<72 ] \Κ(]ω)\2άω — эффективная ширина квадрата амплитудно-частотной характеристики фильтра. Из (92) следует, что Sfc(co) = lim (π£>η 1Kb Δω&). Ав>э-*0 (5.4.93) В качестве оценки дисперсии процесса η (/) примем среднее значение квадрата случайного процесса η (/): 543
DT=-L^{t)dt. О Выражение (21) показывает, что если %R\ (τ) — абсолютно интегрируемая функция, то такая оценка является несмещенной и состоятельной, т. е. τ ΰη =М {DT} = Ит _L Γ η2 (t) at. r-~ Τ J о Следовательно, т ^^^""•„■ifrrr^ )im Ш^ГТ №it)dt= lim 56(«>), (5.4.94) Δω3-»-0 0 Δω3->0 где О есть оценка спектральной плотности при конечных значениях Τ и Δω3. Математическое ожидание такой оценки (5.4.96) в общем случае не равно Sg (ω), т. е. оценка Sg (ω) является смещенной. Дальнейший анализ характеристик оценки возможен при конкретизации вида амплитудно-частотной характеристики фильтра и спектральной плотности S| (ω). Для получения ориентировочных оценок рассмотрим в качестве примера идеальный полосовой фильтр с прямоугольной амплитудно- частотной харатеристикой |/С(jo>)| = / /С°* ±ω~Δω/2<ω<±ω + Δω/2, \ О при других ω. Считая спектральную плотность четной функцией частоты, из (96) имеем ω+Δω/2 Μ [Si(ω)} = — Γ 5| (ω) άω. (5.4.97) ω—Δω/2 544
Оценим смещение. Если функция 5| (ω) изменяется достаточно плавно с частотой (не содержит пиков), то в пределах малой полосы Δω ее можно разложить в ряд Тейлора в окрестности центральной частоты ω и ограничиться только первыми тремя членами. Тогда с использованием (97) получим смещение оценки Μ [% (ω)) — S| (ω) ~ (Δω3/24) 5^ (ω), (5.4.98) где S'i (ω) — вторая производная функции S| (ω) по аргументу ω. Для дисперсии оценки согласно (95) можем написать D {§(ω)} = D [DT )1КЬ (Δω9/π)2. (5.4.99) Применительно к гауссовскому стационарному процессу ξ0 (t) выражение для D{Dt} было получено ранее (22): оо D{DT}~±j Щ(х)ах. О Если в пределах полосы пропускания фильтра Δω спектральная плотность 5| (ω) приближенно постоянна, то корреляционная функция будет определяться формулой (5.3.49): η / \ г\ sin (Δωτ/2) /?η (τ) = υΆ - cos ωτ. Δωτ/2 Поэтому Ρ (Ρ, > ^ jgu, f Si"2 (W2> COS2 CDTdT = ^[ S?n2 (ΔωΤ/2) 1 ' Τ ) (Δωτ/2)2 Τ J (Δωτ/2)2 о о χ l+cos2g)T ^ _ 2D2 Г sin2 (Δωτ/2) ^ ^ 2 Г J (Δωτ/2)2 Γ(Δω/2π) о После подстановки сюда выражения Оц из (92) (при Δω3 = Δω) формула (99) для дисперсии оценки примет окончательный вид: D {§ (ω)} ~Sf (ω)/Τ (Δω/2π). (5.4.100) Полную нормированную среднюю квадратическуюГ ошибку оценки согласно (98) и (100) можно приближенно представить в виде 8~ ^(ω) ~ ΠΔω/2π) + 57б ^ 5|(ω) J (^1U1) Эта формула позволяет сделать следующий качественный вывод общего характера. К величине полосы пропускания (разрешающей способности) Δω фильтра предъявляются противоречивые требования: для уменьшения ошибки смещения необходимо брать малые значения Δω, тогда как для уменьшения случайной ошибки Δω следует увеличивать. Поэтому нужно брать компромиссное значение Δω. Для спектральной плотности, плавно изменяющейся с частотой (Sjj (ω) мало) 18 Зак. 956 545 X
допустимо брать большие значения Δω, чем для быстро изменяющейся спектральной плотности. Следует также учитывать, что с уменьшением Δω увеличивается длительность переходного процесса, что приводит к увеличению времени анализа Τ при каждой фиксированной частоте. Количественное определение оптимального значения Δω зависит от вида амплитудно-частотной характеристики узкополосного фильтра и характера спектральной плотности S| (ω). Здесь имеется аналогия с экспериментальным определением плотности вероятности. 5.5. КВАЗИОПТИМАЛЬНЫЕ ЛИНЕЙНЫЕ ФИЛЬТРЫ Предположим, что имеется сумма детерминированного сигнала s (t) конечной длительности ти и гауссовского белого шума п0 (t) с известной спектральной плотностью N0: l(t) = s (t) + п0 (/), 0< / < Г. (5.5.1) Такая сумма воздействует на вход линейного фильтра с комплексной частотной К О"®) ЙЛИ импульсной характеристикой h (t). Нас интересует, при каких условиях отношение наибольшего пика сигнала к среднеквадратическому значению шума на выходе фильтра достигает наибольшего значения. Для краткости назовем это отношение пиковым отношением сигнал-шум. Необходимость решения таких задач возникает при обнаружении сигнала на фоне шума, когда не требуется точное воспроизведение сигнала, а нужно лишь зафиксировать сам факт наличия или отсутствия сигнала s (t) на интервале времени (О, Т). Сформулированную задачу можно решать в-двух, несколько отличных постановках: 1) линейный фильтр задан и максимизация пикового отношения сигнал-шум достигается лишь подбором отдельных параметров фильтра; назовем такие фильтры квазиоптимальными; 2) сразу отыскивается линейный фильтр (т. е. функции /C(jco) или h (/)), который обеспечивает получение наибольшего возможного в условиях задачи пикового отношения сигнал-шум. Будем называть такие фильтры согласованными. Сформулированные задачи допускают многочисленные обобщения, в частности, шум п0 (t) может быть не белым, а стационарным гауссовским процессом с известной корреляционной функцией. Можно показать [70], что вторая задача имеет решение общего характера, причем пиковое отношение сигнал-шум на выходе согласованного фильтра равно У~2ЕШ0у rjie Ε — энергия сигнала s (t). Первая же задача должна решаться самостоятельно применительно к каждому конкретному фильтру. Проиллюстрируем методику ее решения при разных условиях на двух частных примерах. Пример 5.5.1. Воздействие видеоимпульса и белого шума на интегрирующую цепь RC. Пусть на интегрирующую цепь RC воздействует напряжение, представляющее собой сумму (1) белого шума я0 (t) и сигнального видеоимпульса s (t) прямоугольной формы с амплитудой Л о и длительностью ти (рис. 5.26). Начальное напряжение на конденсаторе полагаем равным нулю. Найдем отношение сигнал-шум (отношение амплитуды сигнала к среднеквадратическому значению шума) на выходе цепи^ЯС в конце видеоимпульса в двух случаях: цепь RC включена всегда; осуществляется апробирование импульса> что м,ожно ин- K4fi
терпретйровать как подключение цепи RC к источнику напряжения ξ (t) на время Δ + ги, т. е. в момент времени f = t0 — Δ, где t0 — момент появления видеоимпульса (рис'5.26; а, б). Рассмотрим первый случай, когда шум воздействует на цепь задолго до момента t0 появления видеоимпульса. Очевидно, что наибольшее отношение сигнал-шум получается в конце импульса, причем напряжение сигнала на конденсаторе равно Г(ти)=Л(1-е аН a=\/RC. (5.5.2) Дисперсия напряжения шума Τι (/) на конденсаторе в данном случае определяется формулой (5.3.18): £>~ = σ£ = α/ν0/4. ' (5.5.3) —ν- γ (~)s(t)+n(t) e=j= 8(t)*W a) 5) Рис. 5.26. Воздействие видеоимпульса и белого шума на цепь RC Поэтому отношение сигнал-шум равно Р(а%), Ρ (ατΗ) = ΐ/"-Μι- —ατ. '). (5.5.4) где Ε = Л§ти — энергия видеоимпульса. График функции ρ (ати) приведен на рис. 5.27 (кривая, соответствующая ν = оо). ^з него находим оптимальное значение безразмерного параметра ати,<при котором пиковое отношение сигнал-шум достигает максимального значения: Ртах ^0,9 при аги^ 1,25. (5.5.5) Учитывая, что полоса пропускания цепи RC на уровне 0,5 по мощности равна Δ/ = α/2π, находим оптимальную полосу пропускания Δ/0 ~ 0,2/ти. Таким образом, при воздействии на вход интегрирующей цепи RC суммы прямоугольного видеоимпульса и белого шума на выходе цепи будет получено пиковое отношение сигнал-шум, приблизительно равное 0,9~\Z2E/N0t если выбрать полосу пропускания Δ/0 ~ 0,2/ти. Качественно наличие оптимальной полосы пропускания легко понять из рассмотрения рис. 5.28, на котором изображены энергетические спектры входного сигнала \FS (jco)|2 и шума Nj2t а также квадрат модуля передаточной функции цепи !^0ω)|2 = [1 + (ω/α)2]-1. Передаточная функция при оптимальной полосе пропускания обеспечивает большое «усиление» наиболее интенсивных участков спектра сигнала и рациональное ослабление слабых его участков; в противном случае вместе со слабыми 18* ' 547
спектральными составляющими сигнала через цепь проходили бы интенсивные шумы. Естественно, что при этом форма сигнала на выходе искажается. Однако это не имеет значения, так как задача фильтра в данном случае состоит не в точном воспроизведении сигнала, а в получении наибольшего пикового отношения сигнал-шум. Рис. 5.27. Зависимость пикового отношения сигнал-шум на выходе интегрирующей цепи RC при стробировании и без стробирования (v=-oo) ζπ ж шти Рис. 5.28. Соотношения между спектральными плотностями прямоугольного видеоимпульса, белого шума и квадратом амплитудно-частотной характеристики цепи RC при оптимальной полосе пропускания Рассмотрим второй случай, когда осуществляется стробирование импульса с некоторым упреждением Δ (рис. 5.26), причем длительность строба равна тс = Δ+% = (1 + ν) ти, где ν=Δ/τΗ. В данном случае напряжение сигнала на конденсаторе в конце импульса по-прежнему определяется выражением (2), а дисперсия шума находится по формуле (5.3.17): σ^(Δ+τΜ)=σ4ΐ-β-2α(Δ + τπ)) = ^^-(ΐ^-2ατπ(1+ν)), (5.5.6) где σ2 = αΝ0/4 — дисперсия напряжения шума в стационарном состоянии. Поэтому отношение сигнал-шум равно δ(τΗ) где σ~(Δ+τΗ) Ρν (ати) Л О- 1-е — 2ат„ ~аТи /IF H('+v))./2=|/-^-Pv(«W, (5.5.7) -ι/"—ο x*)[x_b~2ax*kX+v)Y~42 = -1/2 (5.5.8) Графики функции ρν(ατΗ) для шести значений ν приведены на рис. 5.27. Допустим, что осуществляется идеальное стробирование (Δ = ν = 0). Если постоянная времени цепи RC достаточно велика, так что выполняется неравенство ат/и <С 1» то, применяя приближенные равенства ехр (—ах) ~ 1 —ах, ~\/\-\-х~ ~ 1 + х/2, из формулы (7) получаем Γ(τΗ)/σ~ (τΗ) =У2ШГ0- <5·5·9) 548
Таким образом, при выполнении условия ахи < 1, обеспечивающего хорошее интегрирование в течение длительности импульса, пиковое отношение сигнал- шум определяется только отношением удвоенной энергии сигнала к спектральной интенсивности шума и не зависит порознь от амплитуды и длительности импульса. Этот результат имеет фундаментальное значение в теории оптимальных методов приема. Он показывает, что путем интегрирования можно выделить из шума импульс даже очень малой амплитуды, лишь бы он имел большую длительность (энергию). Из графиков рис. 5.27 видно, что без стробнрования (v= оо) величина ртах^ ~0, 9 при ατΗ~ 1,25. При идеальном стробировании (ν = 0), т. е. когда цепь RC подключается на время тс = ти в момент времени t0 появления импульса, Ротах-* 1 ПРИ ее -> 0. При других ν получаются промежуточные случаи; в частности, для них pv = 1/j/l + ν при α =0. \ъаыФп0а) Рис. 5.29. Воздействие радиоимпульса и белого шума на колебательный контур Увеличение пикового отношения сигнал-шум при стробировании объясняется тем, что при Δ, меньших времени установления напряжения на конденсаторе, нестационарный выходной шум за время Δ + % не успевает нарасти до максимального стационарного значения, которое получается в отсутствие стробнрования. Этим же объясняется наблюдаемое на рис. 5.27 уменьшение оптимальной полосы пропускания при уменьшении v. Выше было рассмотрено несколько вариантов, относящихся к частному случаю стробнрования, когда окончание строба точно совпадает с концом сигнального импульса. Разумеется, можно анализировать другие варианты: разное детерминированное и случайное взаимное расположение строба длительностью тс 'и импульса длительностью ти, сигнал s (t) имеет форму, отличную от прямоугольной, шум п0 (/) является коррелированным с заданной корреляционной функцией. Пример 5.5.2. Обобщим полученные результаты на детерминированные радиоимпульсы. Пусть на колебательный контур, составленный из параллельного соединения конденсатора емкостью С, сопротивления R и катушки индуктивностью L (рис. 5.29), при нулевых начальных условиях воздействует сумма (1) сигнала s (t) и белого шума п0 (t). Сигнал s (/) представляет собой детерминированный прямоугольный радиоимпульс амплитудой А0 и длительностью ти: s(0=A>sincuo/, t0 </</0+ти· (5.5.10) Резонансная частота колебательного контура предполагается совпадающей с частотой сигнала, т. е. ω0 = (LC)-1/2. Найдем пиковое отношение сигнал-шум (отношение амплитуды сигнала к среднеквадратическому значению шума) в конце импульса в двух случаях: 1) колебательный контур включен всегда; 2) осуществляется стробирование, т. е. контур подключается к источнику тока ξ (t) на время Δ + % в момент времени t' = t0 — Δ, где t0 — момент появления радиоимпульса. При выполнении условия ω0 > \I2RC импульсная характеристика контура приведена на 6-й строке табл. 5.1. Поэтому для выходного напряжения на контуре можно написать 549
η(0 = —те"а/ (V* sin co0 (/-*)£' (*)d*. (5.5.11) ω0ο J о Известно, что для линейных систем справедлив принцип суперпозиции. Поэтому можно раздельно находить сигнал и шум на выходе системы. Из (11) для напряжения сигнала и шума на контуре имеем соответственно t М0 = Л0— e~~at \ ea*sin(D0(*—χ) cos ω0 χ dx = A0R(\ — e~aOsin0o/, (5.5.12) t CunC я(0 = -7-7Ге~а/ f ea* sin ω0 (/—x)n'0(x)dx. (5.5.13) о Для определения дисперсии напряжения η (t) нужно подставить в (5.2.16) вместо /?£ (ть τ2) корреляционную функцию производной от стационарного белого шума, которая равна R* (Ч> τ2)=# , (τ,-τχ) =-ΛΤ0δ" (τ2-τι)/2. ηο ηο Воспользовавшись при вычислении получающегося интеграла формулой (1-34), получим ^(0=aM/) = №i?/4C) (l-e-2a0. (5.5.14) Если колебательный контур подключен к источнику тока ξ (/) задолго до момента t0, то шумовое напряжение на контуреЪ (t) к моменту действия радиоимпульса будет стационарным с дисперсией Gh=N0R/4C. (5.5.15) η Согласно (12) «амплитуда» напряжения сигнала 7(t) в конце импульса равна Л(ти)=Л0/?(1_е-ат-). <5-5Л6> Поэтому пиковое отношение сигнал-шум в отсутствие стробирования Л (%)/а~=У2£7л£р (ати), (5.5.17) где Ε = Α%τη/2 —- энергия радиоимпульса, а коэффициент ρ (ατΗ) дается выражением (4). График функции ρ (ατΗ) был приведен на рис. 5.27. Поэтому по-прежнему Ртах^0,9 при ατΗ^1,25. (5.5.18) Отличие от цепи RC состоит в том, что полоса пропускания контура на уровне 0,5 по мощности равна Δ/ = α/π и, следовательно, оптимальная полоса пропускания контура Δ/ο ^ 0,4/ти в два раза больше, чем для цепи RC. Пусть контур подключается в момент времени t' = t0 — Δ, а радиоимпульс появляется позже, в момент t0 > Ϊ. Амплитуда сигнала в конце импульса по- прежнему равна А (ти), а дисперсию шума находим из (14) oL· (Δ +ти) = (yV0 R/4C) (l -e~2aT* ° +V)), ν=Δ/τΗ. (5.5.19) η Пиковое отношение сигнал-шум равно =l/— У Ν0 σ~(Δ+τ„) 550
где безразмерный коэффициент ρν (ατΗ) определен формулой (8) и представлен графически на рис. 5.27 для нескольких значений v. Вычисления, приведшие к формуле (17), т. е. в отсутствие стро- бирования, можно выполнить для других линейных фильтров. Обозначим через ρ отношение максимального пикового значения сигнал-шум по напряжению на выходе рассматриваемого линейного фильтра с комплексной частотной характеристикой /СО ω) к максимально возможному значению этой же величины на выходе согласованного фильтра, равной ]/"2£УЛГ0: Р = 1?(д|/агУ2ВДГ. (5.5.21) Здесь Ε — энергия входного сигнала; s (t0)— выходной сигнал в момент времени t0, соответствующий максимальному пику; σ^—дисперсия стационарного выходного шума. Если F8 (jo)) — спектр входного сигнала, то оо оо Ε = Г s2 (0 at = ± Г | Fg (j ω) |2 do, (5.5.22) — оо — оо оо I (g = -^ j F. 0'«>) Κ Ο'ω) Ы«'· dco, (5.5.23) — oo oo °« = ΊΓ 2T J 'K (j ω) |2 dfi>· (5-5'24) ΟΘ Подставив эти выражения в (21), получим р = | ] ^αω)^0ω)6^»ίίω|| j |Fs (jω)|2ώα χ oo -1-1/2 X j \K(](o)\2d<o\ . (5.5.25) Вычисления по этой формуле приводят к следующим результатам [184]. Если прямоугольный радиоимпульс воздействует на фильтр с идеальной прямоугольной амплитудно-частотной характеристикой, то р= А(Д/Ти)-1/2 si (JL Д/ти) , (5.5.26) где Δ/ — ширина полосы пропускания фильтра, Si (χ) — интегральный синус. Результаты вычислений по этой формуле представлены на рис. 5.30 (кривая 1). Величина ρ имеет максимум ртах~0,91 при Δ/=1,37/τΗ. (5.5.27) Расчетам по формуле (17) для колебательного контура соответствует кривая 2. Если прямоугольный радиоимпульс воздействует на фильтр 551
Таблица 5.5 Основные характеристики квазиоптимальных фильтров Радиоимпульс Прямоугольный Прямоугольный Гауссовский Гауссовский Прямоугольный Прямоугольный Прямоугольный Фильтр Идеально-прямоугольный Гауссовский Идеально-прямоугольный Гауссовский Одиночный резонансный контур Двухкаскадный резонансный усилитель Пятикаскадный резонансный усилитель Af.tH 1,37 0,72 0,72 0,63 0,40 0,61 0,67 ртах 0,91 0,94 0,94 1,0 0,90 0,93 0,94 с гауссовской резонансной кривой К Q<o) = K0 exp[-l,4 p^?)2_j«,i0] , (5.5.28) p-^p^V" [ф(^_ 1 Ί , (5.5.29) где Δ/ — ширина полосы фильтра на уровне 0,5 по мощности; Φ (л-) — интеграл вероятности. Результаты вычислений по формуле (29) изображены кривой 3. При Δ/τΗ = 0,72 величина ρ имеет максимальное значение ртах = 0,94. Из графиков рис. 5.30 следует два вывода: 1) при оптимальной полосе пропускания Δ/0 максимальное значение ртах заключено между 0,9 и 1; 2) в окрестности максимума кривые изменяются очень медленно, т. е. максимум выражен не резко. В табл. 5.5 для нескольких пар радиоимпульс—фильтр указаны значения ртах и приведены оптимальные значения Δ/0τΗ, при которых достигается ртах. В радиоприемных устройствах супергетеродинного типа комплексная частотная характеристика усилителя промежуточной частоты в принципе должна совпадать с комплексной частотной характеристикой квазиоптимального фильтра. Однако на практике полосу пропускания усилителя промежуточной частоты (УПЧ) выбирают в 1,5—2 раза больше оптимальной. Главная причина этого — нестабильность частоты принимаемого сигнала и частоты гетеродина приемника. Принципиальную целесообразность расширения полосы пропускания УПЧ при наличии расстройки Af=f0 — /ό между частотой радиоимпульса /о и центральной частотой фильтра /о можно уяснить на следующем частном примере. Пусть прямоугольный радиоимпульс (10) воздействует на согласованный фильтр [70], расстроенный относительно частоты радиоимпульса на величину Δ;. В данном случае отношение (25) равно ρ = sin (nAf xa)/n&f ти. (5.5.30) 552
На рис. 5.3ί приведена зависимость ρ от AfxK (кривая J). Можно показать, что при воздействии прямоугольного радиоимпульса на расстроенный колебательный контур с комплексной частотной характеристикой /С (j ω) =/Со 2αω ^ ,ω;=2π/;, справедлива формула Р= 2ати — 2αω+] (ω*-ω;2) 2e~aXjicos2nAfxn+e 2aX* 1/2 , α = πλ/. (5.5.31) (ατΗ)2 + (2nAfTu)* В отсутствие расстройки (Af = 0) эта формула uepexoji}it в (4). р\ о А <оА "' 1\ д /г 2\ 16 Δίΰ}5τ^ Q 0i5 i 1i5 Ζ 2,5 3 J,5 ΔΓτΗ Рис. 5.30. Относительное уменьшение отношения сигнал-шум на выходе квазиоптимальных фильтров Рис. 5.31. Уменьшение отношения сигнал-шум в зависимости от постоянной расстройки Результаты расчетов по формуле (31) для двух полос пропускания контура: Δ/ = Δ/0 = 0,4/ти (кривая 2) и Δ/ = 2Δ/0 (кривая 3), представлены на рис. 5.31. Из графиков видно, что при значениях А/ии^ ^ 0,6 отношение сигнал-шум на выходе фильтра с полосой пропускания Δ/ = 2Δ/0 больше, чем в двух других случаях, имеющих оптимальные полосы пропускания. Если расстройка Δ^ медленно и случайным образом изменяется во времени по нормальному закону Ρ (Ду) - —^== ехр ( ^) , (5.5.32) Of Ύ2π 2af ) то естественно интересоваться средними значениями: Μ {ρ} = j рр (Δ,) dA„ M {ρ2} = J ρ2 ρ (Δ,) dbj. (5.5.33) 00 ΟΟ Результаты численных расчетов величины М {ρ2} для колебательного контура при нескольких значениях 0/ги приведены на рис. 5.32 и 5.33. Из графиков рис. 5.33 видно, что при заданной величине а/ги сущест- 553
Ц4 · 0,8 OS υ,υ ¥ 0,2 ι \ ^\ 1 1 2 4 £ 2я '·5/τΜ Mf; 0,5 Ofi 0,3 >2} 1 1 4 5 6 \ Рис. 5.32. Уменьшение отношения сигнал-шум при случайной расстройке Δ/: 1 — согласованный фильтр; 2 и 3 — колебательный контур Af» «=0,4/Ти и 0,8/Ти соответственно Ofi 0,5 0,6 0,7 АКц Рис. 5.33. Влияние полосы пропускания на отношение сигнал-шум при случайной расстройке вует свое оптимальное значение Δ/τΗ, при котором Μ {ρ2} имеет максимум. С увеличением а/ги оптимальное значение Δ/τΗ медленно возрастает, а максимальное значение М{р2} резко уменьшается. 5.6. ДИФФЕРЕНЦИРОВАНИЕ СЛУЧАЙНОГО ПРОЦЕССА. АНАЛИТИЧЕСКИЕ ПРОЦЕССЫ Пусть задан случайный процесс l(t) с математическим ожиданием ιί%ι (ί) и корреляционной функцией /?| (flf ί2). Нужно, найти математическое ожидание т^ (t) и корреляционную функцию Rf (flf ί2) для производной w at At-»o ξΡ+ΔΟ-gtf) Δ/ (5,6.1) Конкретным примером сформулированной задачи может служить определение математического ожидания и корреляционной функции напряжения на индуктивности по известным характеристикам флюк- туационного тока, протекающего через индуктивность. Если бы предел справа в выражении (1) существовал для всех реализаций случайного процесса ξ (ί), то |' (t) была бы производной в обычном смысле. Однако такое допущение является слишком ограничительным. Будем предполагать, что производная (1) существует в сред- неквадратическом смысле. Говорят, что случайный процесс | (t) имеет среднеквадратинескую производную в точке t, если можно найти та- кой другой процесс ξ' (Ο, что выполняется соотношение 554
Urn. Μ Л 8<'+*>-ЕОТ -l>(t)T\ = 0. (5.6.2) Допуская пока существование производной, для достаточно малого, но конечного отрезка времени Δί можем написать приближенное равенство ^~[ml(t^M)-ml{t)V Возможность такой записи объясняется тем, что математическое ожидание является не случайной, а детерминированной функцией времени и к нему применимы все операции обычного математического анализа. В результате перехода к пределу при Δί-^ Ο приближенное равенство перейдет в точное: mr(t) = dmt(t)/df. (5.6.3) Следовательно, математическое ожидание производной от случайной функции равно производной от ее математического ожидания. Иначе говоря, операции дифференцирования и математического ожидания можно менять местами. Получим правило вычисления корреляционной функции производной случайного процесса. Рассмотрим сначала подробно случай стационарного в широком смысле случайного процесса с нулевым математическим ожиданием (т^ = 0) и корреляционной функцией R$ (τ). При нахождении корреляционной функций для производной возникает следующее затруднение. Процесс ξ'(ί) в выражении (2) не задан. Поэтому нужно сначалаг выяснить условия существования такого процесса и лишь затем вычислять его характеристики. ^ ^ Для получения условий существования производной можно воспользоваться правилом Коши (5.1.10), согласно которому в данном случае дело сводится к проверке выполнимости соотношения ιл.ш. м (ГШ^ЬШ _ί№ϋ!> Ι2)=о. (5.6.4) βι,ε2-*0 ([ εχ ε2 J J Докажем, что необходимое и достаточное условие дифференцируемое™ стационарного процесса ξ (t) в среднеквадратическом смысле заключается в том, чтобы корреляционная функция процесса R% (τ) при τ = 0 имела производные до второго порядка включительно. Напомним, что корреляционная функция вещественного стационарного процесса является четной. Поэтому если она дифференцируема, то R{ (0) = dRi (T)/dt|ts=0 = 0 и, следовательно, для малых τ Rl M-Ri (0) = Щ (0) τ*/2, R- (0) = -£-|?ξ (τ) Ц. (5.6.5) Если выполнить операции, указанные в фигурных скобках, затем почленно взять математические ожидания и учесть равенство (5), та нетрудно убедиться в справедливости следующих соотношений: 555
Μ 1[ ε J J ε2 ε^0 1 μ f 6tf+Bi)-6 ffl ξ (^+eg)—ξ (/) i &ι ε2 _ ^ξ fa—ε8)—/?ξ (β!) —/?ξ (—s2)+/?6 (0) _^ εχ ε2 — #* (βι) —Λ* (0) —Hi:—LLL_> —/?;-(0). (5.6.6) Μ Воспользовавшись этими соотношениями, из (4) получим A(t+*i)-l(t) ξ(/ + ε,)-ξ(/) 12| ^ ε! ε2 ί ει, ε2-*ο ■2/?g'(0) + 2/?g'(0) = 0, что и завершает доказательство достаточности. Необходимость сформулированного условия (цри существовании среднеквадратической производной ξ' (/) значение второй производной корреляционной функции R'{ (0) должно быть конечным) следует из (6), а также из определения (2) и последующих формул (8) и (9). Этот результат позволяет легко проверить, будет ли процесс дифференцируемым. Например, корреляционные функции 1, 2 и 7 в табл. 5.2 недифференцируемы. Точно так же можно показать, что нестационарный процесс ξ (/) будет дифференцируем в среднеквадратическом смысле, если при *ι = ^2 существует вторая смешанная производная d2R% (tl9 t2)/dt1dt2. Перейдем теперь к фактическому вычислению корреляционных функций. При этом<цля сокращения записей будем полагать математическое ожидание процесса равным нулю. Найдем сначала взаимокорреляционную функцию между процессом и его производной /?й'(/1>/2) = М{6(/1)6'(/2)}. (5.6.7) Так как то при ε ->- 0 получим Аналогично из соотношения при ε ->- 0 следует Rv (ti. h) - Rw (Ί. U) = ~- Riv (Ί. h) = -~^- R\ ft. h). (5.6.9) 556
Таким образом, чтобы найти корреляционную функцию производной дифференцируемого случайного процесса, нужно дважды продифференцировать корреляционную функцию исходного процесса: сначала по одному аргументу, а затем по другому. Повторно применяя приведенные ранее рассуждения, приходим к выводу, что п-я производная ξ(π)(/) = d"l(t)/dtn (5.6.10) процесса ξ (t) существует, если существует производная д2п R% (tlt t2)/ dtqdti*. При этом т ξ(«) (ί) = Μ {dn I (t)/dtn } = dn m% (t)/dtn , (5.6.11) R tW (,lf Цв8д|£1М.. £Ш-\ = д~п«* «*'ц l я; dtn2 J dt\dt\ (5.6.12) V(B(H.,|iliL. ULaM)-aT ^"-'■>. ,5.6.13) В том случае, когда процессы ξ (t) и η (/) стационарно связаны, последняя формула принимает вид ρ ξmм^ J£l±tu^ £LsJ!L\ < η- <fl+w/?6n^ ,.fil/n ^(")т!(т)(т) = М{ · } = (—1) ; . (5.6.14) Ι Ά \ ) χ dtn dtm j V / dxn + m \ / Применим полученные формулы к стационарному в широком смысле процессу ξ (/), для которого т% = const, #ξ (fb t2) = £ξ (τ), τ = t2 — tt. (5.6.15) Из формулы (3) следует, что mv = 0, а из (8), (9), (12) и (13) соответственно получим Rlr(T) = m{l(t1) ξ' (t2)}=-M{l(t2)l' (/!» = /?; (τ), (5.6.16) d2 Я* (τ) d2 R, (τ) Ι (5.6.17) = ^(τ) . (5.6.18) eft" Формула (17) показывает,что в результате дифференцирования стационарного в широком смысле случайного процесса всегда получается стационарный в широком смысле случайный процесс с нулевым математическим ожиданием. Воспользовавшись свойством корреляционной функции стационарного процесса (2.2.27), можем написать ' |^(т)|<-^(0)«^. (5.6.19) 65/
Следовательно, конечная вторая производная от корреляционной функции стационарного процесса существует при любом τ, если только она существует при τ = 0, т. е. если существует конечная дисперсия для производной (скорости). Условия дифференцируемости стационарного процесса можно выразить через спектральные плотности. На основании формул (2.3.33), (17) и (18) устанавливаем связь между спектральными плотностями самого стационарного процесса S5 (ω), его первой Sp (ω) и второй 5ξ" (ω) производными, а также выражения для дисперсий первой D^ и второй ϋξ* производных через спектральную плотность процесса: оо £>ξ. = a\=—R'' (0) = — Г ω2 S6 (ω) de>, Sf (ω) = ω2 St (ω); (5.6.20) Dv. = а|=Я1*> (0) = — f ω* S% (ω) άω, Sr, (ω) = ω4 5| (ω). (5,6.21) — ο© Выражение (20) показывает, что необходимое и достаточное условие дифференцируемости стационарного процесса один раз состоит в том, чтобы его спектральная плотность убывала с ростом частоты быстрее, чем ω~3. Для дважды дифференцируемого процесса, как видно из (21), спектральная плотность при высоких частотах должна убывать быстрее ω~5. Формула (16) показывает, что взаимная корреляционная функция между процессом и его производной меняет знак в зависимости от того, берется производная справа или слева от отсчетного значения процесса. Из четности корреляционной функции R$ (τ), а также из (16) при τ = 0 следует, что RIV(0) = R{(0) = 0. (5.6.22) Следовательно, стационарный случайный процесс и его производная в совпадающие моменты времени не коррелированы. Отметим, кстати, что при часто выполняющемся соотношении lim Ri (τ) = 0 из (22) следует, что вторая производная от коррёляци- Τ->·σο онной функции дифференцируемого стационарного процесса должна удовлетворять условию 0 оо J Ri(t)dx = § RiWdx = Ri(oo)—Ri(0) = 0. (5.6.23) — оо 0 Среди стационарных случайных процессов можно выделить узкий класс процессов, для которых значение процесса ξ (t) и его производной ξ' (ή в совпадающие моменты времени не только не коррелированы, но и независимы, т. е. p(l,l') = Pl(l)Pr(t')· (5-6.24) 558
Процессы, удовлетворяющие SfoMy условию, можно назва!ъ стационарными процессами с независимой производной в совпадающие моменты времени. Формула (22) показывает, что для гауссовских стационарных процессов условие (24) выполняется и для них нетрудно записать совместную плотность вероятности ρ (ξ, ξ'). Так как в результате дифференцирования, являющегося линейной операцией, свойство гауссовости сохраняется, то PV (Е')=* '1— exp f —^-V DV = -Щ(0). (5.6.25) Воспользовавшись представлением корреляционной функции в виде Rl (τ) = £>|Γξ (τ), формула (24) для гауссовских процессов примет вид Р<ЬГ)-—7==«Р--=Н «-«!)' , (5.6.26) где С ω25|(ω)<ίω>0. (5.6.27) -ri<0>—£-α(τ> 2ηΏξ Оказывается, что для дифференцируемых стационарных случайных процессов совместная плотность вероятности ρ (ξ, ξ') является четной функцией относительно ξ'. Действительно, пусть ρ2 (ξΐ9 ξ2; tl9t2) — двумерная плотность вероятности значений процесса ξ (t) в два момента времени tx = t — (Δ/2) и t2 = t + (Δ/2), где Δ > 0 — малая величина. Для дифференцируемого процесса ξ, = ξ - (Δ/2) ξ', ξ2 - ξ + (Δ/2) ξ', ξ = ξ (0. Переходя в /?2 (·) от переменных £ь ξ2 к новым переменным ξ и ξ' и учитывая, что якобиан преобразования равен Δ, имеем ρ(ξ,ξ')-1ΰηΔΛ^—|-ξ', ξ+Α|'; ί_Α., / + А). (5.6.28) Но плотность вероятности р2 (ξι, ξ2ί ^ι» ^2) удовлетворяет условию симметрии (т. е. не меняется при перестановке аргументов). Поэтому Ρ (ξ, Г) = P(L- Г). (5.6.29) На основании выражений (3), (8) и (9) нетрудно убедиться, что для гауссовского нестационарного процесса ξ (/) с математическим ожиданием Ш| (t) и корреляционной функцией R% (tl9 t2) формула, аналогичная (26), имеет вид р(тл'м)=рал'\ о- 9ffrt,' [i-^f(0]-l/2 χ 2πσξ (f) σχ (/) 559 -c;:d! - ' ГС-У»а 2г «V
(Ι'-«ι(0)2 (5.6.30) где σξ (t) = YD% (t) = //?! (t, t), щ. (t) = ^ , Ol(0 = 1 (5.6.31) dU t2 = t σξ (Ο σχ (Ζ) Повторив рассуждения, приведшие к формуле (22), можно прийти к выводу, что если стационарный процесс дифференцируем несколько раз, то производная v-ro порядка не коррелирована с (ν — 1)-й и (ν + 1)-й производными, взятыми в один и тот же момент времени. Применительно к гауссовскому стационарному процессу отсюда следует, что совместная плотность вероятности для ξ (/), V (0 и ξ" (/) будет иметь вид Рал'Л")=Р1>а')рал"). Выполнив вычисления, при /П| = 0 получим (5.6.32) Р(1Л'Л") = где expi χ (2п)3'2а1Уу \ 2γ χ [σΤξ*+2σ? Ш" + °\Г2]--^71'2}, = *И4>(0); (5.6.33) d4 /ч (τ) σ? = -σ|/·£(0), σ2* = σ§-^ϋ τ=ο γ==σ|σ| — af. (5.6.34) Покажем, что введенный параметр γ является положительным. С этой целью выразим его через спектральную плотность процесса. На основании соотношений (20), (21) и известного, равенства £>ε = σ!-=· 2π σο j Si (ω) άω можно написать γ = σ|σ|_σ4 = 4π2 4π2 СО 00 Γ 8ι(ω1)(Ιωι ί ω!5|(ω2)ίίω2— οο η2 οο οο j ω25ξ(ω)ί/ω = -— J J (ω^_-ω? α>Β)χ Ι— — οο Χ 5| (ωχ) 5| (ω2) άω1 Λο2. 560
Ясно, что здесь индексы Можйо поменять местами. Переписав это выражение с переставленными индексами и сложив с написанным выражением, получим 8π2 оо оо ω?)25|(ω1)5ξ(ω2)^ω1ί/ω2>0. (5.6.340 Поскольку спектральная плотность S% (ω) стационарного случайного процесса является положительно определенной функцией, то отсюда следует, что параметр γ положителен. Приведем выражение совместной плотности вероятности ρ2 (ξ, ξτ, ξ', Ιχ) для значений гауссовского стационарного дифференцируемого процесса ξ = ξ (ί)9 ξτ = ξ (t + τ) и его производных ξ' = ξ' (/), ζχ = = ξ' (ί + τ) в два момента времени ί и / + τ. Очевидно, что эти четы* ре случайные величины — совместно гауссовские. Совместная плотность вероятности их является нормальной, т. е. дается формулой (1.4.42), причем корреляционная матрица согласно (17) и (22) имеет вид R- \ Ro Rx 0 - IRx Rx Ro -Ri 0 0 Ri -Ri 0 -Ro -Rx -R'i -R'i Rx = dR%{x)ld%, R'x = d*Rl(%)ldx\ (5.6.35) Для простоты записей математическое ожидание процесса принято нулевым. Из (35) видно* что квадратная матрица является симметричной. Поэтому ее алгебраические дополнения удовлетворяют условию Αμν = = Ανμ. Кроме того, можно убедиться, что справедливы также равенства ^13 = А,. Ά зз — А 44 > 124> 44 — А 23· С учетом этих соотношений согласно формуле (1.4.42) имеем Α (ξ. δτ, δ', ξί) = (2jt)"21R h»/^ exp {—(21R |)-ι χ χ Мц a2+ю+asb (г+n2)+2A12 mx+2AU ra+ + 2Au(&'-hli) + 2Au№i-V ξτ)]}. (5.6.36) Из корреляционной матрицы (35) находим выражения для алгебраических дополнений A11 = Ro(R'f-R?) + RoRx\ A12= -^Rt(Rf^-Rf)-RiRx\ Аз = Ri (Ro Rx — Ro Rx), Au = Ri (R0 R'i—Rx R'i + RI2), (5.6.37) A*=-~Ri(Rb-Ri)-R0Ri\ A3, = R'i(R*0-RI) + RxRx\ \R\^(Ah-AI4)/(R"0-R^ 56 i
ю к ю Η я si χ «θ· 3 χ χ ο S εί S §· S 8 τ S ίΧ Η <χ> 2 & с ο χ ВС ο S. ο χ 2 S 5Г 8· Λ £ "Ρ ν. •я<—>8 δ5 » ι 1 2 со % ο V ι 3 43 ** 3 *"·* 2 со я<-^8 8*—Ч -I* II w V. С С I £ ό ® 3 + 3 1 + о 3 1 3 ю 1 °* (MO 3 ' V* 3 о 8 —· 3 t» <M <M 3 3 <1 < VA 3 3 s к e с 3 о < <м 3 < — см 1- * cn4 Д *C0 3 < CN [ e|^ <м >-«ч <м 3 + S, Γ8 ь» ι — 8 + СО S col CD СО о» d + «2» & со Ι — со J и ? <и "р4 -Тсо 1 + V* β + "* L 3 Ю 1 Tf Iе CO ^ ι ei Ι + & Ю * ^н|ю 1 и 1 Ϊ <1> г"^~| V* 8 -Ts + <м ? Ν-' ~. Ι <Ν Ю + V* "β" + ι ι Ю Ι 562
1 л < τ Ι φ s «Μ II s со 1 «о Г 1 ω со о Я 1 £ j I *^ 1 c 1 ι % \ 1 l8le %\ 3 1 ^ О. 1=1» 8 CD 1 8 3 + s I CO + 1 1 + ^ 1 <m| 8 *8 CM 1 + 00 8 - -1* ex e| 8 1 I + σ> 8 b k| 8 % 1 ^ 1 «o 1 О 563
В некоторых практических задачах (например, при анализе действия помех на пороговые устройства) необходимо оперировать с дифференцируемыми случайными процессами. В табл. 5.6 приведены примеры простейших, однопараметрических дифференцируемых нормированных корреляционных функций стационарных процессов. Дифференцируемые процессы можно формировать, пропуская шум (в частности, белый) через соответствующие интегрирующие цепи. В этом отношении особое положение занимают стационарные случайные процессы с аналитическими корреляционными функциями вида (5.3.49) и (5.3.53), а также некоторые другие процессы, которые нельзя получить при помощи физически осуществимых фильтров. Назовем случайный процесс ξ (t) аналитическим в отрезке [О, 71, если почти все выборочные функции (реализации) процесса допускают аналитическое продолжение в отрезке [О, 71. Из аналитичности процесса I (t) в окрестности точки t0 следует возможность представления выборочных функций этого процесса рядом Тейлора со случайными коэффициентами: ξ(*)= 2 ξ<*> (*,)-£=(·£-. (5.6.38) k = 0 В дальнейшем будем предполагать, что математическое ожидание процесса Μ {ξ (t)} = 0. Аналитические случайные процессы появляются в ряде случаев приближения одних случайных процессов при помощи других, более простых. Так будет, например, при каноническом представлении процесса (разложении Карунена—Лоева), когда функции, по которым ведется разложение процесса, являются аналитическими и в качестве приближения к процессу рассматривается конечное число членов разложения. Укажем другие примеры аналитических процессов. 1. Многочлен ΝΛ степени со случайными коэффициентами 2. Тригонометрический многочлен N-и степени со случайными коэффициентами N М0 = Σ (lkSinkt + 4kcoskt). k = 0 3. Процесс ξ (t) с корреляционной функцией R% (tl9 t2) = D6 X Χ exp [_ α2(/2 —у2]. 4. Процесс ξ (/) с ограниченным спектром. 5. Процесс ξ (ί) с непрерывной корреляционной функцией, обладающей свойством R% (tu t2) — Ri (ίχ + t2). Если в первых двух примерах очевидно, что почти все выборочные функции являются аналитическими, то в остальных случаях положительный ответ дают приводимые ниже теоремы [185]. Отметим, что из аналитичности случайного процесса, вообще говоря, не следует аналитичность корреляционной функции. Можно построить примеры, подт- 664
верждающие этот факт. Однако по корреляционной функции удается иногда определить аналитичность процесса. Достаточные условия аналитичности процесса дает следующая теорема. Теорема 1. Пусть корреляционная функция /?| (tl9 t2) — аналитическая функция двух переменных в окрестности точки (t0t t0). Тогда случайный процесс ξ (t) аналитичен в окрестности этой точки. При доказательстве воспользуемся установленным выше результатом (12): если корреляционная фукция R% (tlt t2) имеет частные производные до порядка 2п включительно в некотором квадрате [а, Ь] X X [а, Ь], то почти все выборочные функции процесса ξ (t) дифференцируемы η раз на отрезке [а, Ь]. В рассматриваемом случае Щ (tl9 t2) бесконечно дифференцируема при \tx — t0\<Cs и \t2 — i0l<s и, следовательно, почти все выборочные функции бесконечно дифференцируемы для \t — t0\ < s. Из условия аналитичности R ξ (tlt t2)следует, что для |/х — t0\<s, \t2 — t0\<s Rt(tl9tj= 2 k, 1 = Рассмотрим аналитические случайные процессы t-t-t Ш! ιχ — 1г — to (t-h)k (h-h)k (h-h)1 (5 6 39) ft = 0 Воспользовавшись выражением (38), можем написать M{it<o-uof>= i *'+Τ;·'·'| ■■*=£?-■ k,l = n+\ Ot1Ot2 |f1=sffefe Здесь правая часть представляет собой остаточный член сходящегося ряда (39) и поэтому l.i.m. Μ {|6(0—Бп (0Р> = 0. Следовательно, g(0 = l.i.m.gn(/). (5.6.40) Можно показать, что l.i.m. ξη(ί) существует с вероятностью единица п-*эо и поэтому для любого t при \t—t0\ <sc вероятностью единица справедливо равенство 6(0 = 1.ип.Ы0= У %n)(to) ('~*о)П · (5.6.41) я = 0 Этим завершается доказательство. Из теоремы следует, что стационарные в широком смысле случайные процессы с корреляционными функциями (5.3.49) и (5.3.53) являются аналитическими. Применительно к гауссовским процессам условия, сформулированные в теореме 1, являются не только достаточными, но и необходимыми, т. е. справедливо следующее утверждение [185]. 565
Теорема 2. Для того чтобы гауссовский процесс был аналитическим в окрестности точки t0t необходимо и достаточно, чтобы его корреляционная функция #ξ (tl9 t2) была аналитической в окрестности точки (t0, t0). Приведем без доказательства дополнительные сведения об аналитических случайных процессах. 1. Пусть ξ (t), — оо< t<C oo,— процесс с ограниченным спектром, т. е. процесс, двусторонняя спектральная плотность Sg (ω) которого отлична от нуля только в диапазоне частот [— сог, сог]. Тогда для почти всех выборочных функций процесса справедлива формула I (/) = у ι (1IL) «Μα*-**) (56Α2) t АшА \ ω J ωί—kn Λ =—oo где ω > ωΓ — любое фиксированное число. Для стационарных гауссовских процессов с ограниченной и непрерывной спектральной плотностью S| (ω) формула (42) справедлива для почти всех выборочных функций и при ω = ωΓ. 2. Необходимым и достаточным условием того, чтобы аналитический процесс представлялся в виде l(/)=2Uft, (5.6.43) 6 = 0 где Ik — некоррелированные случайные коэффициенты, является требование, чтобы корреляционная функция была функцией произведения своих аргументов, т. е. /?| (tl9 t2) = Ri (ti*t%). Следовательно, процессы, допускающие разложения в ряды Тейлора с некоррелированными случайными коэффициентами,'нестационарны. Назовем процесс ξ (t) с корреляционной функцией R$ (tlt t2) нормируемым до стационарного, если процесс η (t) = ζ (t)/]^Ri (t, t) стационарен в широком смысле. В классе аналитических случайных процессов, допускающих разложение в ряды Тейлора со случайными некоррелированными коэффициентами, нормируем до стационарного только процесс, имеющий корреляционную функцию R\ {tvU) = Е>% ехр (— а2^2). 3. По сколь угодно малому участку выборочной функции аналитического процесса можно восстановить все значения выборочной функции, пользуясь методами аналитического продолжения. Поэтому, например, корреляционная функция и спектральная плотность эргодиче- ского аналитического стационарного процесса определяются по сколь угодно малому участку выборочной функции процесса. Выборочную функцию аналитического процесса можно с наперед заданной точностью как угодно далеко экстраполировать (прогнозировать) в «будущее» по небольшому участку «прошлой» реализации. В этом смысле выборочные функции аналитических процессов подобны обычным детерминированным функциям. По-видимому, поэтому аналитические случайные процессы в литературе часто называют также вырожденными или сингулярными. 566
Рассмотрим два примера. Пример 5.6.1. Пусть значение ξ (/ + Δ) дважды дифференцируемого стационарного случайного процесса ξ (t) с нулевым математическим* ожиданием и корреляционной функцией R+ (τ) = D^ r+ (τ) аппроксимируется выражением (линейное приближение) . I (t + Δ) - ξ (0 + Δ dlldt. (5.6.44) Покажем, что дисперсия ошибки такой аппроксимации ε (/ + Δ) = I (t + Δ) - ξ (t) — Ml (t)idt (5.6.45) приближенно равна De=Μ {ε* (* +Δ)}г~ (Δ*/4) d* #ξ (τ)/Λ* |τ β 0. (5.6.46) Действительно, Μ {ε* (*+Δ)}«Μ{&» (;+Δ)}+Μ{ξ* (0}+Δ2 М|^Ш Jj_ -2Μ {ξ (*+Δ) ξ (*)>-2ΔΜ |ξ (*+Δ) ^-}+2ΔΜ|ξ (t) ^-}* Подставив сюда отдельные величины, с учетом формул (16) и (17) получим dlit(x) I d?R*(%) I ^=2[«|(0)-^(Δ)]+2Δ -i—^-.A.—JL-^ . Для дважды дифференцируемого стационарного случайного процесса при малых Δ справедливо приближенное равенство Δ2 μ«1?ξ(Δ) Ι Δ4 Г^ЙЛА)] Γ<*2#ξ(Δ) 1 да Г*Д6(Д) Ί L <*Д2 Ja = o+ 31 [ dte J и, следовательно, <«6 (Δ) ΛΔ L «*n- JA = 0 οι L а^л- _|дв0 Воспользовавшись этими равенствами, приходим к выражению (46). Таким образом, если применим критерий относительной ошибки DJD*> то линейным приближением (44) можно пользоваться для малых интервалов времени Δ, удовлетворяющих неравенству D8 Д4 Л* Γξ (τ) > /ν/ D^ 4 dx* «1. (5.6.47) t=o Пример 5.6.2. Требуется определить производную процесса ξ (/), когда непосредственному наблюдению доступен процесс η (/) = I (0 + ζ (0. (5.6.48) где ζ (t) — шум. Пусть ξ (t) и ζ (f) — стационарные в широком смысле дифференцируемые случайные процессы с нулевыми математическими ожиданиями и из· вестными корреляционными функциями #* (τ) и R* (τ). Рассмотрим следующий способ оценки производной: V (0 = d\ (t)ldt ~ αη (0 + 6η (/ - Δ), (5.6.49) где Δ — достаточно малая величина. Постоянные а и Ь подберем из условия минимума дисперсии ошибки Dβ = Μ {[!' (0 -βη (0 -Ц (/-Δ)]·} = -Щ (0) +я* R4 (0) + 567
+ 62 #η (0)^UaRv η (0)-έ6#ξ,η,(Δ) +2аЬ^ (А). Приравняв нулю производные по а и b от правой части, для определения постоянных а и b получим систему из двух линейных уравнений ^η(0)+6^η(Δ)=/?|/η(0), α#η(Δ)+6#η(0) = /^, η(Δ). Отсюда находим а и 6, а затем и дисперсию ошибки. Если ξ (/) и ζ (/) не корре- лированы, то #η (Δ) = *ξ (Δ)+#ζ (Δ), /?ξ, η (Δ)=/?ξ, ξ (Δ)=*£ (Δ), /?ξ, η (0)=0. При этом = _ ^ /?-(Δ)/?η(Δ) и выражение для дисперсии ошибки принимает вид Οε=-#|(0)-6/^(Δ). Отсюда видно, что дисперсия ошибки зависит от Δ и для конкретно заданных корреляционных функции можно определить значение Δ, минимизирующее дисперсию. Однако для дифференцируемых процессов при малых Δ справедливы приближенные равенства #η (Δ) ~ #η (0) +R'^ (0) Δ»/2, Ц (Δ) ~ R^ (0) +tf| (0) Δ = /?| (0) Δ. На основании их получим а = -b ~ Я £ (Δ)//?' (0) Δ, De - [/? J (0) -Я* (0)] #| (0)/^ (0) = = —/?£ (0)[1+/?£ (0>//?| (0)]-i. (5.6.50) Если выполняется условие _/?£ (0) =Μ{[ζ' (/)j«}« м {[ξ' </>j»>——/г| (0), то a = —b~ 1/Δ, De=—/?£(0). 5.7. ЛИНЕЙНЫЕ ФЛЮКТУАЦИОННЫЕ ДИФФЕРЕНЦИАЛЬНЫЕ УРАВНЕНИЯ Пусть случайный процесс η (t) задан линейным дифференциальным уравнением n-го порядка с постоянными коэффициентами βΛη(Λ)(0 + βιι-ιη(,|-1)(ί) + ... + βοη(0 = 6(0. '>0> (5.7.1) где а, — постоянные величины; ξ (ί) — случайный процесс с заданными вероятностными характеристиками. Предположим, что начальные условия для η (t) нулевые: η (0) = η' (0) = ... = η(«- »> (0) = 0. (5.7.2) Так как ξ (t) — случайный процесс, то η (t) будет также случайным процессом, и поэтому дифференциальное уравнение (1) названо флюк- туационным. Линейное дифференциальное уравнение (1) описывает поведение некоторой линейной системы с постоянными параметрами. Случайный 568
процесс η (t) можно рассматривать как процесс на выходе этой системы, когда на нее, начиная с момента времени t = О, воздействует входной случайный процесс ξ (/). Ясно, что при заданных коэффициентах аг каждой реализации процесса ξ (t) будет соответствовать своя реализация процесса η (t), определяемая решением уравнения (1). Пусть требуется найти вероятностные характеристики процесса η (/). Принципиальные возможности решения данной задачи при помощи флюктуационных дифференциальных уравнений такие же, как при использовании импульсных характеристик (см. с. 488). В частности, компактное и точное решение можно получить для гауссовского процесса. Если ξ (t) — гауссовский процесс, то процесс на выходе линейной системы η (t) будет тоже гауссовским и дело сводится к вычислению математического ожидания и корреляционной функции процесса η (/)· Приведем здесь решение этой задачи: считая известными математическое ожидание т^ (t) и корреляционную функцию R% (tlt t2) процесса ξ (t), найдем математическое ожидание тц (t) и корреляционную функцию #η (tl9 t2) для процесса η (t). При фиксированном t каждый член в уравнении (1) есть случайная величина. Беря математическое ожидание от обеих частей и учитывая формулу (5.6.11), получаем anm{r]n\t) + an.1n^l-l)(t) + .^ + a0rnY,(t) = ml (/), (5.7.3) где /и, (0 = Μ {η (f)}, ml (t) = Μ {ξ (f)>. Поскольку согласно (2) начальные значения первых η — 1 производных η (/) равны нулю, то /ηη (0) = т^ (0) = ... == т^л— ° (0) = 0. (5.7.4) Таким образом, математическое ожидание, являющееся детерминированной функцией времени, определяется обычным линейным дифференциальным уравнением (3) с нулевыми начальными условиями (4). Методы решения таких уравнений известны. Зная правило вычисления математического ожидания, для упрощения записей примем, что в уравнении (1) фигурируют центрированные случайные процессы ξ (ί) и η (t), т. е. процессы с нулевыми математическими ожиданиями. Положим в уравнении (1) / = t2 и умножим обе части его на ξ (ίχ): ε(/ι)[αηη(π4ω + βη-ιη(Λ-!4ω+... + ^η(ω] = δ('ι)ξ(«. (5.7.5) Согласно формуле (5.6.13) можем написать д' Rtn (ti, to) М{6&)т|<'>(*,)>= 6η . , ί = 0, 1 λ — 1. Поэтому, взяв математическое ожидание от обеих частей равенства (5), получим У Я6„ Pi,*.) d«-iR^(tlit2) ап г°п-1 ■—: г ...-г dt\ dt\~x + ΑθΛδη(/1,ί,) = /?δ(/ι,/2). (5.7.6)
Чтобы задать начальные условия, умножим начальные значения (2) на Ι (/χ): ξ (/χ) ηθ (0) = 0, i = 0, 1, ..., η — 1. Беря математическое ожидание, находим начальные условия, при которых нужно решать уравнение (6): 3'#ξη(Ί>0)/5/'2 = 0, ί = 0, 1 л—1. (5.7.7) Запишем уравнение (1) для / = tx и умножим обе части его на [ап цМ ft) + ап.г η<— υ (/J + ... + αβ η ft)] η ft) = ξ (/x) η (t2). Взяв математическое ожидание, получим dnRn (tlt t%) ' дп~1 Rn{tlt t2) d/J Λχ * (5.7.8) На основании (2) имеем η<'> (0) η (t2) = 0. Операция математического ожидания дает начальные условия для уравнения (8): VRn (0, t2)ldt{ = 0, i = 0, 1, ..., п — 1. (5.7.9) Если математические ожидания процессов ξ (/) и η (/) не равны нулю, то в уравнениях (6) и (8) нужно заменить корреляционные функции на соответствующие ковариационные функции. Отметим, что хотя в (6) и (8) формально фигурируют частные производные, однако по существу каждое из них является обыкновенным линейным дифференциальным уравнением: первое относительно переменной /2» а второе относительно t±. Для получения интересующей нас корреляционной функции Rn ft, t2) нужно сначала решить уравнение (6), а затем (8). Комбинируя (6) и (8), можно получить диффе-- ренциальное уравнение, выражающее /?η ft, t2) непосредственно через #i (^i> ^2)· Однако ввиду громоздкости оно не приводится. Проиллюстрируем это на примерах. Пример 5.7.1· Нестационарный дробовой шум. Рассмотрим линейное флюк- туационное уравнение первого порядка -j^- + αη (0 = ξ (/), η (0) = 0, (5.7.10) где ξ (0 — стационарный в широком смысле процесс со следующими характеристиками: /τζξ(/)=λ, #ξ(τ)=λδ(τ), /(|(τ)=λ2+λδ(τ). (5.7.11) Можно показать [20], что такие характеристики имеет случайная последовательность дельта-импульсов, моменты следования которых распределены во времени по закону Пуассона с параметром интенсивности λ. Поэтому уравнение (10) определяет процесс η (/) на выходе интегрирующей цепи типа RC при воздействии на нее пуассоновских дельта-импульсов. Выходной процесс η (/) можно трактовать как частный случай дробового шума. На основании (3) и (4) имеем т^ (*)+α/7Ζη (t)=Xt /7Ζη (0)=0, и, следовательно, математическое ожидание выходного процесса равно (рис. 5.34, а) тц (t) =(λ/α) (1 -е~а0. (5.7.12) 570
Поскольку m^ (/) Φ О, то уравнение (6) для взаимной ковариационной функций между процессами ξ (/) и η(/) примет вид —^ ' +α^|η (*ι, к) = λ* + λδ Й-Щ, *ξη (tlt 0) =0. Отсюда получим %ϊ Λ, /2)=(λ2/α) (ΐ-β-αί·)+λβ-α<ί·-^>, t2>ti (5.7.13) График этой функции в зависимости от t2 (ПРИ фиксированном tx) изображен на рис. 5.34, б, а в зависимости от tx (при фиксированном t2) — на рис. 5.34, в. Подставив найденное выражение взаимной ковариационной функции в (8), для tx < t2 получим уравнение d\{tlt ЫШг+аК^Ци t2)=(Wa) (ι -е-«**)+%е~сс((2-и)> #η (0, tt) =0. -ff^ffl к! ЫУ Oil· ^~~ flj δ) δ) Рис. 5.34. Характеристики нестационарного дробового шума В этом уравнении t2 следует рассматривать как постоянную величину. Решение уравнения дается выражением Κη(*ί. ^) = (λ/α)2(ΐ~θ~α^)(ΐ-6-α^)+(λ/2α) χ χ е-сс (/,-<*) (! _е-2а'')· (5.7.14) При ^ > ί2 здесь нужно поменять местами tx и t2i так как Κη (tlt t2) = K (/2, /х). Корреляционная функция выходного процесса равна Λη (*ι. Ί) =*η Λ. « -*η Λ) % ft) = (λ/2α) e~a ('•τ-'») Χ Χ (1— е-20"1), *2>*ι· (5.7.15) Отметим, что хотя входной процесс ξ (f) был стационарен в широком смысле, выходной процесс η (t) нестационарен. Пример 5.7.2. Воздействие белого шума на колебательный контур. Пусть контур, составленный из параллельного соединения конденсатора емкостью С и катушки индуктивности с индуктивностью L и сопротивлением потерь R, включен в анодную цепь электронной лампы (рис. 5.35). Анодный ток лампы Ja (t) состоит из постоянной составляющей 1а и флюктуации η (t): Ja (t) = Ia + η (t). Флюктуации анодного тока лампы будем рассматривать как стационарный белый шум. Найдем корреляционную функцию для тока ξ (/) в индуктивной ветви. , Флюктуационный ток ξ (t) определяется линейным дифференциальным уравнением второго порядка: d? £ (/) dl· (t) —^ '-2α-^+ω02ξ(0=ω02Λ(/), a=/?/2L, a>J=l/LC, Λ» at (5.7.16) 571
где п (I) — гауссовский белый шум с нулевым математическим ожиданием и дельтообразной корреляционной функцией (5.3.2). Пусть начальные условия для уравнения (16) заданы в виде £(0)-ξο. <*ξ(0/Λ|/ = οβ&ί. (5.7.17) Эти начальные условия могут быть детерминированными (постоянными величинами) или случайными; в последнем случае должна быть указана начальная совместная плотность вероятности ρ (ξ0, Ιό). Будем пока считать начальные условия (17) детерминированными. Известно, что характер решения уравнения (16) зависит от вида корней характеристического уравнения, и различают три случая: 1) ω0 > α, решение колебательное (корни характеристического уравнения комплексные), 2) ω0 = α, предельно апериодическое решение (корни действительные и равные) и 3) ω0 < α, апериодическое решение (корни действительные и различны). Приведем сначала общие выражения и затем конкретизируем их применительно к трем перечисленным случаям. Воспользовавшись уравнением вида (5.7.3), находим условное (при заданных начальных условиях) математическое ожидание "Ί|» + ϋ.(βωί_β-ωί)]β-αί> t>Qj (5.7.18) 2ω J где ω = 1/α2—ω§. (5.7.19) В данном случае математическое ожидание не зависит от воздействующего шума и целиком определяется начальными условиями. Можно убедиться, что оно стремится к нулю при f-»- оо. Если ввести центрированный случайный процесс ξ0 (0 = 5 (0—т<. <. +' (0» slso» ςο то он будет удовлетворять тому же дифференциальному уравнению (16), формальное решение которого дается выражением ω2 t Γβ(α-ω)τ/2(τ)ίίτ_-β-(α + ω)τχ ■} χ \ e{a+(u)xn(x)dT I (5.7.20) Ό Пользуясь им и выполнив необходимые вычисления, получим общее выражение для корреляционной функции Д6С ^+τ)=Μ{ξ0(Οξο(^+τ)} = 0|β-α|τ| ich0T + -^shG)|ir|- [α α2 1 ch ωτ+— sh ω (2t -f | τ |) +'—7- (ch ω (2/ +| τ |)—ch ωτ) e-2af где 572 />0, (5.7.21) £>Ι=Ν0ω2/8α. (5.7.22)
Формулы (18) и (21) применительно к трем указанным частным случаям принимают следующий вид. 1. При ω0>α, ω = ~ΐ/<*2—ωο = 1®ι m.lt s,(O=^oCos01/+-2^:^LsinWl/)e-^, s I so» l0 \ ωχ / R^(t, ί+τ)=ϋξβ_α| τ| Jcoscu1t+— είηωχΙτΙ — — ( 1 +"ΠΓ | cos ωι τ -f— sin ωχ (2/-f | τ |) — —^-cos01(2i+|T|)]e-2ai}. ' (5.7.23) В стационарном состоянии (при t-+■ оо) #ξ (τ) =D| e~a i τ ' [cos щ τ + — sin ωχ | τ |V (5.7.24) Если выполняется неравенство ω0 > α, то в этих формулах можно полагать ω1^α 2. Если ω0=α, то m.It ,/(0 = [(l+aOlo+?^]e-ai, s I so. s0 /?ξ(/, / + T)=D|e-a'Tl[l+a|T|-(a|T| + +2a/ (1 +a | τ | +2a2 /2) e~2a']; / (5.7.25) в стационарном состоянии (при t ->- оо) /?|(T)=D|e-alT|(l+a|T|). (5.7.26) 3. При ω0<α, ω=~1/α2-—ω2, =ω2 ο^ξο+ξό _,_. Λ _αί mt , t t ' W = £° Ch ω2 ' + Sh ^ t Θ s I'so» s0 \ ω2 / R* (/, * +τ) =D. e_a ! τ * ( ch ω2 τ -f—— sh ω21 τ |- δ Ι ω2 α chu)2T + sh(u2 (2ί + |τ|) + α2 \ +-g- ch ω2 (2/ + | τ |) | e"2a<j; (5.7.27) в стационарном состоянии (при t ->- оо) /?ξ (χ) =Dg e~a ! τ ' ( ch ω2 τ+— sh ω2 | τ |Υ (5.7.28) Если выполняется неравенство a > ω0, то в последних формулах можно полагать ω2 ~ α. Из полученных результатов видно, что начальные условия входят только в выражения для математических ожиданий; корреляционные функции не зави сят от начальных условий. В том случае, когда начальные условия ξ0 и Ιό являются не детерминированными, а случайными величинами и для них задана совместная плотность вероятности ρ (|0> ξό)> формулы для корреляционных функций не изменятся, а приведенные выше выражения для математических ожида- 573
ний следует рассматривать как услоёные математические ожидания, полученные при фиксированных значениях ξ0 и |£. Безусловные математические ожидания теперь будут определяться осреднением приведенных выше выражений с совместной плотностью вероятности ρ (ξ0, ξό): ffli .«-J ί m 1\ ξ·, ξ, ежььбв)*бо«в. (5.7.29) Сюда следует подставлять свое выражение /я„ , (/) для каждого*из трех slso· so частных случаев. i(thla+n(tl |£ Рис. 5.35. Воздействие флюктуации тока лампы на колебательный контур Ц2 0,4 0,6 0,8 1,Z Ifi ω/ω0 Рис. 5.36. Вид относительных спектральных плотностей Воспользовавшись формулой (5.2.19), можно убедиться, что спектральная плотность стационарного флюктуационного тока ξ (/) во всех трех случаях равна с (0))=-^- . < . (5.7.30) На рис. 5.36 показан характер относительных спектральных плотностей 5| («)/Sgmax для трех указанных случаев. Если интересоваться не током ξ (/), а случайным напряжением на колебательном контуре t\(t)=L d%{t) iff -Rl (0 -4 ML dt -2αξ(0 ]· (5.7.31) to, пользуясь правилами дифференцирования случайных процессов, установленными в § 5.6, и полученными выше выражениями, нетрудно найти математические ожидания и корреляционные функции для гауссовского случайного процесса η (/). Так, в первом случае (ω0 > α) корреляционная функция напряжения η (/) в стационарном состоянии согласно (24) равна VT)=L2[ · **tw dt* ■Αα?Κχ(τ) ]-D„.-M[. cos <ох τα (ο)|— 3α2) ω1(ω21+5α2) Χ sina^lTM» Οη = (ω!+5α2)ί,2£ξ. (5.7.32) Можно убедиться, что случайный ток ξ (t) с корреляционной функцией (24) является дифференцируемым, а случайное напряжение η (/) с корреляционной функцией (32) — недифференцируемым. 574
е-*, I e-2a<, В заключение приведем для первого случая (ω0 > α) выражение совместной условной плотности вероятности ρ (ξ (t)t ξ'ίΟΙδοδό) Для процесса I (t) и его производной ξ' (t) в совпадающие моменты времени при заданных начальных условиях. Это выражение дается формулой (5.6.30), в которой применительно к данному примеру, как нетрудно убедиться, нужно положить /rag (t) = тг &§ ^ (0 = lo [cos ωχ *'+-^7 sin ω* Ч +(^г) sirru)l ' β ι δο» s0 |_ ωχ + ξ0' (cos ωχ *—— sin^HΠ е~а*9 /α α2 \ γ2 (/) = ι _Μ + sin 2ωχ * +2 —τ- sin2 ω^ - Λ ωχ ω| / v2(/) = i_/ri__-5Lsin201^ + 2-^-sin201^e--2af, (5.7.33) \ ωχ ω| ) , Ί W = а 2Γ° ^ е ~2αί s*2 ωι ί. ωίγ(0γχ(0 В стационарном состоянии (при t ->- oo) отсюда получим mg=mx=0, or|=D|, σϊ=ω2£ε, гх=0, rj=—ω2. (5.7.34) 5.8. О ПЕРЕСЕЧЕНИЯХ ГАУССОВСКОГО СЛУЧАЙНОГО ПРОЦЕССА Во многих прикладных задачах нужно знать различные вероятностные характеристики, связанные со случайными точками fj, в которых случайный процесс ξ (t) пересекает горизонтальную прямую ξ = h: ξ (fy) = Λ. Здесь мы получим некоторые простые приближенные результаты для непрерывных гауссов- ских стационарных процессов ξ (t) с нулевым математическим ожиданием (т* = 0) и известной корреляционной функцией #* (т) = R (τ) = Dr (τ) в основном при h = 0. Итак, пусть Λ = 0. Возьмем два момента времени t и / + т. Очевидно, что если 6 (0 6 (* + *)< 0, (5.8.1) то число нулей кривой ξ (/) в интервале (/, t + τ) должно быть нечетным (рис. 5.37, а). Обозначим через рн (τ) вероятность того, что процесс ξ (t) имеет нечетное число нулей в этом интервале. Тогда Рн (τ) = Ρ {Ι (0 g (* + τ)< 0}. (5.8.2) Для гауссовских процессов согласно формуле (3.3.25) имеем" Pa 00 = β/π или cos [πρα (τ)] = г (τ), (5.8.3) где cos β = г (τ), 0 < β < π. Если рч (τ) — вероятность четного числа нулей процесса ξ (/) в интервале (t, t+x)t то рч (τ) = Ρ {ε (0 ε (* + τ) > 0} = 1 - (β /π). (5.8.4) зпустить, что в PnJf) & Pi (0* При малых τ естественно допустить, что в рассматриваемом интервале мо жет быть не более одного нуля: 575
т. е. можно пренебречь вероятностью наличия более одного нуля по сравнению с вероятностью рг (τ) наличия только одного нуля. При этом сама вероятность Ρι (О будет много меньше единицы. Ограничившись в разложении косинуса пер - выми двумя членами, из (3) получим 1— n*pl (т)/2~г(т) или Ρι(τ)~(\/π) 1/2 [1— г (τ)\. (5.8.5) Поведение рг (г) при малых τ оказывается качественно различным для дифференцируемых и недифференцируемых корреляционных функций. Пусть корреляционная функция дифференцируема. Тогда вследствие четности корреляционной функции г(т) = 1+г;х»/2+..., г£ = ^г(т)Л*т2|т = (). Пренебрегая здесь слагаемыми с высшими степенями τ, из (5) получаем /Мт)£*тУ=7;/я. (5.8.G) t t+V θ) Рис. 5.37. К вычислению нечетного числа пересечений Следовательно, при малых τ вероятность наличия одного нуля дифференцируемого стационарного процесса пропорциональна τ. Такое поведение позволяет ввести параметр интенсивности нулей λ: (5.8.7) Ρι(τ)~Κτ, λ=ν—rj/π. Записав выражение для г£ через спектральную плотность S (ω) стационарного процесса ξ (/), для параметра λ получим формулу оо I оо λ2 = J ω* S (ω) do) / π2 J S (ω) OO f 00 άω . (5.8.8)! Рассмотрим случай, когда первая производная в нуле /*ό имеет разрыв (например, нормированная корреляционная функция г (τ) = ехр (— α|τ|)). Если ввести правостороннюю производную от г (τ) в нуле τ->0 Γ(τ)-1 τ >0, то можно написать г (τ) = 1 + r'Q+ τ + ... Пренебрегая слагаемыми с высшими степенями τ, на основании (5) получаем Л(т)£*1/-2г;+т/я. (5.8.9) Теперь нельзя говорить о параметре интенсивности нулей, поскольку при τ -*0 . вероятность рг (τ) стремится к нулю как Τ/τ. Формулы (5) и (9) обобщаются на произвольный уровень И. Так если обозначить рх (h, τ) вероятность наличия одного пересечения процесса ξ (/) с гори- ( зонтальной прямой l=h (рис. 5.37, б), то эти формулы примут соответственно нид Ρι (Α, τ) ~ (τ T/-rJ/Ji)exp (-/г2/2D), Pl (/г, τ) ~ (Τ/-2Γί+τ/π) ехр (-/*2/2D). 576
Доказательство приведенных формул для малых τ базируется на соотношении (3.3.27): • Λ(Λ.τ)=Ρ{β(0-Λ]β(ί+τ)-Λ] <0l~P{l(t)l(t+T)\<0}exp(-h*/2D). Формулу (7) с небольшими изменениями можно применить к максимумам стационарного гауссовского дважды дифференцируемого случайного процесса ξ (/). Для этого вместо исходного процесса ξ (t) нужно рассматривать его первую производную ξ' (/) = d% (t)ldt. Процесс ξ (/) в интервале (t, t + τ) имеет максимум, если ξ' (/) > 0 и ξ' (/ + τ) < 0. Ограничиваясь рассмотрением малых τ и пренебрегая наличием в малом интервале более одного максимума, для вероятности наличия одного максимума можем написать ^ (τ) ~ Ρ {£'(')> 0, VV + x)<Qi} = (\l2)P{l>(t)V(t + x)<0}. Поскольку процесс ξ'(/) гауссовский и имеет корреляционную функцию R^, (τ) = = — #1 (т)= — R" (χ) — — Dr" (τ), то на основании формулы (3.3.25) имеем cos pjifr (т)] = Яг (x)/Rr (0) = r" (T)/rJ. Поступая далее так же, как при выводе формулы (5), получаем ^(т)-(1/2я)тУ-г&*>/г£, г&4> = #г (τ)Α*τ4|τ = ο. (5.8.10) Если ввести параметр интенсивности максимумов, т. е. записать qi (τ) = μτ, то оо оо 1 Κί> μ* = · (2π)2 ^V= Г ω4 5 (ω) άω/(2π)* Γ ω25(ω)<ίω· Вычислим вероятность наличия по одному нулю в двух малых примыкающих временных интервалах. Для этого предварительно найдем условную вероятность рн (τ) того, что случайный процесс ξ (/) имеет нечетное число нулей внутри интервала^, t + x) при условии, что ξ (t)=0 (рис. 5.38). Покажем, что эта вероятность определяется соотношением cos[npH(T)] = ~r'(T){-ri'[l~rMT)]}-1/2. (5.8.11) Действительно, нетрудно прийти к заключению, что условие наличия нечетного числа нулей процесса при указанных ограничениях эквивалентно выполнению неравенства |' (/) ξ (/ + τ) <0. Следовательно, Рн!(т)=Р{£Ч0 U'+τ) < 0|ξ(0=0}. Введем формальные обозначения ξι = ξ (t), ξ2 = I (t + τ), ξ3 = £'(0· Случайные величины \±, ξ2, ξ3 являются совместно гауссовскими и имеют нулевые математические ожидания. Поэтому условная плотность вероятности ρ (ξ2, ?з Ι £ι) будет нормальной с нормированной корреляционной функцией 7/=Μ{ξ2ξ3Ιξι}[Μ{ξ1|ξ1}][Μ{ξΙΙξί}]^1/2. Если записать выражение для р^ (τ) в виде /£(τ) = Μ{ξ2ξ3<0|ξϊ = 0}, то на основании формулы (3.3.25) имеем cos[npR(x)] = r. Укажем, что R12 = Μ {U ξ2} = Dr (τ), Я13 = Μ {li ξ3} = 0, Поэтому применительно к рассматриваемому случаю формулы (1.4.60), (1.4.61) принимают вид 19 Зак. 956 577
Μ{Ιί|6ι = 0) = £>[1-Γ·(τ)], Μ{ξ||ξ1=θ} Ότ%, *{bblii=o}=-Df(T). Подстановка этих выражений в формулу для г приводит к (11). Получим теперь условную вероятность рн (τ, τ + ε) наличия нечетного чис-* ла нулей процесса ξ (t) в интервале (t + τ, t + τ + ε), считая по-прежнему ξ (0 = 0 (рис. 5.38). Очевидно, что Рп (τ, τ + β) = Ρ {ξ (* + τ) ξ (* + τ + е) < 0 | ξ (0 = 0}. Эта вероятность находится так же, как выше. Введя обозначения Ιι = δ (0, £> = lif + τ), ξ, = ξ (* + τ + ε), имеем R13 = Dr(T), Rz3 = Dr(8), tf 33 = D, Μ{ξΙ|ξ1 = 0) = ϋ[1-Γ·(τ+β)], Μ{ξ1ξ,|ξ1 = 0} = ϋ[Γ(β)-Γ(τ)Γ(τ+ι)]. Следовательно, r (ε) — г (τ) г (τ+8) «,ΚΡΚτ,τ + β)]- V[1^w];,^(T)+e)1 . (5.8.12) Формулы (11) и (12) при малых τ и ε позволяют оценить вероятности наличия по одному нулю процесса на примыкающих интервалах, а также составить некоторое представление о величине временных интервалов между соседними нулями стационарного гауссовского процесса. В заключение приведем решение следующей практической задачи. Пусть на пороговое устройство типа электронного реле воздействует сумма детерминированного импульсного сигнала 5 (t) и помехи ξ (t) малой интенсивности. Считаем, что пороговое устройство является безынерционным: оно срабатывает каждый раз, когда воздействующее напряжение превышает некоторое пороговое значение Я. Пусть в отсутствие помех реле срабатывает от полезного импульса s (t) в некоторый момент времени t0 (рис. 5.39), определяемый равенством s (t0) = Η, При наличии помех ξ (t) реле сработает в другой момент времени t'Q — t0 + Δ, где Δ — смещение момента срабатывания реле. Ясно, что смещение Δ является случайной величиной, разной для разных реализаций помех. Предположим, что помеха £ (/) представляет собой стационарный гауссов- ский дифференцируемый процесс с заданной совместной плотностью вероятности Ρ (£> £') для процесса ξ (t) и его производной \'(t) в один и тот же момент времени. Поскольку воздействующие помехи ξ (t) предполагаются малыми, то смещение Δ будет тоже малой величиной. Для малых значений Δ функции s (t) и ξ (t) можно разложить в ряд Тейлора в окрестности точки t0 и ограничиться линейными относительно Δ членами (линейное приближение): s\(t0+A)~s(t0)+siA, sb = s'(t0)=ds(t)/dt\t=t., (5.8.13) ξ(/ο+Δ)^ξ(/0) + ξ'.(«Δ.ξ'(«««(0/Λ|ί-<.· Под Sq понимается крутизна фронта импульса s (t) на уровне Я. При фиксированной производной ξ' (/0) реле сработает, если выполняются два неравенства: 5 (/0) + I (*о) < Η и s (t0 + Δ) + ξ (t0 + Δ) > #.j С учетом линейного приближения отсюда следует, чтс H-8(t9)-[8i + l'(t0)Ui<Hto) <H-s(t0). (5.8.14) Эти неравенства могут выполняться совместно только при условии ξ'(«>-*ί. (5.8.15) Зная совместную плотность вероятности ρ (ξ, ξ') с помощью неравенств (14) и (15) можно записать выражение для вероятности Ρ пересечения уровня Η в интервале времени Δ: 578
H—s P= J dV J P(l,V)dl (5.8.16) tf-s-s'A-l'A Для стационарных случайных процессов с независимой производной (5.6.24)» т. е. при ρ (g, ξ') = Ρξ (g) Ρξ,(ξ')» эта формула принимает вид Р= } pv(l')dl* f Pl£)dl. Учитывая малость смещения Δ и применяя к внутреннему интегралу теорему о среднем значении, получаем Р=А^(Я-5(/0)) J « + ξ')/ν (&')<£'. (5.8.17) о s(t)+%(t) Рис. 5.38. К вычислению пересечений на примыкающих интервалах Рис. 5.39. Нестабильность срабатывания реле из-за помех Применительно к стационарному гауссовскому случайному процессу £(/) эта формула согласно (5.6.25) примет вид Р=Др|(Я-5(/0))[5о'ф(-^-)+^^-ехр(--^-)], Ог = УЩ', (5.8.18) где р+(х) — нормальная плотность вероятности (2.5.13); Φ (χ) — интеграл вероятности. В качестве количественной характеристики нестабильности момента срабатывания реле из-за помех естественно принять дисперсию D д случайной величины Δ. Однако при определении ее мы сталкиваемся со следующей трудностью. Выражение (18) определяет вероятность наличия пересечения уровня Η лишь в малом интервале (t0, t0 + Δ), а для вычисления DΔ нужно знать плотность вероятности случайного смещения времени срабатывания реле ρ (Δ) для любых Δ· Допустим, что можно выделить интервал времени (tlt t2)t для которого вероятность наличия ровно одного «положительного» пересечения уровня Η близка к единице. Тогда плотность вероятности ρ (t) можно доопределить следующим образом: р(0 = Р,(Я-5(0)[^ф(^)+^ехР(^^)],^ <t<U о, t<tit t>t2, 1 (5.8.19) причем t± и t2 должны быть такими, чтобы выполнялось условие нормировки p(t)dt = \t 19* (5.8.20) 579
Очевидно, что этим равенством величины ίχ и t2 определены неоднозначно. Введем среднее время срабатывания реле относительно выбранного начала t=]tp(t)dt. (5.8.21) Тогда tx и t2 можно доопределить равенством Τ U | p(t)dt=§ p(t)dt. (5.8.22) U 1 Теперь tx и t2 должны находиться как результат последовательного решения системы уравнений (20—22). Применимость формулы (19) можно оценить следующим образом. Если на интервале Δ имеется более одного пересечения уровня Я, то должно быть по крайней мере одно пересечение уровня Я сверху вниз. Повторив рассуждения, приведшие к формуле (IS), нетрудно убедиться, что вероятность такого исхода равна -sQ' tf-s-s'A-l'A />-= J d\> ] p(bV)dl. . — oo Η — S Применительно к гауссовскому стационарному процессу ξ (/) вместо (19) получим (5.8.23) Очевидно, что если справедливо неравенство :/ p~(t)dt<^\. 0<J P~(t)dt <^\9 (5.8.24) то можно пользоваться формулой (19). При этом дисперсию времени срабатывания реле находим по обычной формуле DA=f (*—~t)*p{t)dt. (5.8.25) ί Из (19) и (20) следует, что (5.8.26) С учетом (23) и (26), а также равенства Φ (*) + Ф(— х) = 1 условие (24) принимает вид U 0 < 1 — J s'u рг (H—s (/)) dt <g 1. (5.8.27) Если интенсивность помехи очень мала и можно считать p"(t) = 0 в интервале itf* h)* то справедливо равенство «·(--£)-. Tfc-4-З-)· £80
При выполнении этого равенства формула (19) упрощается: '4si's,r,,,,;<',:'<>;:: 5.9. ВОЗДЕЙСТВИЕ ИМПУЛЬСНЫХ СЛУЧАЙНЫХ ПРОЦЕССОВ НА ЛИНЕЙНЫЕ СИСТЕМЫ Формулировка задачи о преобразованиях импульсных случайных процессов линейными системами остается такой же, что и для других случайных процессов. Если известна ковариационная функция исходной случайной последовательности импульсов, то для определения ковариационной функции процесса, получающегося на выходе линейной системы с заданной импульсной характеристикой, следует воспользоваться формулой (5.2.5). Гораздо сложнее решается задача определения плотности вероятности выходного процесса. Физически ясно, что при воздействии на линейную инерционную систему случайной последовательности как неперекрывающихся, так и перекрывающихся импульсов процесс на выходе системы в каждый момент времени будет представлять со· бой результат весового суммирования перекрывающихся импульсов* появляющихся до рассматриваемого момента времени. При аналитическом определении плотности вероятности выходного процесса применяются два метода: последовательное вычисление мо- ментных или кумулянтных функций на выходе линейной системы по формулам (5.2.3), (5.2.4) с последующим восстановлением по ним приближенного выражения платности вероятности на основании (1.3.45) и (1.2.23); использование аппарата марковских процессов. Реализация первого метода сопряжена с некоторыми вычислительными трудностями. Во-первых, предварительное определение момент- ных или кумулянтных функций по обычно задаваемым вероятностным характеристикам исходного импульсного случайного процесса оказывается сложным и громоздким. Во-вторых, процедура вычисления мо- ментных или кумулянтных функций высокого порядка процесса на выходе системы является трудоемкой. В-третьих, получаемое выражение плотности вероятности выходного процесса в виде ряда неудобно. Лишь в некоторых частных случаях таким путем удается получить компактное выражение для плотности вероятности (см. пример 5.9.1). Метод марковских процессов применим тогда, когда процесс на выходе системы может быть сведен к дискретно-непрерывному процессу, описываемому уравнением Колмогорова—Феллера. Он оказывается результативным, как правило, лишь в случае линейных систем, описываемых дифференциальным уравнением первого порядка с постоянными коэффициентами (см. пример 5.9.2). Если входной импульсный процесс имеет вид профильтрованного пуассоновского процесса, то выходной процесс будет такого же вида и для него выражения одномерной и двумерной характеристических функций определяются формулами (2.7.83) и (2.7.84), в которые нужно подставить конкретные выражения функций h (t, τ, ζ) (см. пример 581
5.9.3). Проиллюстрируем методику применения указанных трех методов на простых частных примерах. Пример 5.9.1. Воздействие случайного симметричного двоичного сигнала на интегрирующую цепь RC [44, 186,187]. Найдем стационарную плотность вероятности для процесса η (/) на выходе интегрирующего #С-фильтра (рис. 5.40), когда на его вход воздействует случайный двоичный сигнал ξ (/) (см. пример 2.2.2). Сигнал ξ (/) в любой момент времени / может принимать одно из двух значений хг = 1 и х2 = — 1с одинаковыми вероятностями ρ (хг) = ρ (х2) = = 1/2. Моменты скачков (перемен знака) распределены по закону Пуассона, т.е. вероятность получения η скачков на временном интервале длительностью τ определяется формулой (2.7.24): ρη(τ)=(ντ)η*-™Ιη\\ я = 0, 1,2, (5.9.1) Щ ψϊ 0 4= Ч® -fh ι 1 гт ΓΙ I I I 1 I 1 ί L-J LJ Рис. 5.40. Воздействие случайного симметричного двоичного сигнала на интегрирующую цепь RC Согласно (5.2.1) процесс η (/) на выходе цепи в стационарном состоянии определяется выражением r[(t)=l h(u)\{t—u)du9 (5.9.2) где h (и) = ае~а"; а = 1/RC — импульсная характеристика /?С-фильтра. Поскольку математическое ожидание рассматриваемого случайного симметричного двоичного сигнала %(t) равно нулю, то Μ {η (/)} = 0. Поэтому начальные и центральные моменты процесса η (t) совпадают; согласно (2) они равны mk = M{r\k(t)}=j .. .J h(u1)..^(uk)M{l(t-u1)...l(t--uk)}du1..mcluk. о о (5.9.3) Считая входной процесс ξ (t) стационарным и учитывая, что ^-мерная моментная функция зависит только от k — 1 временных интервалов, можем написать M{S('--"i) .··£('—Mfc)} = «fc-i(Mi—«я, «i—w3» ...,«i—uk). (5.9.4) Докажем, что (г + 1)-я моментная функция Μ {ξ (0 I (t + ut) ... ξ (t + ur)} = mr («ι, «2, ..., ur) (5.9.5) в области значений аргументов — оо < иг < и2 < ... < иг < оо (5.9.6) или наоборот равна fexp [—2v (I u± l—l «2 | + 1 «з I— · · · +1 "г 1)1» г—нечетное, 0, г—четное. (5.9.7) 582 ffir ( и±, ...,«г)= j
В других областях, получаемых нерестановкой переменных в цепи неравенств (6), тг дается соответствующими перестановками в правой части (7). Воспользуемся методом математической индукции. На основании (2.2.64) формула (7) справедлива при г = 1. Допустим, что формула (7) справедлива при г =я, где η — целое нечетное число. Покажем, что она будет справедлива и при г = η + 2. Обозначим ξ (/) = ξ0, ξ (t + щ) = ξ?, ι = 1, 2, 3, ..., г. Пусть — оо < иг < и2 < ... < йл+2 < оо и «Л+1 > 0. При этих условиях из записи следует, что значения ξ0>····» ίη находятся левее временного интервала (/+«w+i» t-\- un+2)· При этом число скачков процесса ξ (/) в этом интервале не зависит от значений ξ0, ..., ζη. Поэтому Μ{ξ0ξι...ξη+·} = Μ{ξ0ξ1...ξη}Μ{ξΙΙ+1ξη+1}=:βχρ[--2ν(|%|4«·Ι + +... +1 «η I)] exp [—2v | ип+2—«Л-И |] =exp [—2v (| «i | — | "a I + · · · + I "n+21)] · Если «n+1 < 0, то Μ{ξοξί...ξη+2} = Μ{(ξ1ξ2)(ξ0ξ3...ξη+2)} = Μ{ξ1ξ^Μ{ξ0ξ3...ξη+^== = exp [—2v | «χ—«a |] exp [—2v (| us | — | «41+ ... +| un+2 |)] = = exp [—2v (| «i |—| «2 | +1 «31 —... +1 un+2 |)]. Следовательно, формула (7) верна для любого нечетного числа г> 1. Если г — четное число и иг > 0, то Μ{ξοξι...ξΓ} = Μ{(ξ0ξ1...ξΓ.1)ξΓ} = Μ{ξ0ξ1...ξΓ_1}Μ{ξΓ}=0. так как Μ {ξ (/)} = 0. При иг < 0 получим Μ{ξαξι...ξΓ} = Μ{ξ1}Μ{ξ0ξ2...ξΓ} = 0. При любой перестановке аргументов в последовательности неравенств (6) применимы аналогичные рассуждения после надлежащих перестановок сомножителей под знаком математического ожидания, приводящие к соответствующим перестановкам слагаемых в показателе экспоненциальной функции в правой части (7). Сопоставляя выражения (4) и (5) и учитывая (7), получаем, что в области значений аргументов 0<uk<uk-i< ... <«1<оо (5.9.8) справедлива формула (ехр [—2v (иг—«2+ ... —«ft)]> &—четное, 0, к—нечетное. (5.9.9) Для такой области значений аргументов правая часть выражения (3) при k четном принимает вид α*ί duA duA d*h--· f exP [—2v(«i—«2+...—«ft)—a(«! + ...+uk)]duh) 0 0 0 0 при k нечетном она равна нулю. Заметим, что интеграл (3) берется по первому «квадрату» ^-мерного простран - ства переменных и^. Его можно разбить на k\ подобластей, каждая из которых определяется перестановкой переменных щ в системе неравенств (8). Каждая из таких подобластей дает одинаковый вклад в интеграл (3), так что mk = akk\] dui ... f exp[—2v(«i—«2+...— «ft)— а(и±+...+uk)]duk о о . при k четном и тъ = 0 при k нечетном. 583 м {ξ (^—Wl) ·.. ξ (/—ttfe)}= |e
Выполнив вычисления (например, пользуясь методом математической индукции), при k четном окончательно получим (k!2)\2k/2 ДД 2i— 1 + 2ν/α (*-!)» - (5.9.10) (1 + 2ν/α) (3+2ν/α)... (k — 1 + 2ν/α) В частности, дисперсия процесса η (/) равна 1>η = m2 = 1/(1 + 2ν/α). Убедимся теперь, что моментам (10) соответствует плотность вероятности Р(У)- Γΐ!/α + ϊ/2). (1-Λ<ν/«)-«, |у|<1. (5.9.11) У я Г (ν/α) где Г (я) — гамма-функция. Действительно, поскольку эта плотность вероятности есть четная функция относительно у, то все моменты нечетного порядка равны нулю, а для моментов четного порядка получим Γ(ν/α+1/2) f "*'1-"2^<v/α)-I< Уπ Γ (ν/α) Г yk(l-y*){v/a)-ldy = Г (ν/α + 1/2) ί\(*-υ/2(1_2)(ν/α)-1^ = Τ/π Γ (ν/α) _ Г (ν/α+ 1/2) Г (6/2+ 1/2) Г (ν/α) Τ/π~Γ(ν/α) ' Г (Л/2 + 1/2+ ν/α) (Л? — 1)!! = = ffiu , (1+2ν/α) (3+2ν/α)...(£ — 1+2ν/α) Следовательно, плотности вероятности (11) соответствуют моменты (10). Единственность представления плотности вероятности (11) по моментам (10) следует из того, что случайный процесс η (/) на выходе цепи RC ограничен (см. с. 54). Укажем, что рассматриваемую задачу можно решить другим методом, а именно применением обобщенного уравнения Фоккера — Планка — Колмогорова и последующим решением его [44]. Естественно, что при этом получается тот же результат (11). ~" Пользуясь асимптотическими и частными значениями гамма-функции при частных значениях параметра ν/α, выражение плотности вероятности (11) может быть упрощено. Некоторые из таким образом полученных результатов приведены в табл. 5.7 [186]. Пример 5.9.2. Воздействие пуассоновских дельта-импульсов на интегрирующую цепь RC [188]. Предположим, что нас интересует плотность вероятности для напряжения η (/) на конденсаторе С (рис. 5.41), когда на вход интегрирующей цепи RC воздействует случайный импульсный процесс ξ (/) = Σ А$ (t — tt)r i где δ (χ) — дельта-функция, ί·τ — момент появления ί-го импульса. «Амплитуды» импульсов считаются взаимонезависимыми случайными величинами с плотностью вероятности ри(Л); моменты появления импульсов ^ не зависят от амплитуд Л^ и описываются законом Пуассона (1). Дифференциальное уравнение, определяющее напряжение на конденсаторе, имеет вид 584 м +αη=α Σ ^ι δ (/—**), a = \/RC, t>tt. (5.9.12)
Таблица 5.7 Плотности вероятности при разных значениях ν /α Значение параметра ν/α Аналитическое выражение плотности вероятности р(у) График р(у) V α Р(г) =VfFexp(-T)' Л0 fa /иг У °'1 ■ι f^l Г ~ \ - \ ,.., .1 1^*1- "3 ~ζ -ι ο ι г j Ζ=1/ΦΝβ V α Ρ (1/) = — (1-ί/2), Ш<* _ν 3_ α ~ 2 Р(У)=— Τ/ΐ-ί/2>Ιί/Ι<1 я -/ 0 'у α ρ (</)=—. ΙιΜ<ι -/ 1 У ν —<1 α ОС Пусть начальное напряжение на конденсаторе равно η (0) = η0. Записываем об* щее решение этого линейного уравнения Л(0=%ехр (—α/)+α 2 ^ ехр [__а (/_/.)], t>t.t (5.9.13) где % — случайное число импульсов, появившихся до момента времени / включительно. 585
Характер изменения процесса η (/) во времени показан на рис. 5.41. Между дельта-импульсами происходит плавное уменьшение напряжения, а в момент появления очередного импульса с амплитудой At напряжение скачком увеличивается на величину аЛ$. С учетом (1) и (12) уравнение Колмогорова — Феллера (2.6.142) для рассматриваемого примера принимает вид д .. . д — ρ (/, η)=α — [η ρ (/, η)]—νρ (*, η) + + iWM^K (5.9.14) ЧЩ Vo At R Щ О tg tf 'ί/ \ t с 4= ψ) По К К LN4H1 Ν 0t0 ti,rti Τ Рис. 5.41. Воздействие пуассоновских дельта-импульсов на цепь/?С Решим это интегро-дифференциальное уравнение при помощи преобразования Фурье. Для этого введем характеристические функции оо оо θ (ί, Ω)= j" ρ (/, η) eiQtldn, βΑ (Ω)= J" £д (А) е'йл dA. (5.9.15) ОО —00 Умножив обе части уравнения (14) на exp (j Ω η) и проинтегрировав по η в бесконечных пределах, получим следующее дифференциальное уравнение в частных производных для характеристической функции θ (/, Ω): — θ (/, Ω) = — «Ω — θ (/, Ω)+ν[θ^ (αΩ) — 1] θ (/, Ω). [(5.9.16) Положим Тогда из (16) имеем Ψ (U Ω) = exp [Ψ (/, Ω)]. д -jfi-V(t, Ω)+αΩ-^-Ψ(ί, Ω)=ν[θ^(αΩ)-1]. (5.9.17) (5.9.18) Общее решение этого неоднородного уравнения можно искать в виде суммы частного решения уравнения (18) и общего решения однородного уравнения д Ψ(/,Ω)+αΩ-^- Ψ(/, Ω)=0. (5 9.19) dt dQ Допуская существование стационарного распределения, возьмем в качестве ■частного решения уравнения (18) функцию Ψδ* (Ω), соответствующую стационарному состоянию и потому не зависящую от времени. Полагая в (18) άΨ/dt = О, записываем решение Ω ψβ# (Ω)=ψδ* (°)+v J4" [Θα (αχ)~ιιdx· 586
Из первой формулы (15) и равенства (17) следует, что всегда (в том числе и при t-* оо) выполняется равенство θ (t, 0)=βχρ[Ψ (/, 0)] = 1. Поэтому Ψβ*(0) = 0 и Ψδί (Ω)=ν Γ ±-[*α (**)-П dx* (5·9·20> о Заменив переменную и = 1η Ω, убедимся, что общим решением уравнения (19) является произвольная функция F: ψ(/, Q) = F(Qe-a<). (5.9.21) На основании (20) и (21) записываем общее решение уравнения (18) Ψ (/, Q)=F(Q β~αί)+Ψβ* (Ω). (5.9.22) Конкретный вид функции F (·) определяется начальным условием. Действительно, согласно (17) и (15) «начальная» функция ψ(0, Ω) = ψ0 (Ω) задается начальной плотностью вероятности ρ (0, η) = р0 (η). В частности, если р0 (η) = = δ (η — η0), το θ0 (Ω) = exp (j Ωη0). При этом решение (21) дает характеристическую функцию для плотности вероятности перехода. Полагая в (22) / =^ 0, находим ^(Ω)=Ψ0(Ω)-Ψδί(Ω). Таким^образом, приходим к общему решению уравнения (18) Ψ (/, Ω)=Ψδί (Ω) + Ψ0 (Qe-at)-W8t(Qe-at). (5.9.23) Согласно (17) записываем выражение для характеристической функции _ ехр [Ψ- (Ω)] ехр [Ψ0 (Ω e-«Q1 _ B8t (Ω) t expWstiQe-**)] Bst (Q e~ai) (5.9.24) Подставив сюда выражение (20), получим Ω Θ (/, Ω)=βχρ Jv Γ —[βΑ (αχ) — 1] dx\ θ0 (Ωβ"-06*). ι =exp iv \ —[βΑ (αχ) — 1] dx\ θ0 [ Ωβ~α* ) Перейдем к новой переменной интегрирования у согласно равенству χ = = Ω ехр(— ay). Тогда θ (/, Q)=h (t, Ω) θ0 (Ωβ~α0, (5.9.25) где h (/, Ω) = βχρ |ν ]\ βΑ (αΩβ-0^)—1] έΜ. (5.9.26) Запишем окончательные выражения для стационарной и двумерной плотностей вероятностей интересующего нас процесса η (/). Выше указывалось, что при дельтообразном начальном условии р0 (η) = δ (η — η0) выражение (25) дает характеристическую функцию плотности вероятности перехода π (t, η | 0, η0) = = π (/, η | η0). Взяв обратное преобразование от (25), можем написать оо я (*· η Ι ηο) = -Γ~ { h (** Ω) Θο (Ωβ^α<) e-j^ dQ. (5.9.27) 2я J шт оо 587
Заметим, что в данном случае оо Θ0(Ω)= J %-rk))eJQt'^=exp(jQr)o). — оо Следовательно, θ0 (Qe-a0 = J δ (η-η0 e~a0 β*Ωη ^ = exp (]Ωη0 e~a0. (5.9.28) 00 Исдользуя обозначение 00 ^(/,'η) = ^- f h (t, Ω) e~mdQ (5.9.29) *m 00 и подставляя (28) в (27), получаем я (t, η|ηο)=<7 (t, η-% β"0*). (6.9.30) Если задана произвольная начальная плотность вероятности р0 (η), то одномерная плотность вероятности процесса η (t) находится по формуле fc оо оо Ρ (tf η) = J Po (Ло) η (t, η 1^) ащ = j* A> (Ло) Я (*. η—% e^a0 rfifc. — оо к— eo (5.9.31) Отсюда видно, что ρ (t9 η) при / -*· оо стремится к пределу, являющемуся стационарной плотностью вероятности ρ8ι (η), которая не зависит от начального распределения, Pst (η) = <? (», η). (5.9.32) Воспользовавшись выражениями (15) и (29), запишем окончательное выражение для стационарной плотности вероятности p8t(ri) = ~ Г e^JQr4Qexp Ivjdyl J рл (А) ехр (j Q4e-a")<ii4-l 00 L (5.9.33) Если в качестве начальной плотности вероятности взять стационарную плотность вероятности p8t (η0), то процесс η (/) при / > О будет стационарным. При этом двумерная плотность вероятности равнг р2 (*. η, %)=Pst Μ Я (*· η-ηο e~a0- (5.9.34) Из (33) видно, что даже в рассматриваемом простейшем частном примере выражение для плотности вероятности оказывается довольно сложным. Получим более простое выражение для плотности вероятности в виде ряда Эджворта в частном случае η0 = 0 при / = 0, т. е. р0 (η0) = δ (η0)· Как следует из (31,) теперь ρ (/, η) = π (/, η | 0) =q (t, η), причем h (t, Ω) согласно (29) является характеристической функцией. Ее всегда можно записать в виде ряда (1.3.49): Α('.0)=«ρΓς ^-(]·Ω)"1, (5.9.35) где кп (i) — кумулянты процесса-η (/)· 588
- Представим характеристическую функцию амплитуд пуассоновских им: пульсов в виде ряда (1.3.45) по моментам: „л , ΘΑ (Ω) = 1 + Σ " Τ (J О)" » тп = 1Л{Ап}= f Ап\рА (A) dA, (5.9.36) til *J Л=1 -—oo где тп — начальный момент я-го порядка амплитуд импульсов. Подставив (36) в (26) и выполнив интегрирование, получим, что в формуле (35) кумулянты равны κη (0 = (vart mjan) (i — е""0"1') = κη (l —e~art0, (5.9.37) κη=ναη"~1 mn/n. Здесь через κη обозначены кумулянты процесса η (i) в стационарном состоянии, т. е. при t ->- оо. Введем вместо η (/) нормированный процесс ζ (0 = [η(0-*ί it)] ЩХ,2> X2 = (av/2) m2> (5.9.38) который имеет нулевое математическое ожидание и дисперсию, равную единице· Для процесса ζ (/) кумулянты равны κ; (0=0, κ; (/)=1-ехр (-2α/), κ; (/)= (α/ν) */2 (23'2 /я3/3т^2) (l-e~3a0, < № = *;0-e-a"0, κ; =(a/v)^2>-1 (2n/2/nnM/nS/2) (l-e~a"0, " > 3. (5.9.39) Аналогично (35) характеристическую функцию нормированного процесса ζ (0 можно записать в виде II °° κ' (/) ) — — Ω2 (l—e^2a0+ Σ -^Т- (J Ω)" · (5.9.40) Если объединить члены одного порядка относительно α/ν, то для плотности вероятности, соответствующей характеристической функции (40), получим ряд Эджворта + ... X + ... X nun /ι κ*(0 *,Γκ;» * , (κ3(/))2 *ι Χ exp { — ζ2/2 [1—exp (—2αί)]}/{2π [1—exp (—2α/)]1/2}1/2. - (5.9.41) В стационарном состоянии (при / -*■ оо) эта формула упрощается: p8t (0-ji - 3! · άζ3 + [-ц-ф- -Ji-'lp-J X^feXP(-^)' (5·9·42) где кумулянты κ/, ι > 3, определены формулой (39). В формуле (42) экспоненциальный сомножитель ехр (—ζ2/2) быстро убывает с ростом ζ и значения плотности вероятности psi (ζ) при больших ζ оказываются малыми. Поэтому плотность вероятности p8t (ζ) будет близка к нормальной, если выполняется неравенство *'9l3\=(a/v)l'*(21'* тз/9/я3'2) « 1. Если коэффициент при (α/ν)1/2, определяемый видом плотности вероятности рА(А) амплитуд пуассоновских импульсов, имеет порядок единицы, то условие близо- 589
сти плотности вероятности (42) к нормальной сводится к выполнению неравенства ν/α = ν #С> 1. (5.9.43) Пример 5.9.3. Воздействие пуассоновских дельта-импульсов на узкополосные линейные системы [189]. Получим выражение для одномерной характеристической функции напряжения на выходе узкополосной линейной системы, когда на нее воздействует случайная последовательность пуассоновских дельта- импульсов ξ (/) = %iAi δ (t — tt) с теми же вероятностными характеристиками, что и в примере 5.9.2. Импульсная характеристика узкополосной линейной системы обычно имеет вид (рис. 5.42) h(t) = g (t) cos (ω0/ — φ), (5.9.44) гДе ё (0 — огибающая импульсной характеристики; φ — некоторый постоянный фазовый сдвиг. Если на такую систему воздействует дельта-импульс вида A id (t — ti), то элементарный импульс на выходе системы u(t—tit Ai) = Aig(t—ti) cos [ω0(ί—tt)— φ]. (5.9.45) Рис. 5.42. Воздействие пуассоновских дельта-импульсов на узконолосную систему Поэтому интересующий нас профильтрованный процесс Пуассона в стационарном состоянии имеет вид η(0= Σ Ai8(t-U)<nsl<»o(t-tt)-<ph (5.9.46) Воспользовавшись формулой (2.7.101), записываем выражение для одномерной характеристической функции θ(Ω)=βχρ Μ [М{ехр {]AQg (s) cos ((u0s—φ))} — \]ds , (5.9.47) где вероятностное осреднение должно производиться по случайным амплитудам входных дельта-импульсов. Представим экспоненциальную функцию под знаком интеграла рядом exp [ji4Qg(s)cos(Q0s—φ)] —1= 2 "^f~ А" g" (S) ^ ((°*S~~ф)* После вероятностного осреднения и разбиения слагаемых суммы на две группы: с четными и нечетными степенями получим Μ Q2n {exp [jAQg (s) cos (ω0δ-φ)]}-1 = 2 ^^"шТ ^^ (s) X /i=l n=0 Xcos2n«»,S-cp)+j 2 (-1)" (ga + 1)| ЯЦ»+188И+' <«)«»*·*+» (ω,β-φ). 590
η = 0 ν ' ' где тл = Μ {Лл} — начальный момент я-го порядка амплитуд импульсов. В результате подстановки этого выражения в (47) имеем ( ίι Ω2η F β(Ω)=βχρν 2, ^Х)П^ГЩп) S2"(s)cos2*Ks-<p)^ + ГП2П+1 \ g2n+l (s)cos2rt+1 (a>0s—<p)dq>|. (5.9.48) о i Разложим периодические функции cos2rt (ω0δ — φ) и cos2rt+1 (ω0δ — φ) в ряды Фурье: cos2rt (ω0 s—φ) =a0 +Jj α& cos Ы0 s+Jj Η sin kmQ s, k k cos2/l+1 (ω0 s—φ) =i Ch cos &ω0 s+^j dfc sin to0 s, Л А; где a0 — среднее значение функции cos2" (cu0s — φ): 2π/ω0 2л йо=^ j cos2n(WoS)rfs=^jcos2n^=±|_d!^lL, (5.9.49) Перенесем эти разложения в выражение (48): X \ао+^ак cos ka0s+^bk sin k(u0s\ds+] ^ (—0я — m27i+i X L Λ λ J я=о (2л + 1)! X fg2n+1 (s) 2 cfe cos ^ω0δ+2 ^ft sin to0 sL/s. (5.9, о L k k J 50) Применим теперь лемму Лебега — Римана: если функция / (х) абсолютно интегрируема в интервале (0, оо), то lim f / (χ) cos ωχάχ = lim f / (x) sin ωχάχ= 0. ω-*-» 0 ω->οο ^ Для узкополосной линейной системы частота ω0 обычно много больше вели· чины, обратной постоянной времени, характеризующей огибающую^ (/) импульсной характеристики системы. Тогда в выражении (50) формально можно устремить ω0 к бесконечности и применить лемму Лебега—Римана. Выполнив это, получим lim в(й)=ехр ν Υ (-Οη-^Γ«»β, Г g2n(s)ds\ (5.9.51) или после подстановки выражения для а0 lim 591
При оценочных расчетах этой формулой можно пользоваться в допредельном варианте, если, конечно, ω0 много больше величины, обратной постоянной «ремени огибающей g (t) импульсной характеристики. Если, например, амплитуды импульсов имеют нормальную плотность вероятности с нулевым математическим ожиданием и дисперсией DA, то согласно формуле (1.4.16) 012* = 1-3··· (2n — \)DnA « выражение (52) принимает вид Общее выражение для характеристической функции (48) существенно сложнее, чем предельная формула (52). Если формула (52) справедлива, то плотность вероятности выходного процесса η (t) будет четной функцией (поскольку характеристическая функция вещественная и четная), причем она зависит отогиба- ющей g(t) импульсной характеристики узкополосной линейной системы. Фактическое определение плотности вероятности, связанное с вычислением преобразования Фурье от характеристической функции, как правило, не приводит к компактным результатам. Однако моменты выходного процесса определяются сравнительно просто. Согласно (52) логарифм характеристической функции равен 1п θ (Ω) = ν J (-0я -|~- «Чп ХХ'^П~Х) J S2" W * (5.9.53) π=1 Сравнивая это выражение с (1.3.48), находим кумулянты, а затем по формулам < 1.3.52) и моменты. В частности, коэффициент асимметрии выходного процесса равен нулю, а для коэффициента эксцесса получим выражение (s) ds \e2(s)ds\ · (5.9.54) В тех случаях, когда коэффициент эксцесса близок к нулю, плотность вероятности выходного процесса будет близка к нормальной. Приведенными результатами при некоторых допущениях можно воспользоваться для анализа воздействия атмосферных и индустриальных помех на радиоприемные устройства. 5.10. НОРМАЛИЗАЦИЯ СЛУЧАЙНЫХ ПРОЦЕССОВ ИНЕРЦИОННЫМИ СИСТЕМАМИ На с. 482 указывалось, что если на вход линейной системы воздействует гауссовский случайный процесс, то на выходе системы получается также гауссовский случайный процесс. Рассмотрим теперь случай, когда негауссовский процесс ξ (t) с временем корреляции τκ воздействует на инерционную линейную систему (с постоянной времени тс >τκ) интегрирующего типа. Оказывается, что процесс r\ (t) на выходе такой системы приближается к га- уссовскому по мере увеличения отношения τ0/τκ. Этот результат часто называют явлением нормализации случайных процессов, поскольку по крайней мере одномерная плотность вероятности выходного процесса приближается к нормальной при увеличении tc/tK. 592
Во избежание недоразумений примем следующие определения величин тс и τκ. Если линейная система является простой (в том смысле, что различные разумные определения постоянной времени тс дают примерно одну и ту же величину), то в качестве возможного определения постоянной времени системы можно принять следующее: ^ = 1^x1^1^(01^ (5.10.1) о где h (t) — импульсная характеристика линейной системы и /imax — ее максимальное значение. Если же линейная система сложная и характеризуется несколькими постоянными времени, то в качестве общего времени тс нужно брать минимальное из них. Когда входной случайный процесс является простым (различные определения τκ приводят примерно к одинаковому результату), то в качестве оценки τκ можно пользоваться формулой (2.2.37). Если же случайный процесс характеризуется несколькими временами, то под τκ нужно понимать максимальное из них. Явление нормализации случайных процессов при линейных преобразованиях интегрирующего типа является прямым следствием центральной предельной теоремы, доказательство которой при весьма общих условиях было дано А. М. Ляпуновым и впоследствии развито в ряде работ советских ученых. Напомним, что если Xit Х%9 ..., Хп — независимые :лучайные величины, имеющие конечные математические ожидания и дисперсии, то плотность вероятности суммы Υ= 2 Xi (5.10.2) приближается к нормальной при увеличении числа слагаемых п. Приведем общие результаты, позволяющие количественно оценивать степень приближения плотности вероятности к нормальной. Согласно формуле (1.3.49) характеристическую функцию любой случайной величины Υ можно представить в виде бесконечного ряда θγ (Ω) = exp ("J -^ (]Ω)ν| = ехр (]Ώ/η,-^ Χ X ехр 2-^(jQ)v, (5.10.3) где ту — математическое ожидание; Dy — дисперсия и ку, v — кумулянт v-го порядка случайной величины Υ. Если перейти к нормированной случайной величине Υ = (Υ — — my)D7 » имеющей нулевое математическое ожидание и единичную дисперсию, то для нее формулу (3) следует записать в таком виде: θ7(Ω) = βχρ(--^)βχρΓ2-^-0Ώ)ν1« (5.10.4) 20 зак. 956 593
Вместо Υ рассмотрим сумму независимых нормированных случае ных величин Ζ=2№-^)ΟΓ,/2, m, = M{Xf}, Di = M{(X,—m,)1}. (5.10.5 '=1 Ясно, что Μ {Ζ} = /ηζ = 0 и D2 = п. Если обозначить v-й кумулянт ί-го слагаемого через xitV то η так как кумулянты одного порядка суммы независимых случайных величин складываются. Поэтому формула (4) применительно к нормированной случайной величине Ζ = Ζ/γ~η принимает следующий вид: Gy <0)-exp(—f-)exp|"2 -^i-(JQ)»l (5.10.6) Когда все слагаемые Xt в сумме (5) одинаковы, т. е. имеют одну и fy же плотность вероятности, то их кумулянты одинакового порядка равны: nitV = κν, Ι = 1, 2, ..., п. Поэтому ZtV = ηκν и = exp (-£-) exp \-^~ (jQ)» + -£- <№ + ...). (5.10.7) Если все кумулянты, конечны, то Ηπιθ9-(Ω) = βχρ(—Ω2/2), (5.10.8) т. е. характеристическая функция нормированной суммы одинаковых независимых случайных величин с увеличением числа слагаемых стремится к характеристической функции гауссовской случайной величины. Степень приближения или меру отклонения можно количественно оценивать значениями первых, отличных от нуля, кумулянтов κ3, κ4 и т. д. В том случае, когда слагаемые X* различны, но кумулянты их ограничены, для каждого порядка можно выбрать наибольший кумулянт, допустим >«j,v,max· Тогда nZiV <; nxitVtmSiX и придем к прежнему результату. Определим смешанные кумулянты κμν двух сучайных величин Υχ и У2 с помощью формулы β^.(Ωι>Ω2) = βχρΓ2 J ^(Α)μ(Α)ν]· (5.Ю.9) Это выражение по-прежнему можно расчленить: выделить двумерную нормальную характеристическую функцию, умноженную на экспоненциальный поправочный множитель. Перейдя затем ^нормированным 594
случайным величинам Yx и F2, получим обобщение формулы (4) на двумерный случай: Ъ7гГш(0ь Q2) = exp(—Ωϊ/2—QJ/2—γΩχΩ2) χ χ θχΡ Ι" 2 1 ΐ* ν/2 №Ww1. (6.10.10). (μ+ν>2) где г — коэффициент корреляции между случайными величинами F* и У2; D1nD2 — дисперсии этих случайных величин. Если, пользуясь этой формулой, перейти к случайной величине Z, представляющей собой сумму η независимых случайных величин, то получим, как и раньше, что кумулянты одного порядка складываются, а второй экспоненциальный множитель стремится к единице при увеличении числа слагаемых: lim θ^Γ(Ωχ, £у = ехр(—Qf/2—Qi/2—rO^). (5.10.11) Недостаток оперирования с характеристическими функциями состоит в том, что получаемые результаты лишены наглядности. В этом отношении всегда желательно иметь дело с плотнастями вероятности. Чтобы перейти, например, от характеристической функции (3) к соответствующей плотности вероятности оо оо PY(y) = ~ J ey(Q)e-J*ifla = -L Jexp(-№y+iQ»V-^f)x — оо «— оо X exp[ 2 ^0Ώ)ν1^ (5.10.12) нужно выполнить дополнительные операции: 1) разложить каждый из экспоненциальных сомножителей (при ν ^ 3) в степенной ряд ехр [ Jkji. 0q,vJ _ J [ -^ ООГ Г. ν > 3; 2) получающиеся ряды перемножить и сгруппировать члены с одинаковыми степенями Ω; 3) выполнить в (12) интегрирование. После этого придем к следующему результату (ряд Грама—Шарлье): ру(у)=р(у) У. Tr-fer^nf^^) > <5Л0ЛЗ) где ρ (у) — нормальная плотность вероятности: '«-тнг·*!-*^ (5·1014) 20* * 595
Нп (У) — полиномы Чебышева—Эрмита (1.4.37). Так как эти полиномы ортогональны с весом ехр (— #2/2), т. е. jL ( 0 при тфп, то коэффициенты ЬП1 называемые квазимоментами, определяются формулой Ьп=йГ j />Hί/)Яn(^)dί/ = Dr2м{я^ЫLj}. (5.10.15) Укажем, что перечисленные утомительные преобразования, позволяющие перейти от характеристической функции (3) к плотности вероятности (13), можно не проделывать, а сразу воспользоваться следующей теоремой: пусть ργ (у) — функция с интегрируемым квадратом оо — оо Тогда оо lim Г W->oo J N py(y)-p(y)^-ic-^H^ /1 = 0 dy = 0. Практически функцию ργ (у) нужно знать с некоторой конечной точностью. Поэтому вместо ργ (у) можно взять конечную сумму первых членов ряда, причем число слагаемых N будет зависеть от требуемой точности и вида функции ργ (у), а также от выбора величины т и D. Обычно можно ограничиться учетом небольшого числа первых членов ряда в тех случаях, когда плотность вероятности по виду не очень сильно отличается от нормальной, а именно: 1) она является одновершинной (т. е. имеет единственный максимум) и 2) по обе стороны от вершины имеет ветви, достаточно быстро приближающиеся к нулю при возрастании абсолютного значения аргумента. В большинстве практически интересных случаев наилучшее приближение при заданном N будет тогда, когда т и D выбраны равными среднему значению ту и дисперсии Dy случайной величины Υ и разложение производится по полиномам Нп (у7^™\ · Будем считать, что ти D выбраны указанным образом. Тогда воспользовавшись формулой (15) и выражениями первых трех полиномов Чебышева—Эрмита (2.8.31), нетрудно убедиться, что &0 = 1» &ι = 0> b2 = 0. Если в (13) ограничиться конечным числом членов, то ряд Гра- ма—Шарлье можно записать в виде »ω-'4Ι+1-^4ν*)]· <5щ|б) 596
Здесь первый член справа соответствует нормальной плотности вероятности (14). Для нормальной плотности вероятности все квазимоменты при η ^ 3 равны нулю (Ьп = 0). Первые два коэффициента ряда, характеризующие наиболее существенные отклонения плотности вероятности от нормальной, есть не что иное, как коэффициенты асимметрии и эксцесса соответственно: Yi = &3^73/2 = F3^3/2 = >W3/2> γ2=:&4β-2 = μ4β-2_3 = κ4κ2-2, (5.10.17) где Ki — кумулянты, а μ3 и μ4 — центральные моменты 3-го и 4-го порядков (1.3.12). На практике при аппроксимации плотностей вероятностей, не сильно отличающихся от нормальной, часто ограничиваются учетом только коэффициентов асимметрии и эксцесса. Если в формуле (16) произвести специальную группировку членов суммы и перейти от полиномов Че- бышева—Эрмита к производным от интеграла вероятности согласно (2.5.26), то получим приближенное представление плотности вероятности в виде усеченного ряда Эджворта: + Л1.ф(5) (У-Щ Wi2lLo(7)^-^ VI (5.10.18) Следует отметить, что при такой аппроксимации может незначительно нарушаться свойство неотрицательности плотности вероятности: аппроксимирующая кривая при больших значениях \у\ может принимать отрицательные значения, недопустимые для плотности вероятности. Это следствие того, что формула (18) имеет приближенный характер. Характеристическая функция, соответствующая плотности вероятности (13), равна ey(Q) = exp(jmyQ + ^) jg -L-i^(_jQ)» (5.10.19) Разлагая экспоненту в ряд Тейлора, производя умножение и сравнивая полученный результат с рядом (1.3.45), составленным из моментов, можно убедиться, что моменты линейно выражаются через квазимоменты (и наоборот), а также найти соответствующие коэффициенты. Это обстоятельство и дает основание назвать коэффициенты ЬП9 представляющие линейную комбинацию моментов, квазимоментами. Можно показать, что многомерные плотности вероятности, не очень сильно отличающиеся от нормальных, аналогично можно представить в виде разложений в ряд по многомерным полиномам Эрмита. Коэффициентами при этих полиномах будут многомерные квазимомент- ные функции. Квазимоментные функции, так же как моментные и корреляционные, могут быть использованы для описания случайного процесса. 597
Поясним теперь сущность явления нормализации. Представим случайный процесс η (t) на выходе линейной системы с импульсной характеристикой h (t) через входной процесс ξ (t) интегралом свертки (5.1.4)* t Л(0 = р(/—τ)ξ(τ)Λτ. (5.10.20) о Будем считать />тс. Разобьем отрезок интегрирования [0, t] на большое число η = t/Δ элементарных интервалов одинаковой длительности Δ точками 0 = /0, tu ···» ^μ» ···> tn = U причем выберем Δ < тс. При этом импульсная характеристика системы на каждом из элементарных интервалов будет мало изменяться и можно полагать h (t — Δ) тъ h (t). Запишем интеграл в виде суммы п-л 4+Δ «-ι η(0= Σ f h{t—x)l(x)dx~ Σ Υ»> (5Л0.21) μ=0 /jt μ=0 где Yii==h(t—/μ) Γ ξ (τ) dr. (5.10.22) Здесь в отличие от суммы (2) слагаемые, вообще говоря, являются взаимозависимыми. Однако если выполняется неравенство тс> τκ (5.10.23) и Δ > τκ, то они будут слабо зависимыми. Доказательство этого утверждения в общем случае дать затруднительно; оно должно проводиться в каждом конкретном случае самостоятельно путем вычисления мо- ментных, корреляционных или квазимоментных функций (по крайней мере коэффициентов асимметрии и эксцесса). Здесь мы лишь покажем, что при Δ > τκ даже соседние члены суммы (21) (на примыкающих временных интервалах) практически не коррелированы. Примем, что входной процесс ξ (t) является стационарным в широком смысле, имеет нулевое математическое ожидание и заданную корреляционную функцию: Μ {ξ (t)} = 0, #ξ (τ) = D& (τ). (5.10.24) При этом допущении вычислим коэффициент взаимной корреляции между двумя слагаемыми суммы (21) /·μ,μ+1=Μ{Κμ7μ+1}(Ομΰμ+1)-1/2, ΰμ = Μ{Κ*}. Проделав примерно те же вычисления, с помощью которых была найдена формула (5.3.61), получим Δ J (Δ-τ) [ гг (Δ+τ)-/^ (Δ-τ)] dx /*μ, μ+1 7Ζ ' ; ~ 2? (Δ— x)r,(x)dx 598
J ττ·| (τ) άχ ~ -^ ~ -^ < 1. (5.10.25) 2Δ ft (τ) Λτ ο δ Если принять соглашение, что некоррелированность слагаемых в какой-то мере характеризует их независимость, то придем к следующему результату. При выполнении неравенств *>тс > Δ > τκ процесс η(ί) на выходе линейной системы приближенно является гауссовским. Правое неравенство (Δ > τκ) обеспечивает слабую коррелирован- ность (зависимость) слагаемых суммы (21), а неравенство тс > Δ гарантирует наличие большого числа слагаемых в сумме (21). Приведем конкретный пример, иллюстрирующий явление нормализации. Пример 5.10.1. Сумма независимых равномерно распределенных случайных величин. Предположим, что все слагаемые Xf, i = 1,2,..., л, суммы (2) взаимо- независимы и имеют одинаковую прямоугольную плотность вероятности на интервале (0,1): /х Г 1 на интервале (0,1), А л trt <Λ л/чч Pl(x)=p(x)=\ F 1 = 1,2,....п. 5.10.26) { 0 вне интервала (0,1), Отметим, что если плотность вероятности случайных величин равномерна на заданном интервале (а — ht а + h)t то с помощью линейного преобразования г = = [х —(а — h)]/2h она приводится к виду (26). Обозначим плотность вероятности суммы (2) η случайных величин Χι через Р{п) (У) = Ργ (У)- Очевидно, что Г 1 на интервале (0,1), twt βΛ Λ„ν ^^^ω={ овне интервала (0,1). <5Л°-27) Если независимые случайные величины Χι равномерно распределены на интервале (0,1), то их сумма Υ будет ограничена интервалом (0, п), вне этого интервала Р(п) (У) = 0. На основании формулы (3.2.60) имеем ео у P(v)(y)= J P(y—s)piv_X)(s)ds= J Ρ{ν-Χ)(8)ά8, ν=2,3,..., η. (5.10.28) — οο y—\ Последовательно применяя эту формулу, находим при 0<#<1, при 1<#<2; у*/2 при0<*/<1, Р{з)<У)**\ Ь/2-3(#-1)2]/2 при 1<у<2, Γί/2—3 (ί/ — l)2 +3 (ί/—2)2J/2 при2<*/<3. Методом индукции можно прийти к следующему общему выражению: '«)<"-{ ί-2(»-1) *«<*-T=W ^-'-O-o"-'+0»-2)"-'-...]. W- п(п-1)...(п-т+1) t ml где 0 <. у <. η и суммирование продолжается до тех пор, пока аргументы уу у— 1, у — 2, ... остаются положительными. 599
Рис. 5.43. Композиция прямоугольных распределений Плотность вероятности р(Х) (у) есть разрывная функция, р(2) (у) непрерывна, но имеет разрывную производную, р(3) {у) имеет непрерывную первую производную, но разрывную вторую производную и т. д. Графики первых пяти функций р(П) (jy) показаны на рис. 5.43. Математическое ожидание и дисперсия суммы Υ равны ту — п/2 и Dy = я/12. На рисунке штриховой линией изображена нормальная плотность вероятности с математическим ожиданием т = 2,5 и дисперсией D = 5/12. Видно, что уже при η — 5 существенные значения плотности вероятности ρ(δ) {у) хорошо аппроксимируются нормальной кривой (исключение составляют ветви при больших отклонениях от ту). 5.11. ЛИНЕЙНОЕ ОЦЕНИВАНИЕ ПО МИНИМУМУ СРЕДНЕГО КВАДРАТА ОШИБКИ Пусть имеется два вероятностно связанных процесса ξ (/) и η (t) и требуется оценить некоторый функционал g(t)=Tlll(t)] (5.11.1) первого процесса по доступному наблюдению второму процессу η (t). Приведем простейший часто встречающийся в радиотехнике пример. Пусть первым процессом является полезный сигнал ξ (t) = s (t)t a вторым процессом — принятое колебание в виде суммы полезного сигнала и некоторого шума η (t): t\(t)=s(t) + n(t). (5.11.2) Вид функционала Т% может быть различным, например: ь g(t) = s(t)t s(t±X)t \s(t)dt и т. д. Требуемая оценка а . ?(П-Тц[Ми)) (5.11.3) должна быть получена на основании наблюденных значений процесса η (t) в некоторых точках t=u, образующих на временной оси некоторое множество /: и £ /. Под / можно понимать одну или несколько точек, временной интервал (а, Ь) или всю временную ось. При решении задачи предполагаются заданными: 1) преобразование Τδ, τ. е. величина, подлежащая оценке; 2) все необходимые вероят- 600
ностные характеристики процессов ξ (t) и η. (ί); 3) данные наблюдений П (#)> и ζ Ι. Для решения необходимо предварительно выбрать критерий оптимальности оценки и ограничиться видом преобразования ΤΆ> т. е. классом допустимых операций над располагаемыми данными η (и). В качестве критерия оптимальности примем критерий минимума среднего квадрата ошибки: математическое ожидание квадрата ошибки ε2 = Μ {[£(/)-£ (О]2} (5.11.4) должно быть минимальным. При таком критерии оптимальной оценкой g (t) является условное математическое ожидание £(0 = Л1{£(/)|г)(а), uei}. (5.11.5) К такому результату можно прийти путем обобщения формулы (1.4.48) на бесконечное число случайных величин. Чтобы найти условное математическое ожидание, необходимо знать совместную плотность вероятности g (t) и η (t) для каждого и ζ Ι. Очевидно, что наименьшее значение среднего квадрата ошибки в общем случае может быть получено, если не накладывать никаких ограничений на вид оператора ΤΆ (нелинейное оценивание). Однако мы ограничимся здесь линейной оценкой (линейной обработкой наблюдаемых данных), когда она отыскивается в виде g(t) = L[r\(u)), и б /, (5.11.6) где L — линейный оператор. Итак, найдем такой оптимальный линейный оператор L [r\ (u))t и £ I, при котором средний квадрат ошибки ε2 = Μ {lg (t) -Llr\ (и)]]2} (5.11.7) минимален. Покажем, что если задача имеет решение, то оптимальный оператор L должен быть таким, что разность (ошибка) g (t) — L [η (и)\ ортогональна результатам наблюдения, т. е. ортогональна η (и) при каждом значении и из /. Если при этом оператор L удовлетворяет соотношению M{[g(t)-Llr\(u)]]r\(u)}=Ot и £1, (5.11.8) то средний квадрат ошибки минимален и равен 4U = Μ {lg (t) -Lin (u)]] g (f)>. (5.11.9) Пусть V — линейный оператор, при котором ε2 = emin- Запишем очевидное равенство g (t) - V In (и)] =g(t)-L In (и)] + Lln (и)] - V [η (u)l Разность двух линейных операторов есть тоже линейный оператор: L [Я (и)] — V [η (и)] = U [η (и)]. Минимум среднего квадрата ошибки можно представить в виде <Uin = Μ {lg (t) - V [ц (и)Щ = Μ {lg (t) -Lin (u)\ + L'J [n (u)]]*}. (5.11.10) 601
Допустим теперь, что разность g (t) — L [η (и)] ортогональна У) (и), т. е. выполняется соотношение (8). Тогда эта разность будет ортогональна любой линейной комбинации г\ (и). Следовательно, Μ {[fir (t) - L [η (и)]] L" [η (и)]} = 0. Расписав квадрат в выражении (10) и использовав это равенство, получим t <&ι„ = Μ {lg (t) - Ι [η (и)]?} + Μ {[I* [n (a)]]2}. " Второе слагаемое в правой части, зависящее только от результатов наблюдений, неотрицательно. Поэтому для получения ε&ΐη оно должно равняться нулю: Μ {[L" [η (и)]]2} = 0. Согласно (1.3.30) это означает, что L" [η (и)] = 0 и L = U с вероятностью единица, что и завершает доказательство принципа ортогональности. Так как разность g (t) — L [η (и)] ортогональна линейной комбинации L [η (и)]9 то Μ {lg (t) - L [η (и)]]*} = Μ {[£ (ί) - I fa (и)]] lg (ί) - - Lh\ (и)]]} = Μ {lg (t) -Lin (и)]] g (ί)}, что доказывает справедливость формулы (9). Предположим теперь, что процессы g (t) и χ\ (t) совместно гауссов- ские с нулевыми математическими ожиданиями. Тогда условное математическое ожидание в (5) будет линейной комбинацией значений я (ί). Поскольку формула (5) определяет оптимальную нелинейную оценку по минимуму среднего квадрата ошибки, то отсюда следует, что Llr\(u)] = m{g(t)\rl(u), и 6 /}. (5.11.11) Таким образом, для совместно гауссовских процессов нелинейная и линейная оценки по минимуму среднего квадрата ошибки совпадают. Отметим, что если математические ожидания рассматриваемых процессов равны нулю, то в данном случае разность g (t) — L [η (и)] не только ортогональна, но вообще не зависит от η (и). Рассмотрим важный случай линейного оценивания — фильтрацию полезного сигнала. Теория решения подобных задач была разработана сначала А. Н. Колмогоровым для дискретного времени, а затем Н. Винером для непрерывного времени [190, 191]. Пусть оценке подлежит полезный сигнал s (t) = g (t) no наблюдению л (t)9 связанному с этим сигналом, причем математическое ожидание r\ (t) в дальнейшем принято равным нулю. Предположим, что необходимые вероятностные характеристики η (t) известны для любого t из интервала (а, £), причем конечные точки этого интервала сами могут зависеть от времени. Требуется оценить g (t) для заданного t по наблюдению я (и), а ^ и ^.Ь. Будем искать оценку в виде g(i) = $h(O)ri(O)dO. (5.11.12) 602
Нужно подобрать такую весовую функцию h (v), которая минимизирует ошибку 82 = MJ|g(i)— \h(v)r\(v)dv J. (5.11.13) Для оптимальной весовой функции при любом и из интервала (а, Ь) должно выполняться соотношение (8): м{ГвГ(0—Jt|(tr)A(tF)£folf|(a)| = Of а<а<6. (5.11.14) Если процессы g (t) и η (t) стационарно связаны, то, используя обычные обозначения корреляционных функций Д„ (t-u) = M{g (t) r\ (и)}, Яη (ν - и) = Μ {η (υ) η (α)}, из (14) получаем окончательный результат ь Rg4(t—u)=\Rn(v—u)h(v)dv, α<ί/<6. (5.Π.15) a Оптимальная весовая функция определяется в результате решения этого интегрального уравнения. При таким образом выбранной весовой функции минимум среднего квадрата ошибки дается формулой (9): (5.11.16) Соотношения (15) и (16) позволяют решать различные частные задачи, соответствующие конкретизации процессов g (t) и η (ί)τι различному заданию интервала (а, 6). Обычно основная трудность заключается в решении интегрального уравнения (15). Отметим, что если математическое ожидание наблюдаемого процесса χι (t) не равно нулю, то вместо (12) оптимальную оценку следует искать в виде g(0 = u0+j h(υ) η (ν) dv. a Для определения постоянной h0 можно использовать условие Несмещенности оценки: M\g(t)-(h0 + $h(v)4(v)dv\\ = 0. В качестве частного случая рассмотрим фильтрацию полезного сигнала s (/), когда наблюдаемый процесс η (/) известен при t от — оо до + оо и представляет собой сумму полезного сигнала и шума: Я (0 -в(0 + л(0. (5.11.17) 603
Сигнал и шум стационарны в широком смысле и имеют нулевые математические ожидания. Применительно к данному случаю в выражениях (15) и (16) нужно положить g(t) = s (/), а = — оо, Ъ = оо. При этом оценку можно искать в классе стационарных линейных фильтров s(t)= f h(t—v)r\(u)dv= f h(ν)η(t—v)dv. — оо — оо В данном случае уравнение (15) принимает вид оо Rsr\(t—и)= f Rr\V—и—v)h(v)dv для всех и или — оо оо #δη(τ)= f Rr\(t—v)h(v)du для всех τ. (5.11.18) — оо Этому интегральному уравнению должна удовлетворять импульсная характеристика оптимального стационарного фильтра. Решение данного уравнения легко находится с помощью преобразования Фурье: 5Λ(ωΗδη(ω)*αω), (5.11.19) где δη (ω) — спектральная плотность процесса η (/); S84l (ω) — взаимная спектральная плотность процессовs (t)ur\ (t);K (]"ω)—комплексная частотная характеристика оптимального фильтра: Κ(]ω) = 5δη(ω)/5η(ω). (5.11.20) Средний квадрат ошибки находим по формуле (16): оо eS,ta=tf.(0)— J Rsr[(v)h(v)dv. — оо Выразив правую часть через спектральные плотности, с учетом (20) получим 00 Предположим теперь, что сигнал и шум не коррелированы, т. е. Ssn (ω) = 0. Тогда δηη (ω) = S8 (ω) + Sn (ω), S^ (ω) = Ss (ω). При этом (рис. 5.44, а) К (jco) = S$ (ω) [Ss (ω) + Sn (ω)]"1, (5.11.22) оо eAln = — Г ^<ω>5"(ω> da. (5.11.23) . — оо Если S8 (ω) Sn (ω) = 0, т. е. спектральные плотности сигнала и шума не налагаются (рис. 5.44, б), то 604
Sn((u) Ss((d) /3Γ\ ΙΑ Α S„(o)) $5(ω) ω ο ω Κ(}ω) 'Проиэбольная ·—\ ■ν>- KW /^Проидбольная *\ -^ ^> α) »° Ι) Рис. 5.44. Частные случаи линейной фильтрации ω (1 при ω, для которых Ss (ω) Φ О, О при ω, для которых Sn (ω) Φ О, произвольное, для остальных ω. При указанных условиях оптимальный линейный фильтр должен полностью «пропускать» сигнал и подавлять шум. При этом средний квадрат ошибки равен нулю и обеспечивается идеальная фильтрация сигнала. Рассмотрим несколько конкретных примеров [5]. Пример 5.11.1. Экстраполяция процесса. Требуется оценить предсказанное значение стационарного случайного процесса ξ (/ + λ), λ > 0, по наблюдению этого процесса в момент времени tt причем т^ = Μ{ξ (/)} = 0. Будем искать оценку предсказываемого значения в виде ξ (t + λ) ~ α ξ (/), где постоянная подлежит определению. Согласно принципу ортогональности (8) имеем M{[l(t + λ) — αξ (/)] ξ (0} = 0 или R (λ) — a R (0) = 0, a = R (λ) IR (0), где R (τ) — корреляционная функция процесса | (/). Значение среднего квадрата ошибки такой оценки находим по (9): ^ΐη = Μ{β ('+*)-<« (0Ρ}=Μ{[ξ (*+λ)-αξ (*)] ξ (t + λ)} = =R (0)-aR (λ) = # (0)—/Ρ (λ)//? (0). Отметим, что если α/Ζ| =^= 0г то в эти соотношения вместо корреляционной войдет ковариационная функция. Применительно к частному случаю, когда R (λ) = ехр (— αλ), получим а=ехр(—αλ), e^in = l-^exp (—2αλ). При ехр (—2 αλ) < 1 знание ξ (t) не улучшает оценку предсказываемого значения | (/ + λ). В данном частном примере разность ξ (/ + λ) — α ξ (/) ортогональна ξ (τ) при любом τ < /. Действительно, Μ{[ξ (f + λ) - αξ (/)]ξ (τ)} = « (* + λ - τ) - Я (λ) /? (/ — τ) / /? (0) = = ехр [ — α (/ + λ — τ)] — ехр (— αλ) ехр [—α (t — τ)] = 0. Отсюда следует, что если процесс ξ (/) с экспоненциальной корреляционной функцией известен даже на всем полуинтервале от — оо до /, то наилучшей оценкой ξ (/ + λ) по-прежнему остается величина α ξ (/). Иначе говоря, при известном значении данного процесса в настоящий момент времени предыдущие значения не улучшают оценку предсказываемого значения. Пример 5.11.2. Фильтрация сигнала. Требуется получить оценку процесса 5(0 в заданный момент времени по наблюдению η (t) в тот же момент времени t. 605
Ищем линейную оценку в виде s (/) ~ аг\ (/). Для определения оптимального значения коэффициента а пользуемся соотношением (8): Μ{Μ0-βη(0]η(0}-0. Отсюда получаем *βη (0)-α«η (0) =0, α=/?δη (0)/*η (0). Ошибку вычисляем в соответствии с формулой (9): e5im=M ψ (0-ш| (01 s (0}=/г· (<>)-#!„ (0)/*η (0). Пусть наблюдение представляет собой сумму полезного сигнала и не зависящего от него шума n(t): η (t) = s (() + η Μ. Β данном, случае R п (τ) =#s (τ), #η W =#* (τ) +Rn (τ). Поэтому sT) α__ *«(0) ε2 /?β (0)/?η (0) *·(0)+/Μ0) ' m,n /?β(0)+/?Λ(0) Пример 5.11.3. Интерполяция процесса. Пусть требуется оценить значение процесса ξ (/) в момент времени t по результатам наблюдения ξ (0) и ξ (Τ). Будем искать оценку в виде ξ (/) ~ α ξ (0) + £ξ (7*)· Для определения оптимальных значений коэффициентов а и b воспользуемся ранее установленным фактом (8), что ошибка должна быть ортогональна результатам наблюдения I (0) и I (Г): Μ{[6(0-Λξ(0)--*ξ(7·)] ^ }-0. Отсюда получаем систему двух линейных уравнений R (0 = а/? (0) + 6 Я (Г), Я (Г — 0 = a R (Т) + Ь R (0), в результате решения которой находим а и Ь: _ R(T)R(T—t)—R(t)R(0) R(T)R(t)—R(T—t)R(0) й R*(T)—R*(0) ' £1(7·)—Λ» (0) Средний квадрат ошибки равен eSnn = Μ {[ξ (0 - αξ (0) - *ξ (Г)] ξ (0} = R (0) - [α/? (0 + 6# (Γ - 0l· При / = 772 получим а = 6 = R (T/2) [R (Τ) + R (0)]~K Пример 5.11.4. Пусть требуется получить текущую оценку стационарного процесса ξ (/) с Μ {ξ (/)} = 0 по двум известным значениям этого процесса ξ (tt) и ξ (t2) в два предшествующих момента времени: t2 < t\ < *. Покажем, что знание | (t2) не улучшает оценку ξ (/) только в том случае, когда процесс ξ (/) имеет экспоненциальную корреляционную функцию ' R (τ) = D ехр (— α |τ|). Зададимся следующей линейной оценкой: £(0~«£Wl)+»6(*i) и докажем, что если Ь — 0, то процесс ξ (/) должен иметь экспоненциальную корреляционную функцию. Оптимальные значения коэффициентов а и Ь, как и в предыдущем примере, определяются соотношением м{[|(0-«Ш-&£('*)] ^j }=o, т. е. R (t-tt) = aR (0)+bR ft - *2) = 0, R (t - /2) = aR ft - t2) + bR (0). Полагая 6 = 0, отсюда получаем R (t — t») — R (t — tt) R (it — h)IR (0) или R (Xj + λ,) = R (λ,) R (KJ/R (0), λί - t — h, λ» - <ι — <i- Известно, что 606
единственной непрерывной функцией, удовлетворяющей этому равенству при любых %ι и λ2, является экспоненциальная функция вида R (τ) =с ехр (— α |τ|). Отметим, что при определенном таким образом коэффициенте а разность ξ(ΐ)— — α ξ (t\) ортогональна ξ (/2). Однако само % (t) не обязательно ортогонально ξ (t2). Поэтому если ξ (U) неизвестно или известно неточно, (то знание ξ (12) будет улучшать оценку ς (/). Такое свойство характерно для марковских процессов. Если рассматриваемый процесс ξ (/) гауссовский (для него линейная оценка является оптимальной), то он одновременно является и марковским. Пример 5.11.5. Нужно получить линейную оценку значения стационарного дифференцируемого процесса ξ (/ + λ) по известным значениям процесса ξ (/) и его производной ξ'(ί) = d\ (1)1 dt в другой момент времени. Напомним, что для дифференцируемого стационарного процесса производная от корреляционной функции должна удовлетворять условию R' (0) = 0. Ищем линейную оценку в виде ξ (t + λ) ~ а\ (f) + b\' (t). Оптимальные значения коэффициентов находим из условия, что ошибка ортогональна ξ (/) и ξ'(0: M{[6(*+X)-flS(0-66'(0] *® }=o. С учетом формул (5.6.16) и (5.6.17) получим R (λ) = aR (0), — R' (0) = - bR» (0). Отсюда α = R (Ц I R (0), b = R' (λ) / R» (0). . Значение среднего квадрата ошибки определяется выражением emin = Μ{[ξ (f + λ) — α ξ (0 — 6ξ'(0] ξ (* + λ)} = R (0) - α/? (λ) + bR' (λ). Для малых значений λ имеем R' (λ) ~ R' (0) +#" (0) λ=^" (0) λ, α ~ 1, b ~ 1 и, следовательно, ξ (f + λ) ~ ξ (/) + λξ' (/), что согласуется с обычной методикой вычисления приращения непрерывной функции. В примере 5.11.2 получена оптимальная оценка стационарного дифференцируемого процесса по наблюдению, представляющему собой сумму этого процесса и шума. Нетрудно убедиться, что принцип ортогональности приводит к такой же оценке производной. Пример 5.11.6. Требуется оценить значение определенного интеграла от стационарного случайного процесса ξ (/) по значению процесса в конечных точках интервала интегрирования: т ^(t)dt^a0l(0)+ail(T). Согласно (8) постоянные а0 и at должны удовлетворять соотношению м|Г|в(о л-ββ ξ (0)-щ ξ (Τ) 1& (Д J =o, τ τ т. е. $R(t)dt=a0R(0)+aiR(T), ]R(T-t)dt=a0R(T)+aiR (0). о о Интегралы в левых частях обоих уравнений равны. Поэтому τ α0=*ϊ= f R (0 Л [Я (0) +/? (Γ)]"1· о Для малых значений Τ = ΔΓ-> 0 отсюда имеем а0 = αχ ?5 ΔΤ/2 и приходим к известной трапецеидальной аппроксимации: τ $l(t)dt~ β (0)+ζ (Τ)]ΑΤ/2. о 607
Результаты данного примера можно обобщить. Пусть требуется оценить значение интеграла не через два, а через несколько эквидистантных отсчетов процесса, т. е. пт J I it) at ~ a0% (0) +α& (Τ) +... +an ξ (ηΤ). о Воспользовавшись принципом ортогональности, для определения η + 1 постоянных аг·, i = 0,1, ..., η, получим систему η + 1 линейных уравнений пТ J/? (ιΤ-0 Λ=α0 Я (/Г) + ... +а* Я (0) +... +а„ Я (ιΤ—л7), /=0,1 п. о Пример 5.11.7. Требуется получить линейную оценку производной сигнала s'(/) по результатам наблюдения процесса η (?) = s (t) + л (/) на всей временной оси t (от — оо до оо). В качестве линейной оценки примем следующую: оо s' (/) - | r)(t—v)h(v)dv. — оо Для определения оптимальной весовой функции h (t) имеем уравнение ' (0 — | Ή (*—υ) h (v) dv ΜΊ (u) \ =0 для всех w оо ^β' η ('""") ^ J ^η (*—ϋ~w) Λ (у) <& Для всех и. Μ или Полагая / — и = τ, можно написать R8, (τ) = J # (τ—у) ^ (у) dp. — оо Осуществляя преобразование Фурье от обеих частей и учитывая, что преобразование Фурье от /?5,η (τ) есть j ω SST, (ω), находим частотную характеристику оптимального линейного фильтра ^0,ω)=]ω5βη(ω)/5η(ω). Оптимальный фильтр можно представить в виде последовательного соединения линейной системы с комплексной частотной характеристикой (20) и дифференциатора с частотной характеристикой jo). Приложение I ДЕЛЬТА-ФУНКЦИЯ Формально дельта-функцией δ(χ — х0) называется такая функция, которая равна бесконечности, когда ее аргумент равен нулю, и равна нулю при остальных значениях аргумента (рис. 1-1), причем интеграл от дельта-функции, распространенный на сколь угодно малый отрезок, заключающий особую точку х0> равен единице: оо при х=х0, при χ φ χ0; ХаЛ-г Г δ(χ—х0) dx = l при любом ε>0. (1-1) 6(*—*Ь)Н 0 608
Часто желательно определять дельта-функцию так, чтобы она была четной функцией своего аргумента: δ (χ - х0) = δ (χ0 - х). (1-2) лго+ε В этом случае J δ (χ—х0) dx = J δ (я—х0) dx = \/2, ε>0. (1-3) Χα— ε Дельта-функцию можно понимать как предел бесконечной последовательности ©бычных функций. Пусть имеется функция / (х), непрерывная в точке х0, и дано семейство обычных функций φα (χ), таких, что Ь lim \f(x)<i>a(x—x0)dx=f(x0), а<х0<Ь. (1-4) α-*αοα Тогда функция δ (χ — х0) может быть записана в виде предела δ (χ — х0) = lim φα (χ — χ0), α ->- α0, (1-5) понимаемого в том смысле, что величина / (х0), определенная соотношением (4), следует из формальной записи ь . „ ._ _ ... (1-6) О при *0 < а или *о > Ъ. ΐ,,,*, w Г /(*о) при а<х0<Ьу а { Рассмотрим функцию в виде прямоугольного импульса __ ί Ι/α при х0 — (a/2)<*<*0 + (a/2), Фа *oJ — | 0 при других ^ Для такой функции при всех а > О справедливо равенство оо J q>a(*--*b)d*=i. *fe-**J L U Xo «2? Рис. 1.1 Дельта- функция Если теперь положить α->· О, то ширина импульса будет стремиться к нулю, высота к бесконечности, а площадь под кривой будет постоянной и равной единице. Поэтому можно принять δ(χ—χ0) = ΙΊπιφα(χ—χ0). α-*0 Хотя функция в виде прямоугольного импульса является простым прототипом дельта-функции, однако она разрывна. Во многих задачах бывает удобно использовать исходное семейство функций, обладающих производными. Укажем несколько таких семейств: с, , ι ν rsin<*(*—*о)1 ,. f ι Г (*— *0)211 δ(χ—*0)=— hm =hm — — exp —-- У- l=* π a^oo I x—x0 J a-^o L αΥ2π r[ 2a2- J/ = — lim Г l-cosa(*-*0) 1 1 ^ Γ sin2a(*-jt0) 1 π a-*oo L a(*—*0)2 J π α-*<χ> [ a(*—*0)2 J -±-n« 1 (x—*0)+a π α^'οο α2 (α:— *0)2 + l π2 (χ—χ0) a-*o J у (λ:—#<>) — α = lim 2 ФпМфпМ» #-*«> /1 = 0 где ψη (χ) — любая полная ортонормированная система функций. Справедливы также следующие формальные соотношения: 1 & 6(*_^)=——1*_^|. (1-7) (1-8) 609
η οχ I с -\-h при а; > л:0 . Использование дельта-функции позволяет во многих случаях значительно упростить и в известном смысле автоматизировать вычисления. Это объясняется тем, что дельта-функция обладает·рядом замечательных свойств. Важнейшее из них выражается формулой (6), и его часто называют фильтрующим свойством дельта-функции. Не прибегая к строгому предельному переходу (4), формально формулу (6) можно получить так. Поскольку δ (χ — х0) всюду равна нулю, кроме точки xQt а в бесконечно малой окрестности точки х0 непрерывная функция / (х) приблизительно постоянна и равна / (х0), то, вынося ее за знак интеграла и используя формулу (1), получим (6). Если рассматривать / (х) как входной сигнал, воздействующий на линейный фильтр с импульсной характеристикой δ (χ)% то на выходе такого фильтра согласно формуле (6) будет выделено (отфильтровано) лишь одно значение входного сигнала, соответствующее нулевому значению аргумента дельта-функции. Отсюда следует, что δ (χ — х0) имеет размерность, обратную величине*. &l*.Wl Xj ty Cf\ X Xj δ) «(χ) Рис. 1-2. Общий случай в) щх Отметим, что при х0 = а или х0 = b интеграл (6) оказывается неопределенным. Иногда (если, конечно, это не приводит к физическим недоразумениям) принимают br « . . Г /(я)/2 при х0=а, /ТЛЧ Если х0 является точкой разрыва первого рода функции / (х), то ь {f(x)b{x-xQ)dx=-j[l(xi)+f(Xb)], a<x0<b, (МО) где / (х$) и / (Xq ) — значения функции / (х) справа и слева от точки разрыва. Если функция φ (χ) непрерывна в точке х0, то φ (χ) δ (χ — χ0) = φ (χ0) δ (χ — χ0), (1-11) так как b b J ί (*) Φ (*) δ (x—Xq) dx=f (x0) φ (χ0) = J / (*) φ (*0) δ (*—*o) dx, a<x0<b. a a В частности, b $b(x—u)P(x—O)dx=*6(u—O)=:6(O—u)9 а<иш v<b. (1-12) Произведя замену переменной интегрирования у = сх и воспользовавшись формулой (6), получим соотношение 610
j/(*)6(C*-*0)d*=-i- J /(т-)в(у-*о)^=-утр/(^-). а ас a<x0\c\~i<b. (1-13) Поэтому можно написать δ(^_*0) = ^δ(*-~^). (1-14) Применяя формулу (6) раздельно к функциям αδ (χ — х0) и δ ((χ — *0)/α), нетрудно убедиться в справедливости равенетва |α| δ (χ - х0) = δ ((α; - х0)/а). (1-15) Рассмотрим более общий случай. Пусть функция α (χ) является монотонно возрастающей в интервале (а, 6) и пересекающей ось χ в точке х0 этого интервала (рис. 1-2, а): а (а) < а (л:а) = 0 < а (&). Для монотонно возрастающей функции уравнение а(х) = t имеет однозначную обратную функцию χ (/), причем χ (0) = х0. Произведя формальную замену переменных, на основании (6) получим Ь а(Ь) a a (a) Если а(я) является монотонно убывающей функцией, то знак получаемой зависимости будет обратным из-за перестановки пределов интегрирования. Таким образом, для обоих случаев вышеприведенный интеграл будет равен / (*о) Iа' (хо)\~г- Поэтому в формуле (6) можно полагать δ[α(*)]=δ(*-*ο)/|α'(*ο)|. Если функция α (χ) не пересекает ось χ в интервале (а, 6), то интеграл равен нулю. Предположим, что равенство α (χ) = 0 выполняется для конечного или бесконечного счетного числа точек хп на всей оси χ (рис. 1-2, 6"), т. е. а (хп) = 0, и что в этих точках функция а (х) имеет непрерывную производную а' (яЛ) =£ 0. Нетрудно убедиться, что Иначе говоря, δ [α (я)] равна последовательности дельта-импульсов (рис. Ι-2,β) при χ = хп с площадью la' (Яп)!"1. Для доказательства формулы (17) разделим ось χ на интервалы (cj, c$+1) таким образом, чтобы функция α (χ) изменялась монотонно в этих интервалах, т. е. при с% <. χ <. Ci+i. Если интеграл с бесконечными пределами от выражения fix) δ [ α (χ)] представить в виде суммы интегралов в примыкающих интервалах (С|, ct+1)t то из выражений типа (16) получим формулу (17). Возвратимся теперь к первому равенству (7): δ (*—х0) = hm f- · (1-18) α->« π(*— χ0) В результате использования этого соотношения получаем В», f /W sin«(*-,0) О^ш J И (Л— *0) «в « ей
Следствием выражения (18) является важное тождество оо оо _i_ Г е± ](*-*„) и dw= Г е±2я] (*-*„) vdv = b(x-x0). (I-19) — оо — оо Действительно, оо Gb _L Г е±'<*-*>" £fo»lim — [*±H*-X*udu = \\m sina(*-*°>s 2π J α-ί-οο 2π J α->«> π (*—*0) — οο —α Понимая в тождестве (19) под χ время t, а под переменной интегрирования и круговую частоту ω, получаем представление дельта-функции Ь (t — t0) интегралом Фурье: оо оо δ(/—O)=-J- f е](0('-'о)Жо = — Г cosa>(/—ί0)άω. (1-20) — оо О Из обратного преобразования Фурье с использованием формулы (6) находим спектральную функцию для б (t — t0) оо j* 6(/— /0)β",ωίΛ = β-,ωί·. (1-21) — оо При /0 = 0 отсюда следует, что спектр функции δ(/) равномерный на всех частотах с интенсивностью, равной единице: оо | β(/)β-,ωίΛ = 1. (Ι-22) — оо Если спектральной функцией для дельта-функции, расположенной в нуле, является постоянная величина, то спектральной функцией для полусуммы двух дельта-функций δ (/ + t0) и δ(/- t0), симметрично расположенных относительно начала координат, является косинусоида. Действительно, оо γ J [б(<+<о)+б(<-<0)]е-^^=-|-(е1и,Ч-е-'ш'»)=созш/0. (1-23) 00 Из обратного преобразования Фурье получаем оо оо — [δ('+Ό)+δ(/— *о)]=-т— 1 coscu/0~eJiu'do) = —( coscu/0coso)/</o). (I-24) 2 2π J π J — оо О Тождество (19) позволяет установить связь между дельта-функциями для обычной / и круговой частоты ω. Так, понимая во второй части равенства (19) под χ обычную частоту /, а затем делая замену переменной s = //2π, получаем β«-/0)= J t±**IU-f.)*di= J β±Ηω-ω.)ίΛβ — оо — оо оо =2π j* β±2π*(ω-ω°)δώ>=2πδ(ω-ω0). — оо Следовательно, δ (f — /0) = 2π δ(ω — ω0). (1-25) 612
Приведем еще одно полезное равенство, следующее из (15) и (19): оо Г cosf ω±ω° )χάχ = απδ(ω±ω0)=ηδ( ω±ω° Υ (1-26) ο Воспользовавшись тождеством (19), находим преобразования Фурье для косинуса, синуса и единичного скачка: оо оо Г e-l«"cosai»/«=-j- f е->«*(<*>«><>* +е_1(0»')Л = S— ОО ОО =π[δ(ω-ω0) + δ(ω+ω0)], (Ι-27) оо оо Γβ-'ω/8ΐηω0ω<=-^- Γ e-^ie^'-e-'»·')*- я— ОО ОО = ]π[δ(ω+ω0)-δ(ω-ω0)], (Ι-28) оо оо -L Г (l+sgn/)e"ji0^/=r β-]ω'<//=πδ(ω) + ^- . (1-29) о Последнее соотношение следует из того, что преобразование Фурье функции л ( 1 при />0, Sgn/==l-lnpH/<0 равно 2/j<o. Действительно, обратное преобразование для функции 2/j<o дается выражением —- I β]ω4ω = \ ί/ω=2 \ du) = sgn/. 2π J j© J πω J πω — оо — оо О Разлагая в ряд Фурье периодическую последовательность дельта-функций δ (χ — х0 — m/TQ), m — О, ±1, ±2, ..., получаем формулу 2 е2я]/г (*-*.) 7-0=2 ^л cos 2лп (χ~χο) То = /1=,—00 fl = 0 Г£е ζ о = Ι» ζη = 2 ПРИ « # 0. Справедливы также следующие соотношения: 2 (-1)п€пе<*2яп(х-Хо)Т0=ш -i- У β(χ-*,-^±1), (Ι-31) оо 2 ζ η cos 2π (χ—χ0) Τ0 cos 2япу = П=^-оо =^тиб(дс^о+г/+^)+бЬдго~"+"^)]· (Ь32) 613
2 €nCosW(x-*0)r0 = -^ 2 βί*--*0— —-j. (I n= — о© ° m=—oo * ° ' 33) Применяя формальное интегрирование по частям, можно убедиться, что свертка производной /г-го порядка дельта-функции с любой функцией, имеющей непрерывную производную я-го порядка в точке х0, равна х0+г J f(x)b<nUx-x0)dx = (-l)ntin)(Xo), ε>0. (1-34) JC0—8 Если производная /(Ό (#) имеет в точке *0 разрыв первого рода, то J /Мб(«>(^-^0)^=(-1)Лу1/^(^)+/^(^0-)], ε>0. (Ι-35). Хо—е Применяя формулу (34) к двукратному интегралу вида ЬЬ J=\\f(x,y)b'(x-y)dxdy, получаем, что при выполнении равенства ГХ(У,У) = дх* = ГУ(Х>Х)=^^\ ^ »t(x.y) \x=iy " ду2 \у—х порядок интегрирования с дельта-функцией не имеет значения, т. е. ь ъ J=l /i (У. У) *у=\ Г'у (х, х) άχ. (Ι-37) а а Аналогично дельта-функции одного аргумента можно ввести двумерную дельта-функцию δ2 (χ — х0, у — у0) = δ (χ — х0) δ (у — у0), определив ее как единичную массу, сосредоточенную в точке (х^ у0). Для двумерной дельта-функции справедливы соотношения оо IJ Ь2(х—х0, у —уо) dxdy = 1, (1-38) — оо оо Я ί (*» У) δ2 (χ—χο> У—Уо) dxdy=f (x0f y0), (1-39) — оо 00 J f(x, У) δ2(χ—x0, y—y0)dy=f(x, Уо)Ь(х—х0). (1-40) ^- оо Приложение II СПРАВОЧНЫЕ ФОРМУЛЫ х (1Ы) Ф(*)=-7=: f e~ty2dt, Ф(—*) = 1-Ф(х). — оо X оо erf(*)=—7=-Ге-''Л, erfc (х)**-£г f е"*'*. (И-2) У» }} У" J 614
Ф(*) = 1-уегк^=г), eff(*)-l-erfc(x). (И-3) [β (У) η β (У) j f{X,y)dx =J /;<*,^лг+р'доί(β(</).</)- а. (у) J α (у) -»'(?)/(«(ί),ί). (Π-4) во J /v (*x) ехр (—ρ* л?) χ»-x dx= '(v + 1) V 2 4P2 / (И-6) 2ρμΓ< Право- и левосторонние пределы функции / (χ) обозначаются соответственно Н*о+0) = Нт /(*), /(x0-0)=lim f(x). (Π-7) X \ Χ ο * f * о Неравенство Шварца — Буняковского для двух функций f(x) и g(x) имеет вид оо 12 оо оо J ί* (*) ί (х) J* <: J" I / (*) Ι2 4* J Ι * (*) I2 dx, (II-8) *=» οο Ι =—οο <=s-oo причем знак равенства имеет место в том и только в том случае, когда g(x) = cf(x), (1Ь9) где с — некоторая постоянная. Если отношение / (x)/g (χ) остается ограниченным, когда χ стремится к своему пределу, то пишут / (х) = О (g (x)) и говорят, что «/ (х) имеет порядок, не больший, чем g (χ)». Если / (χ) lg (χ) стремится к нулю, то пишут / (х) = о (g (x)) и говорят, что «/ (х) высшего порядка малости по сравнению с g (хЪ. Если / (х)'ё (х) стремится к единице, то пишут f (x) ~ g (x) и говорят, что «/ (х) асимптотически равна g (#)». Функция Бесселя m-го порядка от мнимого аргумента Im W = ~~L· ί ** C°S Ф C0S m(pd(p' (П"10) о СПИСОК ЛИТЕРАТУРЫ 1. Гнеденко Б. В. Курс теории вероятностей: Учебник для университетов, — 5-е изд., стереотип. — М.: Наука, 1969.— 400 с. 2. Пугачев В. С. Теория вероятностей и математическая статистика: Учеб. пособие для вузов. — М.: Наука, 1979. — 496 с. 3. Чистяков В. П. Курс теории вероятностей: Учеб. пособие для вузов. — М.: Наука, 1978. — 224 с. 4. Вентцель Е. С. Теория вероятностей: Учебник для вузов, — 3-е изд., испр. — М.: Наука, 1964,— 576 с. 615
5. Papoutis A. Probability, r;v.]dom variables and stochastic processes. —New Jork: McGraw-Hill Book Co., 1965.—584 p. 6. Лукач Ε. Характеристические функции: Пер. с англ. — М.: Наука, 1979. 7. Оберхеттингер Ф. Преобразования Фурье распределений и их обобщения. Таблицы: Пер. с англ./Пер. М. С. Никулина. —М.: Наука, 1979.—248 с. 8. Крамер Г. Математические методы статистики: Пер. с англ.—М.: Мир, 1975. 9. Стратонович Р. Л. Избранные вопросы теории флюктуации в радиотехнике. — М.: Сов. радио, 1961.— 558 с. 10. Малахов А. Н. Кумулянтный анализ случайных негауссовых процессов и их преобразований.— М.: Сов. радио, 1978.— 376 с. 11. Таблицы функции ошибок и ее первых двадцати производных: Пер. с. англ./ Пер. Л. С. Барк и Л. Н. Большева. — М.: ВЦ АН СССР, 1965. —276 с. 12. Феллер В. Введение в теорию вероятностей и ее приложения в 2-х т.: Пер. с англ. Т.2: /Пер. Ю. В. Прохорова.— М.: Мир, 1967.— 752 с. 13. Сарманов О. В. Замечания о некоррелированных гауссовских зависимых случайных величинах. — Теория вероятностей и ее применения, 1967, т. 12, вып. 1, с. 141 — 143. 14. Masonson Μ. On the gaussian sum of gaussian variates, the non-gaussian sum of gaussian variates and the gaussian sum of non-gaussian variates. — Proc. IEEE, 1967, v. 55, №9, p. 1661. 15. Brown J. L. On the expansion of the bivariate gaussian probability density using results of nonlinear theory. — IEEE Trans., 1968, v. IT-14, № 1. 16. Кендалл Μ., Стьюарт А. Теория распределений: Пер. с англ./Под ред. А. Н. Колмогорова.— М.: Наука, 1966. — 588-с. 17. Тихонов В. И., Миронов М. А. Марковские процессы. — М.:Сов. радио, 1977. 18. Крамер Г., Лидбеттер М. Стационарные случайные процессы: Пер. с англ./ Под ред. Ю. К. Беляева. — М.: Мир, 1969. — 400 с. 19. Дуб Д. Вероятностные процессы: Пер. с англ. М.: ИЛ, 1956. — 606 с. 20. Горяинов В. Т., Журавлев А. Г., Тихонов В. И. Статистическая радиотехника. Примеры и задачи: Учеб. пособие для вузов. — 2-е изд., перераб. и доп. /Под ред. В. И. Тихонова.— М.: Сов. радио, 1980. — 544 с. 21. Френке Л. Теория сигналов: Пер. с англ. — М.: Сов. радио, 1974. —344 с. 22. Бендат Дж., Пирсол А. Измерение и анализ случайных процессов: Пер. с англ./Под ред. Г. Я. Мирского. — М.: Мир, 1974.— 464 с. 23. Как S. С. Probability distribution to characterize clipped waves.— Proc. IEEE, 1971, v. 59, № Ю, p. 1534—1535. 24. Расщепляв в Ю. С, Фандиенко В. Н. О построении моделей стационарных случайных процессов для исследования систем управления. — Техническая кибернетика, 1974, № 1, с. 224—231. 25. Blanc- La pi err е Α., Fortet R. Theorie des fonktions aleatoires. — Paris: Masson, 1953. — 694 p. 26. Папулис А. Теория систем и преобразований в оптике: Пер. с англ./Под ред. В. И. Алексеева. — М.: Мир, 1971.— 496 с. 27. Ван Трис Г.Теория обнаружения, оценок и модуляции в 3-х т.: Пер с англ. — М.: Сов. радио, 1972—1977. —Т. 1. Теория обнаружения, оценок и линейной модуляции /Под ред. В. И. Тихонова, 1972.— 744 с. 28. Возенкрафт Д., Джекобе И. Теоретические основы техники связи: Пер. с англ./Под ред. Р. Л. Добрушина. — М.: Мир, 1969. — 640 с. 29. Wise С. I., Gallagher N. С. On spherically invariant random processes. — IEEE Trans., 1978, v. IT-24, №1, p. 118—120. 30. Кемени Дж. Д., Снелл Дж. Л. Конечные цепи Маркова: Пер. с англ./Под ред. А. А. Юшкевича. — М.: Наука, 1970. — 271 с. 31. Кузьмин С. 3. Цифровая обработка радиолокационной информации. — М.: Сов. радио, 1967.-400 с. 32. Holmes J. К. Performance of a first-order transition sampling digital phase- locked loop using random walk models. — IEEE Trans., 1972, v. COM-20, №2, p. 119—131. 33. Блох Э. Л., Попов О. В., Турин В. Я. Модели источников ошибок в каналах передачи цифровой информации. — М.: Связь, 1971.—312 с. 616
34. Тихонов В. И., Харисов В. Н., Смирнов В. А. Оптимальная фильтрация дискретно-непрерывных процессов.—Радиотехника и электроника, 1978, т. 23, № 7, с. 1441—1452. 35. Миронов М. А. Случайные блуждания между отражающим и поглощающим экранами. —Изв. вузов СССР. Радиоэлектроника, 1974, т. 17, № 4. 36. Kemeny J. G., Snell J. L. Finite continuous Markov chains. — Теория вероятностей и ее применения, 1961, т. 6, вып. 1, с. 110—115. 37. Беллман Р. Введение в теорию матриц: Пер. с англ./Под ред. В. Б. Лид- ского. — М.: Наука, 1969. — 367 с. 38. Гнеденко Б. В., Коваленко И. Н. Введение в теорию массового обслуживания. — М.: Наука, 1966. — 432 с. 39. Саати Т. Л. Элементы теории массового обслуживания и ее приложения: Пер. с англ./Под ред. И. Н. Коваленко. — М: Сов. радио, 1971. — 520 с. 40. Кофман Α., Крюон Р. Массовое обслуживание. Теория и приложения: Пер. с франц./Под ред. И. Н. Коваленко. — М.: Мир, 1965.—302 с. 41. Гнеденко Б. В., Беляев Ю. К.» Соловьев А. Д. Математические методы в теории надежности. — М.: Наука, 1965. — 524 с. 42. Васильев Б. В., Козлов Б. Α., Ткаченко Л. Г. Надежность и эффективность радиоэлектронных устройств. — М.: Сов. радио, 1964. — 368 с. 43. Васильев Б. В. Прогнозирование надежности и эффективности радиоэлектронных устройств. — М.: Сов. радио, 1970. — 335 с. 44. Тихонов В. И., Кульман Н. К. Нелинейная фильтрация и квазикогерентный прием сигналов. — М.: Сов. радио, 1975.— 704 с. 45. Aein J. M. A multi-user-class, blocked-calls-cleared, demand access model. — IEEE Trans., 1978, v. COM-26, № 3, p. 378—385. 46. Баруча-Рид А. Т. Элементы теории марковских процессов и их приложения : Пер. с англ./Под ред. А. Н. Ширяева. — М.: Наука, 1969.—511 с. 47. Kendall D. G. On the generalized birth-and-death process. — Ann. Math. Statist., 1948, v. 19, p. 1 — 15. 48. Стратонович Р. Л. Условные марковские процессы и их применение к теории оптимального управления.— М.: МГУ, 1966.—319 с. 49. Обрезков Г. В., Разевиг В. Д. Методы анализа срыва слежения. — М.: Сов. радио, 1972. — 239 с. 50. Гихман И. И., Скороход А. В. Стохастические дифференциальные уравнения. — Киев: Наукова думка, 1968. — 584 с. 51. Параев Ю. И. Введение в статистическую динамику процессов управления и фильтрации. — М.: Сов радио, 1976.— 184 с. 52. Гихман И. И., Скороход А. В. Введение в теорию случайных процессов. — М.: Наука, 1965.— 654 с. 53. Миронов М. А. Нелинейное преобразование случайного телеграфного сигнала.— Радиотехника, 1980, т. 35, № 7, с. 70—72. 54. Дынкин Е. Б. Марковские процессы. — М.: Физматгиз, 1963. — 859 с. 55. Годунов С. К. Уравнения математической физики. —М.: Наука, 1971.—416 с. 56. Тихонов А. Н., Самарский А. А. Уравнения математической физики.—М.: Наука, 1972. — 735 с. 57. Михлин С. Г.» Смолицкий X. Л. Приближенные методы решения дифференциальных и интегральных уравнений. — М.: Наука, 1965. — 383 с. 58. Линдсей В. Системы синхронизации в связи и управлении: Пер. с англ. /Под ред. Ю. Н. Бакаева, М. В. Капранова.—М.: Сов. радио, 1978.— 597 с. 59. Марчук Г. И. Методы вычислительной математики.— М.: Наука, 1977. 60. Казаков И. Е. Статистическая динамика систем с переменной структурой. — М.: Наука, 1977. — 416 с. 61. Фрейдлин М. И. О стохастических уравнениях Ито и вырождающихся эллиптических уравнениях. —Изв. АН СССР. Сер. матем. 1962, т. 26, №£5. 62. Никитин Н. Н., Разевиг В. Д. Методы цифрового моделирования стохастических дифференциальных уравнений и оценка их погрешности. — Журн. вычисл. математики и мат. физики, 1978, т. 18, № 1, с. 106—117. 63. Красовский А. А. Фазовое пространство и статистическая теория динамических систем. — М.: Наука, 1974. — 232 с. 64. Сейдж Э. П., Мелса Дж. П. Теория оценивания и ее применение в связи и управлении: Пер. с англ./Под ред. Б. Р. Левина. — М.: Связь, 1976. С17
65. Витерби Э. Д. Принципы когерентной связи: Пер. с англ ./Под ред. Б. Р. Левина. — М.: Сов. радио, 1970.— 391 с. 66. Миронов М. А.» Белоусова В. С. Срыв синхронизации в системах фазовой автоподстройки второго порядка.— Радиотехника и электроника, 1981, т. 26, № 1, с. 118—126. 67. Миронов М. А.» Белоусова В. С. Статистические характеристики срыва синхронизации в аналоговых системах фазовой автоподстройки второго порядка. — Радиотехника и электроника, 1981, т. 26, № 4, с. 783—792. 68. Теория связи: Пер. с англ./А. В. Балакришнан, Дж. В. Карлил, В. Л. Рут и др.; Пер. под ред. Б. Р. Левина. — М.: Связь, 1972. — 391 с. 69. Weinberg Α., Liu В. Discrete time analyses of nonuniform sampling first — and second order digital phase lock loops. — IEEE Trans., 1974, v. COM-22, №2, p. 123—137. 70. Тихонов В. И. Статистическая радиотехника.— Μ.: Сов. радио, 1966. 71. Кокс Д. Р., Смит В. Л.. Теория восстановления: Пер. с англ./Под ред. и с до- полн. Ю. К. Беляева. — М.: Сов. радио, 1967. ^- 300 с. 72. Кокс Д., Льюис П. Статистический анализ последовательностей событий: Пер. с англ./Под ред. Н. П. Бусленко. — М.: Мир, 1969.-312. с. 73. Сох D. R., Miller Η. D. The theory of stochastic processes. — London: Met- huen, 1965. — 398 p. 74. Хинчин А. Я. Работы по математической теории массового обслуживания. Μ.: Физматгиз, 1963. —236 с. 75. Parzen E. Stochastic processes. — Holden day, inc., 1962. —"324 p. 76. Davenport W. B. Probability and random processes. — New Jork: McGraw- Hill, 1970. — 542 p. 77. Snyder D. L. Random point processes. — New Jork: John Wiley, 1975. 78. Венскаускас К· К., Малахов Л. Μ. Обзор по импульсным помехам.—Зарубежная радиоэлектроника, 1978, № 1, с. 95—125. 79. Лихтер Я. И. О некоторых статистических свойствах атмосферных радиопомех. — Радиотехника и электроника, 1956, т. 1, № 10, с. 1295—1302. 80. Давенпорт В. Б., Рут В. Л. Введение в теорию случайных сигналов и шумов: Пер. с англ./Под ред. Р. Л. Добрушина. — М.: ИЛ, 1960. — 468 с. 81. Brown J. L. Mean square truncation error in series expansion of random functions. — SI AM, 1960, v. 8, Jsib 1, p. 28—32. 82. Cere Г. Ортогональные многочлены: Пер. с англ./Пер. В. С. Виденского.— М.: Физматгиз, 1962. — 500 с. 83. Суетин П. К. Классические ортогональные многочлены. — М.: Наука, 1976. — 342 с. 84. Кузнецов П. И., Стратонович Р. Л., Тихонов В. И. Квазимоментные функции в теории случайных процессов. — Теория вероятностей и ее применения, 1960, т. 8, № 1, с. 84—102. 85. Marcum J. I. A statistical theory of target detection by pulsed radar. — IRE Trans., 1960, v. IT-6, № 2, p. 59—267. 86. Деч Р. Нелинейные преобразования случайных процессов: Пер. с англ./ Под ред. Б. Р. Левина. — М.: Сов. радио, 1965. — 206 с. 87. Barret J. F.t Lampard D. G. An expansion for some second-order probability distributions and its application to noise problems.— IRE Trans., 1955, v. IT-1, № 1, p. 10—15. 88. Brown J. L. A criterion for the diagonal expansion of a second-order probability distribution in orthogonal polynomials. — IRE Trans., 1958, v. IT-4, № 4, p. 172. 89. Leipnik R. Integral equations, biorthonormal expansions and noise. —SIAM, 1959, v. 7, Nb 1, p. 6—30. 90. Град штейн И. С., Рыжик И. М. Таблицы интегралов, сумм, рядов и произведений/— М.: Наука, 1971. — 1108 с. 91. McFadden J. A. A diagonal expansion in Gegenbauer polynomials for a class of second-order probability densities. — SIAM, 1966, v. 14, № 6. 92. Wong E., Thomas4 J. B. On polynomial expansions of second-order distributions. — SIAM,' 1962, v. 10, № 3, p. 507—516. 93. Быков В. В. Цифровое моделирование в статистической радиотехнике. — М.: Сов. радио, 1971. — 326 с. 618
94. Коваленко^И.|Н., Филиппова А. А. Теория вероятностей и математическая статистика: Учеб. пособие для вузов. — М.: Высшая школа, 1973. — 368 с. 95. Фельдман Ю. И. Распределения амплитуды и фазы вектора, проекции которого распределены нормально и коррелированы друг с другом (общий случай). — Вопросы радиоэлектроники. Сер. ОТ, 1964, № 1, с. 78—98. 96. Middleton D. A statistical theory of reverberation and similar first-order scattered fields: pt. I — Waveforms and the general process. — IEEE Trans., 1967, v. IT-13, № 3, p. 372—392; part II — Moments, Spectra and special distributions. — IEEE Trans., 1967, v. IT-13, № 3, p. 393—414. 97. Pao С. Р. Линейные статистические методы и их применения: Пер. с англ. /Под ред. Ю. В. Линника.— М.: Наука, 1968. — 548 с. 98. Хан Г., Шапиро С. Статистические модели в инженерных задачах: Пер. с англ./Под ред. В. В. Налимова. — М.: Мир, 1969. — 396 с. 99. Чабдаров Ш. M.f Трофимов А. Т. Полигауссовы представления произвольных помех и прием дискретных сигналов. — Радиотехника и электроника, 1975, т. 20, № 4, с. 734—745. 100. Харисов В. Н., Минь Н. Д. Спектральные плотности радиосигналов, мани- пулированных бинарными случайными последовательностями. — Изв. вузов СССР. Радиоэлектроника, 1981, т. 24, № 4, с. 92—95. 101. Харисов В. Н., Минь Н. Д. Корреляционная функция и спектральная плотность дискретных ЧМ радиосигналов с непрерывной фазой. — Радиотехника и электроника, 1983, т. 28, № 1, с. 74—81. 102. Bennet W. R., Rice S. О. Spectral density and autocorrelation function associated with binary frequency — shift keying. — BSTJ, 1963, v. 42, № 5. 103. Gronemeyer S. Α., McBride A. L. MSK and offset QPSK modulation. — IEEE Trans., 1976, v. COM-24, № 8, p. 809—819. 104. Кузнецов П. И., Стратонович Р. Л., Тихонов В. И. Прохождение случайных функций через нелинейные системы. — Автоматика и телемеханика, 1953, т. 14, № 4, с. 375—391. 105. Rice S.O. Mathematical analysis of random noise.—BSTJ, 1944, v. 23, № 3, p. 282—332; 1945, v. 24, № l, p. 46—156. 106. Миддлтон Д. Введение в статистическую теорию связи: Пер. с англ./ Под ред. Б. Р. Левина.— М.: Сов. радио. Т. 1. 1961.— 782 с. 107.. Слейтер Л. Дж. Вырожденные гипергеометрические функции; Пер. с англ. Пер. М. К. Керимова.— М.: ВЦ АН.СССР, 1966.—250 с. 108. Амиантов И. Н., Тихонов В. И. Воздействие нормальных флюктуации .на типовые нелинейные элементы. — Изв. АН СССР. ОТН, 1956, № 4. 109. Тихонов В. И., Амиантов И. Н. Воздействие сигнала и шума на нелинейные элементы (прямой метод). —Радиотехника и электроника, 1957, т. 11, № 5. ПО. Price R. A useful theorem for nonlinear devices having gaussian inputs.— IRE Trarrs., 1958, v. IT-4, № 2, p. 69—72; 1964, v. IT-10, № 2, p. 171. 111. McFadden J. A. An alternate proof Nuttal's theorem on output crosscova- . riance. — IEEE Trans., 1965, v. IT-11, № 2, p. 306. 112. Papoulis A. Comment on «An extension of Price's theorem».— IEEE Trans., 1965, v. IT-11, № 1, p. 154. 113. Brown J. L. A generalized form of Priced theorem and its converse. — IEEE Trans., 1967, v. IT-13, № 1, p. 27—30. 114. Pawula R. F. A modified version of Price's theorem. — IEEE Trans., 1967, v. IT-13, Mb 2, p. 285—288. 115. Bonnet G. Transformations des signaux aleatoires a travers les systemes non lineaires sans memoire. — Ann. Telecommun., 1964, v. 19» p. 203—220. 116. Dussauchoy A. Application due development de Gram—Charlier au calcul des moments d4inefonction aleatoire ayant subi une transformation sans me· " moire. — Rev, С Ε. Τ. Η. Ε. D.E.C., 1967, ν. 4, № 9, ρ. 99—123. 117. Dussauchoy Α. A direct proof of a result of Bonnet's. — IEEE Trans., 1969, v. IT-15, № 1, p. 163. 118. Thomas J. B. An introduction to statistical communication theory. — New York: John Wiley, 1969.— 670 p. 119. Baum R. F. The correlation function of gaussian noise passed through nonlinear devices. — IEEE Trans., 1969, v. IT-15, № 4, p. 448—456. 619
120. Гершман С. Г., Фейнберг Е. Л. Об измерении коэффициента корреляции.— Акуст. журн., 1955, т. 1, № 4, с. 326—338. 121. Вольф, Томас, Уильяме. Коррелятор совпадения полярностей.— Зарубежная радиоэлектроника, 1962, № 4, с. 66—74. 122. Jespers P., Спи Р. Т., Fettweis A. A new method to compute correlation functions. — IRE Trans., 1962, v. IT-8, JMb 5, p. 106—107. 123. Экри. Коррелятор совпадения полярностей для обнаружения источника слабых шумов. — Зарубежная радиоэлектроника, 1963, № 10, с. 57—66. 124. Черняк Ю. Б. Корреляторы с идеальными ограничителями.— Радиотехника, 1965, т. 20, № 3, с. 70—77. 125. Ruchkin D. S. Error of correlation coefficient estimates from polarity coin- ' cidences.— IEEE Trans., 1965, v. IT-11, № 2, p. 296—297. 126. Копилович Л. Е. К теории коррелятора совпадения полярностей. — Изв. вузов СССР. Радиотехника, 1966, т. 9, № 6, с. 719—725. 127. Бурунсузян Э. С. Знаковый коррелятор как индикатор отношения сигнал/ шум. — Радиотехника и электроника, 1968, т. 13, № 2, с. 268—275. 128. Егоров Н. И. Расширение области прямого применения метода полярной корреляции.— Автоматика и вычислительная техника, 1968, № 2, с. 54—59. 129. Веселова Г. П., Грибанов Ю. И. О некоторых погрешностях полярных корреляторов.— Автоматика и телемеханика, 1970, т. 31, № 10, с. 54 —59. 130. Томас Д. Б. Непараметрические методы обнаружения сигналов. — ТИИЭР, 1970, т. 58, №5, с. 23—31. 131. Курочкин С. С. Многоканальные счетные системы и коррелометры. —М.: Энергия, 1972.— 344 с. 132. Baum R. F. The correlation function of smoothly limited gaussian noise. — IRE Trans., 1957, v. IT-3, № 3, p. 193—197. 133. Величкин А. И. Теория дискретной передачи непрерывных сообщений. — Μ.: Сов. радио, 1970.— 296 с. 134. Ван Трис Г. Теория обнаружения, оценок и модуляции в 3-х т.: Пер. с англ. — М.: Сов. радио, 1972—1977. Т. 2. Теория нелинейной модуляции/Под ред. В. Т. Горяинова. 1975.— 344 с. 135. Bennet W. R. Spectra of quantized signals. — BSTJ, 1948, v. 27, № 3. 136. Косяки и А. А. Статистическая теория квантования по уровню. — Автоматика и телемеханика, 1961, т. 22, № 6, с. 722—729. 137. Spirad Α., Snyder D. L. A necessary and sufficient condition for quantization errors to be uniform and white.— IEEE Trans., 1977, v. ASSP-25, №5. 138. Max J. Quantizing for minimum distortion.— IRE Trans., 1960, v. IT-6, № 1. 139. Roe G. M. Quantizing for minimum distortion. — IEEE Trans., 1964, v. IT-10, № 4, p. 384—385. 140. Banta E. D. On the autocorrelation function of quantized signal plus noise. — IEEE Trans., 1965, v. IT-11, № 1, p. 114—117. 141. Fine T. Optimum mean-square quantization of a noisy input. — IEEE Trans., 1965, v. IT-11, № 2, p. 190—195. 142. Paez M. D., Glisson Т. Н. Minimum mean-squared-error quantization in speech PCM and DPCM Systems. — IEEE Trans., 1972, v. COM-20, № 2, p. 225—230. 143. Larson R. E. Optimum quantization in dynamic systems. — IEEE Trans., 1967, v. AC-12, p. 162—168. 144. Blachman N. M. Noise and its effect on communication. — New York: McGraw-Hill, 1966. — 212 p. 145. Безуглый В. В., Жуков В. П. Сигнал и шум на выходе умножителя частоты.— Изв. вузов СССР. Радиоэлектроника, 1976, т. 19, № 12, с. 45—49. 146. Безуглый В. В., Жуков В. П. Максимальное отношение сигнал/шум после нелинейного преобразования суммы гармонического сигнала и узкополосного гауссова шума. — Изв. вузов СССР. Радиоэлектроника, 1979, т. 22, №3, с. 51—55. 147. Davenport W. В. Signal-to-noise ratios in band-pass limiters.—J. Appl. Phys., 1953, v. 24, JMb 6, p. 720—727. 148. Berglund С N. A note on power-law devices and their effect on signal-to- noise ratio. — IEEE Trans., 1964, v. IT-10, № 1, p. 52—57. 620
149. Nuttall A. H. On the envelopes of zonal filters outputs of memoryless distortions of narrow-band processes. — IEEE Trans., v. IT-11, № 2. 150. Jain P. C. Limiting of signals in random noise. — IEEE Trans., 1972, v. IT-18, №3, p. 333—340. 151. Andrews L. С The probability density function for the output of a cross- correlator with bandpass inputs. — IEEE Trans., 1973, v. IT-19, № 1. 152. Гнеденко Б. В., Колмогоров А. Н. Предельные распределения для сумм независимых случайных величин. — М.: Гостехиздат, 1949.—264 с. 153. Артамонов Г. Т., Тюрин В. Д. Анализ информационно-управляющих систем со случайным интервалом квантования сигнала по времени. — М.: Энергия, 1977. — 112 с. 154. Dawson С. Н., Sclar H. False addresses in a random access system employing discrete time-frequency addressing. — IEEE Internat. conven. record, 1964, pi 6, p. 217—227. 155. Дынкин Ε. Б. Об одной задаче из теории вероятностей. — УМН, 1949, т. 4, вып. 5, с. 183—197. 156. Лившиц А. Р., Биленко А. П. Многоканальные асинхронные системы передачи информации. — М.: Связь, 1974.— 232 с. 157. Кузенков В. Д. Распределение вероятности огибающей и фазы суммы случайных сигналов. — Науч. труды вузов Поволжья, 1971, вып. 6, с. 3—12. 158. Дунин-Барковский И. В., Смирнов Н. В. Теория вероятностей и математическая статистика в технике.— М.: Гостехиздат, 1955. — 556 с. 159. Хальд А. Математическая статистика с техническими приложениями: Пер. с англ./Под ред. Ю. В. Линника.— М.: ИЛ, 1956. — 664 с. 160. Ван дер Варден Б. Л. Математическая статистика: Пер. с немец./Под ред. Н. В. Смирнова. — М.: ИЛ, 1960. — 434с. 161. Линник Ю. В. Метод наименьших квадратов и основы теории обработки наблюдений. — М.: Физматгиз, 1962. — 350 с. 162. Кен дал л М., Стьюарт А. Статистические выводы и связи: Пер с. англ. /Под ред. А. Н. Колмогорова. — М.: Наука, 1973. —900 с. 163. Дюге Д. Теоретическая и прикладная статистика: Пер. с франц./Под ред. Ю. В. Линника.— М.: Наука, 1972. — 384 с. 164. Уилкс С. Математическая статистика: Пер. с англ. — М.: Наука, 1967. 165. Беляев Ю. К. Вероятностные методы выборочного контроля. — М.: Наука, 1975. — 408 ς. 166. Nahi Ν. Ε. Estimation theory and applications. — New York: John Wiley, 1969. — 280 p. 167. Кузнецов П. И., Стратонович Р. Л., Тихонов В. И. Прохождение некоторых случайных функций через линейные системы.—Автоматика и телемеханика, 1953, т. 14, №2, с. 144—163. 168. Тихонов В. И., Толкачев А. А. Воздействие ненормальных флюктуации на линейные системы. — Изв. АН СССР, ОТН, 1956, № 2, с. 48—56. 169. Бендат Дж. Основы теории случайных шумов и ее применения: Пер. с англ. / Под ред. В. С. Пугачева. — М.: Наука, 1965. — 464 с. 170. Гоноровский И. С. Радиотехнические цепи и сигналы: Учебник для радиотехнических вузов. — 3-е изд., перер. и доп. —М.: Советское радио, 1977. — 608 с. 171. Гренандер У. Случайные процессы и статистические выводы: Пер. с англ./ Пер. А. М. Яглома. — М.: ИЛ, 1961. — 168 с. 172. Определение параметров случайных процессов, сб. статей: Пер. с англ./ Под ред. В. И. Чайковского. — Киев.: Гостехиздат УССР, 1962. — 168 с. 173. Виленкин С. Я. Статистическая обработка результатов исследования случайных функций. — М.: Энергия, 1979. — 320 с. 174. Дженкинс Г., Ватте. Спектральный анализ и его приложения в 2-х вып.: Пер. с англ. — М.: Мир, вып. 1, 1971, вып. 2, 1972. ' 175. Коняев К. В. Спектральный анализ случайных процессов. — М.: Наука, 1973. — 168 с. 176. Грибанов Ю. И., Мальков В. Л. Выборочные оценки спектральных характеристик стационарных случайных процессов. — М.: Энергия, 1978.—150 с. 177. Цветков Э. И. Нестационарные случайные процессы и их анализ. — М.: Энергия, 1973.— 128 с. 621
178. Кори Г. Моделирование случайных процессов на аналоговых и анаж>го- цифровых машинах: Пер. с англ. — М.: Мир, 1968.— 316 с. 179. Котюк А. Ф., Ольшевский В. В., Цветков Э. И. Методы и аппаратура для анализа характеристик случайных процессов. —М.: Энергия, 1967. — 238 с. 180. Балл Г. А. Аппаратурный корреляционный анализ случайных процессов.— М.: Энергия, 1968. — 160 с. 181. Palmer D. F. Bias criteria for selection of spectral windows. — IEEE Trans., 1969, v. IT-15, № 5, p. 613—615. 182. Papoulis A. Minimum-bias windows for high-resolution spectral estimates.— IEEE Trans., 1973, v. IT-19, № 1, p. 9—12. 183. Хэррис Ф. Дж. Использование окон при гармоническом анализе методом дискретного преобразования Фурье. — ТИИЭР, 1978, т. 66, № 1, с. 60—99. 184. Тихонов В. И., Левиков А. А. О квазиоптимальных линейных фильтрах для импульсных сигналов. — Радиотехника, 1965, т. 20, № 1, с. 10—17. 185. Беляев Ю. К. Аналитические случайные процессы. — Теор. вероят. и ее применения, 1959, т. 4, вып. 4, с. 437—444. 186. Wonham W. Μ., Fuller Α. Τ. Probability densities of the smoothed random telegraph signal. — J. Electronics Control, 1958, v. 4, JMb 6, p. 567—576. 187. Pawula R. F. Statistical geometry of the smothed telegraph signal. — Intern. J. Control, 1972, v. 16, №4, p. 629— 640. 188. Keilson J., Mermin N. D. The second-order distribution of integrated shot noise. — IRE Trans., 1959, v. IT-5, № 2, p. 75 —77. 189. Racine P., Haber F. Bruit a la sortie d'un filtre passe-bande resultant d'impulsions breves, avec une distribution de poisson a lentree. — Annal. Telecommuns., 1969, v. 24, №9 — 10, p. 296—298. 190. Колмогоров А. Н. Интерполирование и экстраполирование стационарных случайных последовательностей.— Изв. АН CCCPi Сер. матем., 1941, JVP> 5. 191. Wiener N. Extrapolation, interpolation and smoothing of stationary time series. — New York: John Wiley, 1949. — 162 p. ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ Вариационный ряд 430 Вероятность 10 — доверительная 447" Воспроизводящее свойство 335 Время корреляции 126 Выборочный метод 429 Гипотезы 16, 466 Граница доверительная 435 Дельта-функция 608 Дисперсия 49 — оценки 438, 452 — условная 58 Диффузионный процесс 497 Задача ацализа 5, 309, 481 — синтеза 5 Закон распределения 19 — больших чисел 52 — Пуассона 129, 251, 261 — Эрланга 253, 411 Значение верхнее 430 — нижнее 430 Интеграл вероятности 64 — Ито 219 — Стратоновича 221 Интенсивность потока 252 Квазимоменты 283, 596 Квантиль 47 Квантователь 381 Ковариационная функция 104 Композиция плотностей вероятностей 324 Коррелятор совпадения полярностей 372 Корреляционная функция 104, 121 — матрица 72, 120 нормированная 120 Коэффициент асимметрии 55, 285 — эксцесса 55, 285 622 Критерий Пирсона 434 — согласия 434 Лемма Лебега—Римана 591 Математическое ожидание 44 -— ^.услбв,ное--5£ Медиана 47 Мода 47 Моменты абсолютные 48 — ковариационные 104 — начальные 48, 67 — совместные 56 — центральные 48, 67 Метод прямой 360 — характеристической функции 360 Надежность системы 14, 329 Неравенство Коши—Буняковского 615 -ι- Рао—Крамера 440 — Чебышева 50 Нормализация случайного процесса 592 Область критическая 467 г— принятия гипотезы 467 Объем выборки 430 Ограничитель 314, 366, 372, 378, 400 Окно корреляционное 537 — спектральное 537 Ортогональные случайные величины 61, 120 Оценивание линейное 602 — нелинейное 602 Оценка достаточная 438 — линейная 460 — моментов 443 — несмещенная 437 — состоятельная 436 , — эффективная 440 Оценки некоррелированные 443
Плотность вероятности 20, 34, 36, 40, 98 — —ПайостеТЯГОрная 452 - ' априорная 451 — — нормальная 63, 68, 73 Полиномы Чебышева—Эрмита 72, 284 Порог квантования 381 Преобразование безынерционное -309 — Ганкеля 173 — кусочно-лииейиое 314 — линейное 308 — моментов 322, 488 — плотностей вероятностей 310, 321 — функциональное 309 Разложение Карунена—Лоэва 281 — Мелера 72 Рандомизация 324 Размах выборки 430 Ряд Грама—Шарлье 595 — Лагерра 286 — Эджворта 284 Случайная величина 19, 49 Случайная функция 92· Случайное поле 92 изотропное 176 однородное 114 стационарное 114 Случайный процесс 92 аналитический 564 вырожденный 566 гауссовский 181 марковский 196 'непрерывный 94, 485 пуассоиовский 213, 249 стационарный 106» 108 точечный 94, 245 узкополосный 145, 507 • эквивалентный 98 эргодический 117, 515 Смесь 324 Средний квадрат ошибки 53 Среднее квадратическое отклонение 49 Средний риск 469 Статистические характеристики 428 .Спектральная- плотность 139 — — взаимная 149 : нестационарного процесса 160 нормированная 146 — — случайного поля 173 Спектр пространственно-временной 170 Сходимость в среднеквадратическом 483 — по вероятности 484 — почти наверное 483 — по распределению 484 Теорема Кемпбелла 272 — центральная предельная 64, 593 Условия физической возможности 478 Условная плотность вероятности 37, 186 — функция распределения 36 Уравнение- Колмогорова обратное 223 — Колмогорова—Филлера 223 — Колмогорова—Чэпмена 42, ИЗ — правдоподобия 453 — Понтрягина 225 — стохастическое 218 — флюктуациоиное 568 — Фоккера—Планка—Колмогорова 228 Уровень значимости 435 Формула Винера—Хинчина 139 Функция передаточная 478 — правдоподобия 452 — потерь 453 — производящая 205 — распределения 21, 34, 36, 39, 98 — характеристическая 32, 35, 101 Характеристика амплитудно-частотная 478 — комплексная частотная 478 — импульсная 477 — переходная 478 — фазочастотная 478 Цепь Маркова однородная 200 неоднородная 200 Шум белый 191 дискретный 504 ^-дробовой-192, 265 — тепловой 193 Шаг квантования 381 Эффективная ширина спектра 145
ОГЛАВЛЕНИЕ Предисловие ... ' 3 Введение ... 4 Список литературы 7 ГЛАВА 1. СВЕДЕНИЯ ИЗ ТЕОРИИ ВЕРОЯТНОСТЕЙ 9 1.1. Основные понятия теории вероятностей 9 1.2. Описание случайных величин 19 1.3. Числовые характеристики случайных величин 43 1.4. Гауссовские случайные величины 63 1.5. Распределения Пирсона 78 ГЛАВА 2. СЛУЧАЙНЫЕ ПРОЦЕССЫ 91 2.1. Общие определения, методы описания и классификация 91 2.2. Корреляционная функция 119 2.3. Спектральный анализ 138 2.4. Спектральный анализ детерминированных и случайных полей ... 168 2.5. Гауссовские случайные процессы 179 2.6. Марковские процессы 196 2.7. Пуассоновский процесс и его обобщения 244 2.8. Представление случайных процессов и плотностей вероятностей ортогональными рядами 275 2.9. Корреляционные функции и спектральные плотности манипулиро- ванных радиосигналов 293 ГЛАВ А 3. ФУНКЦИОНАЛЬНЫЕ ПРЕОБРАЗОВАНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН ол_ И ПРОЦЕССОВ 307 3.1. Классификация преобразований 307 3.2. Преобразование плотностей вероятностей и моментов 310 3.3. Преобразования гауссовских процессов и гармонических колебаний со случайными параметрами 334 3.4. Полиномиальные и кусочно-разрывные преобразования 356 3.5. Квантование случайных сообщений 380 3.6. Функциональные преобразования сигнала и шума 389 3.7. Простейшие операции над пуассоновским процессом 407 3.8. Дополнительные примеры 420 ГЛАВА 4. ЭЛЕМЕНТЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ 427 4.1. Предмет математической статистики 427 4.2. Оценка закона распределения 431 4.3. Характеристики оценок.- Оценки моментов распределения .... 436 4.4. Методы оценки параметров распределения 450 4.5. Линейное оценивание. Метод наименьших квадратов 460 4.6. Проверка статистических гипотез ' 466 ГЛАВА 5. СЛУЧАЙНЫЕ ПРОЦЕССЫ В ЛИНЕЙНЫХ СИСТЕМАХ 477 5.1. Основные сведения из теории цепей. Задачи анализа. Стохастическая сходимость 477 5.2. Вычисление моментных и корреляционных функций на выходе линейной системы 488 5.3. Примеры линейных преобразований 497 5.4. Эргодичность и экспериментальное определение основных характеристик 515 5.5. Квазиоптимальные линейные фильтры 546 5.6. Дифференцирование случайного, процесса. Аналитические процессы 554 5.7. Линейные флюктуационные дифференциальные уравнения .... 568 5.8. О пересечениях гауссовского случайного процесса 575 5.9. Воздействие импульсных случайных процессов на линейные системы 581 5.10. Нормализация случайных процессов инерционными системами . . 592 5.11. Линейное оценивание по минимуму среднего квадрата ошибки . . 600 Приложение I. Дельта-функция 608 Приложение II. Справочные формулы 614 Список литературы 615