Текст
                    Введение
в теорию
СЛУЧАЙНЫХ
СИГНАЛОВ
и шулюв

и * л Издательство Иностранной литературы
AN INTRODUCTION TO THE THEORY OF RANDOM SIGNALS AND NOISE Wilbur B. Davenport, Jr., and William L. Root LINCOLN LABORATORY, MASSACHUSETTS INSTITUTE OF TECHNOLOGY McGraw-Hill Book Company, Inc. New York Toronto London 1958
В. Б. ДАВЕНПОРТ и В. Л. РУТ ВВЕДЕНИЕ В ТЕОРИЮ СЛУЧАЙНЫХ СИГНАЛОВ И ШУМОВ Перевод с английского Б. Г. БЕЛКИНА Под редакцией Р. Л. ДОБРУШИНА • * i - • * ИЗДАТЕЛЬСТВО ИНОСТРАННОЙ ЛИТЕРАТУРЫ Москва, 1960
АННОТАЦИЯ Предлагаемая книга представляет собой учебное руководство по статистическим методам теории связи. В первую очередь она рассчитана на студентов старших курсов, аспирантов и инжене- ров радиотехнических и радиофизических специальностей. Мно- гие главы будут интересны и инженерам других специальностей. Так, главы 2—6 образуют популярное руководство по теории ве- роятностей и теории вероятностных процессов, а глава 14 пред- ставляет собой краткое, но содержательное введение в математи- ческую статистику. Наконец, много интересного найдут для себя в этой книге и математики, занимающиеся теорией вероятностей Редакция литературы по математическим наукам
ПРЕДИСЛОВИЕ РЕДАКТОРА ПЕРЕВОДА Развитие техники передачи информации привело к тому, что теперь возможности ее дальнейшего прогресса лимитируются в основ- ном физическими явлениями, имеющими статистический харак- тер («шумами»). Поэтому в теории связи за последние годы все боль- шую важность приобретают расчетные методы, основанные на современных достижениях теории вероятностей, теории вероятност- ных процессов и математической статистики. Книга Давенпорта и Рута представляет собой первый американский учебник для инже- неров, желающих освоить статистические методы теории связи. В соответствии с этим у читателя книги не предполагается ^наний высшей математики, выходящих за пределы стандартного курса анализа для - инженеров, и совсем не предполагается знаний по теории вероятностей. В то же время авторы там, где это нужно, считают, что читатель владеет основными понятиями радиотехники. Книга написана с большим педагогическим тактом. Авторы* в со- ответствии с задачей книги не стремятся к математической стро- гости там, где отказ от нее может упростить понимание и изложение. Но эта. нестрогость нигде не переходит в вульгаризацию. Читатель- математик с удовлетворением отметит, что авторы последовательно, хотя и не навязчиво, различают аксиомы, теоремы и определения, утверждения доказываемые и утверждения лишь наглядно растол- ковываемые. ‘Хотя авторы четко выдерживали курс на основного читателя книги — специалиста по технике связи, многие главы книги будут очень интересны и читателям других специальностей. В частности, главы 2—6 образуют хорошее популярное руководство по теории вероятностей и теории вероятностных процессов, полезное для инженеров любой специальности, а глава 14 незаменима как краткое, но содержательное введение в современную математическую ста- тистику. Специалисту по теории вероятностей будут особенно инте- ресны главы 12 и 13, поскольку здесь впервые дается моногра- фическое изложение вопроса ©'распределении вероятностного про- цесса на выходе нелинейного фильтра. При переводе книги возникли некоторые терминологические трудности. Отчасти они были связаны с расхождениями между тер- минологией, принятой в нашей литературе по теории вероятностей,
Предисловие редактора перевода и терминологией, принятой в литературе по приложениям теории вероятностей в радиотехнике. Во всех таких спорных случаях предпочтение было оказано терминологии, принятой в математиче- ской литературе, поскольку лишь на таком пути можно надеяться достичь единства терминологии в разнородных приложениях одной и той же отрасли математики. Иногда также оказывалось, что в русской литературе нет подходящего термина; в таких случаях русский термин приходилось изобретать заново. Мы надеемся, что эта книга будет встречена с большим интере- сом советскими читателями. Р. Л. Добруишн
ПРЕДИСЛОВИЕ На протяжении последнего десятилетия среди инженеров быстро выросло понимание силы идей и методов математической стати* стики в применении к задачам, связанным с передачей и обработкой информации. Статистический подход к подобным задачам помогал не только лучшему пониманию теории связи, но и практической разработке новой аппаратуры. В настоящей книге мы попытались дать введение в статистическую теорию, лежащую в основе изуче- ния сигналов и шумов в системах связи; в частности, мы в равной мере старались представить как методы математической статистики, так и получаемые с их помощью результаты. Книга эта выросла из конспектов лекций, приготовленных пер- вым из авторов в 1952 г., по курсу статистической теории шумов и модуляции на первом году повышенного обучения в Массачусет- ском технологическом институте (МТИ) на электротехническом факультете. Еще раньше этот материал в основном в его нынешней форме был использован при чтении неофициального курса в лабо- ратории Линкольна МТИ. С некоторыми дополнениями данный материал может послужить основой для годового курса на первом году повышенного обучения. С другой стороны, если опустить некоторые разделы книги, в частности §§ 6.4 и 9.5 гл. 11 и часть гл. 14,*то оставшийся материал может, по-видимому, быть освоен в течение одного семестра. Предварительная jподготовка должна включать в себя элементы теории электрических цепей и курс повышенного типа по математическому анализу для инженеров, содержащий ряды и интегралы Фурье. Практически невозможно поблагодарить всех, кто способство- вал созданию настоящей книги. Однако мы не можем не упомянуть Д. Миддльтона, с которым имели много стимулирующих бесед, и наших коллег по МТИ, давших много ценных советов и сделав- ших ряд критических замечаний. В частности, мы хотим поблаго- дарить М. Левенталя за время и усилия, затраченные им на крити- ческий просмотр рукописи в целом. В. Б. Давенпорт, В. Л. Рут,
Глава 1 ВВЕДЕНИЕ 1.1. Системы связи и статистика Простейшая система связи представляет собой каскадное соеди- нение источника информации, линии связи и потребителя инфор- мации, причем линия связи, как показано на фиг. 1.1, состоит из передатчика, канала и приемника. Передатчик осуществляет Фиг. 1.1. Система связи. 1 — источник информации; II — передатчик; III — канал связи; IV — приемник; V — потребитель информации. модуляцию или кодирование поставляемой источником информа- ции, преобразуя ее в сигнал пригодной для передачи по каналу формы; канал обеспечивает передачу сигнала через пространство^ разделяющее передатчик и приемник, а приемник демодулирует или декодирует сигнал, преобразуя его к виду, пригодному для потребителя. Типичными примерами линий связи являются: 1) УКВ-ЧМ-радиовещание, доставляющее развлечение слушате- лям; 2) многократная система радиосвязи с разделением по вре- мени, передающая различные данные управляемому с ее помощью устройству, например кораблю или самолету; 3) система «теле- тайп», включающая соединительный провод или кабель и оконеч- ные устройства, которая передает телеграммы из одного пункта в другой, и 4) глаз и соответствующие участки нервной системы, передающие зрительное изображение мозгу. Случайность или непредсказуемость может возникать^ системе связи вследствие трех причин: информация, поставляемая источ- ником, может быть не полностью предсказуемой; в линии связи могут возникать случайные возмущения; потребитель может не- правильно интерпретировать поступающую к нему информацию. Согласно основному принципу теории информации, при передаче какой-либо информации сообщение на выходе источника должно- быть в той или иной мере непредсказуемо: если сообщение на вы- ходе источника может быть предсказано полностью, то потребитель
Гл. 1. Введение 10 может в любой момент, не прибегая к системе связи, предвидеть все будущие сообщения, посылаемые источником. Возмущения в ка- нале связи могут возникать в силу различных причин. Как в пере- датчике, так и в приемнике к сигналу может добавляться шум. Если в качестве линии связи используется радио, то к сигналу может добавляться шум, обусловленный, например, атмосферными поме- хами, космическими помехами или помехами, являющимися делом рук человека. Кроме того, может иметь место распространение сигнала различными случайно изменяющимися путями, приводя- щее к тому, что единый переданный сигнал возникает у приемника в виде множества взаимно интерферирующих сигналов. Поведение системы связи с известной степенью точности можно рассчитать даже при случайном характере сигналов и шумов, если известны некоторые их средние свойства. Этими свойствами могут быть средняя интенсивность или мощность, распределение мощ- ности по частоте и распределение мгновенных амплитуд. Исследова- ние соотношений между различными средними свойствами входит в предмет теории вероятностей и статистики. Цель настоящей книги состоит в том, чтобы ознакомить читателя с применением статисти- ческой техники к изучению систем связи1). Статистические свойства сигналов и шумов мы будем предполагать, вообще говоря, задан- ными; изучение оптимальных статистических свойств сигналов можно найти в работах по теории информации2), и здесь оно не лроводится. > 1.2. Эта книга Приблизительно вся первая половина настоящей книги посвя- щена рассмотрению тех элементов теории вероятностей и статисти- ки, которые особенно важны для изучения случайных сигналов и шумов в системах связи. Последующие главы книги посвящены приложениям. Обзор содержания. В гл. 2 вводится понятие вероятности собы- тия (т. е. исхода эксперимента) как относительной частоты его по- явления и формулируется система аксиом теории вероятностей. 'Далее рассматриваются вероятности одновременного появления нескольких событий и вводится понятие независимости. В гл. 3 вводится представление событий точками в выборочном простран- стве и определяются случайные величины как функции на этом .выбо- рочном пространстве. Далее вводятся понятие вероятностей, заданных на выборочном пространстве, и понятия функции распре- деления вероятностей и плотности распределения вероятностей случайной величины. Определение вероятностного процесса как х) Блестящее краткое изложение материала настоящей книги можно найти в работе Беннета (II) (см. литературу). 2) См., например, Шеннон (I и II).
1.2. Эта книга Ц семейства случайных величин, зависящих от параметра /, позволяет распространить понятия теории вероятностей на случайные функ- ции времени. В гл. 4 с помощью обычного арифметического среднего вводится понятие математического ожидания, или статистического среднего, и рассматриваются различные виды статистических средних. В част- ности, характеристическая функция случайной величины х опре- деляется как математическое ожидание exp (jvx) и показывается, что она является преобразованием Фурье от плотности распределе- ния вероятностей величины х. Затем вводится коэффициент корре- ляции двух случайных величин х и у как математическое ожидание нормированного произведения х на у и показывается, как он свя- зан с задачей наилучшего среднеквадратичного предсказания у по заданному х. Случайные величины х и у называются линейно независимыми, если их коэффициент корреляции равен нулю. На- конец, в гл. 4 исследуются соотношения между временными средни- ми и статистическими средними. В гл. 5 вводится понятие выбора, в частности более или менее подробно рассматривается вопрос о выборочном среднем. Здесь также выводится простой вариант центральной предельной теоремы и изучается соотношение между относительной частотой появления события и его вероятностью. Спектральная плотность, т. е. распределение мощности по ча- стоте для заданной функции времени, рассматривается в гл. 6, где показывается, что спектральная плотность мощности для данной функции времени является преобразованием Фурье от ее корреля- ционной функции. Далее понятие спектральной плотности распро- страняется на вероятностные процессы и рассматривается задача -о представлении случайного процесса рядами ортогональных функ- ций времени с независимыми случайными коэффициентами. В гл. 7 методы расчета статистических свойств физических про- цессов иллюстрируются примером изучения дробового эффекта в электронных лампах. Сначала методом, аналогичным использо- ванному Райсом (I), исследуются свойства дробового шума в дио- дах, работающих в режиме насыщения, после чего полученные ре- зультаты распространяются на лампы, работающие не в режиме насыщения. Один из наиболее часто встречающихся и хорошо изученных классов вероятностных процессов образуют гауссовские процессы. Их статистические свойства рассматриваются в гл. 8. В частности, подробно изучаются свойства узкополосного гауссовского вероят- ностного процесса, а также совместные статистические свойства синусоидального сигнала и узкополосного гауссовского процесса. В гл. 9, 10 и 11 методами, развитыми в гл. 2—8, изучается про- хождение случайных сигналов и шумов через линейные системы. В гл. 9 рассматривается прохождение через линейную систему сиг-
Гл. 1. Введение 12 нала в форме обычной функции времени и полученные результаты распространяются на случайные функции времени. Здесь определя- ются также корреляционные функции и спектральные плотности от- клика на выходе линейной системы при подаче на вход ее вероятност- ного процесса и решается задача о нахождении плотности распре- деления вероятностей отклика. В гл. 10 полученные результаты применяются к исследованию шума в усилителях. Определяется шум- фактор и рассматриваются некоторые его свойства. Гл. 11 посвяще- на вопросам синтеза оптимальной линейной системы. В частности, излагается теория сглаживания и прогнозирования с наименьшей среднеквадратичной ошибкой с использованием как всей предысто- рии входного сигнала, так и только некоторой конечной части ее. В гл. 12 и 13 рассматривается прохождение случайных .процес- сов через нелинейные системы, не имеющие памяти. В гл. 12 эта задача исследуется прямым методом при помощи преобразований переменных с использованием нелинейных характеристик рассма- триваемого устройства. В частности, там рассматриваются двух- полупериодный квадратичный и однополупериодный линейный детекторы. В гл. 13 определяется переходная функция нелинейного устройства как преобразование Фурье его характеристики. Далее переходная функция используется для нахождения корреляционной функции и спектральной плотности отклика нелинейной системы на сумму синусоидального сигнала и гауссовского вероятностного процесса. В заключение получаются частные результаты, относя- щиеся к классу нелинейных устройств v-й степени. Гл. 14 вводит читателя в вопросы приложения теории проверки статистических гипотез и оценки параметров к задачам обнаружения и выделения сигналов. Развиваются необходимые статистические принципы, включая критерий Неймана—Пирсона для проверки гипотез и другие критерии, использующие отношение правдоподо- бия, и оценку параметра методом наибольшего правдоподобия. Даются приложения развитых методов к радиолокационным устрой- ствам и системам радиосвязи, работающим с двоичным алфавитом. Библиография. Упоминаемые в тексте литературные источники перечислены в конце книги, причем указаны лишь работы, имею- щие, как нам кажется, непосредственное отношение к тексту книги или к задачам, приведенным в конце глав; не делается никаких попыток дать полную библиографию. Подробный перечень литера- туры можно найти в библиографиях Чессина, Грина и Стамперса, а также в книгах Блан-Лапьера и Форте, Бунимовича, Крамера, Дуба, Гнеденко, и Колмогорова и Солодовникова (см. литературу)1). х) Добавим к этому списку монографий, соприкасающихся по содержанию с настоящей книгой, монографии Дунина-Барковского и Смирнова (I), Котель- никова (I), Левина (I), Бартлетта (I), Лоэва (I) и Гренандера и Розенблат- та (I).—Прим, ред
Глава 2 ВЕРОЯТНОСТЬ Разделами математики, используемыми при изучении случайных сигналов и шума, являются теория вероятностей и статистика. Главы 2, 3 и 4 имеют своей целью изложение соответствующих раз- делов теории вероятностей, достаточно подробное для того, чтобы читатель, не знакомый с этим предметом, получил в свои руки ин- струмент, необходимый для изучения основной части книги. Ма- териал излагается без каких-либо претензий на математическую строгость. Тот, кто пожелает посвятить некоторое время тщатель- ному изучению математической теории вероятностей, может вос- пользоваться рядом превосходных руководств, в особенности кни- гами Крамера (I), Феллера (I) и Лоэва (I)1). 2.1. Введение Один из способов подойти к понятию вероятности связан с яв- лением статистической устойчивости, В природе часто встре- чаются ситуации, при которых будущие события могут быть пред- сказаны на основе накопленного в прошлом опыта только грубо или только в среднем, но не точно. Мы говорим в таких случаях, что событие является случайным. Наша неспособность дать точные предсказания может быть обусловлена тем, что 1) мы не знаем всех причинных сил, участвующих в рассматриваемом явлении; 2) мы не имеем достаточных сведений , об условиях задачи; 3) действую- щие силы столь сложны, что вычислить суммарный эффект их дей- ствия невозможно, или, быть может, 4) имеется неопределенность в основе самого физического явления. Каковы бы нй были щричины случайности, в очень многих ситуациях, приводящих к случайным событиям, при многократном повторении этих ситуаций можно наблюдать вполне определенные средние результаты. Так, например, общеизвестно, что при многократном подбрасывании монеты она приблизительно в половине случаев падает гербом кверху. Тен- денция, в силу которой при увеличении числа одинаковых опытов результаты их все более сходятся к некоторому общему среднему, называется статистической устойчивостью. Нужно, однако, под- х) Добавим к этому списку известный учебник Гнеденко (I).—Прим. ред.
I 14 Г л. 2. Вероятность черкнуть, что наша уверенность в существовании статистической устойчивости является чисто индуктивной и не подлежит математи- ческому доказательству. Желая придать изучению случайных событий математическую форму, мы, во-первых, исходим из предположения, что существуют определенные системы, обладающие статистической устойчивостью; во-вторых, мы строим математическую модель (т. е. систему аксиом и вытекающих из них теорем), описывающую свойства статисти- ческой устойчивости, и, наконец, применяем полученные с помощью математической дедукции выводы к реальным системам. Наиболее широко распространенная и употребляемая для этих целей мате- матическая модель называется математической теорией вероятно- стей и основывается на аксиомах, сформулированных Колмого- ровым (I, гл. 1). Воспользуемся теперь идеей статистической устойчивости для разъяснения понятия вероятности. Прежде всего выберем основной эксперимент', например, будем наблюдать результат бросаний иг- ральной кости или измерять мгновенное значение шумового на- пряжения в данный момент времени. Далее, определим все возмож- ные исходы основного эксперимента. Так, например, возможными исходами бросания кости могут быть выпадения одного, двух, трех, четырех, пяти или шести очков, тогда как в случае измерения напряжения шума мы можем ожидать любых мгновенных значений от плюс до минус бесконечности. Будем теперь повторять основ- ной эксперимент много раз в одинаковых условиях и наблюдать результаты. Рассмотрим один из возможных исходов основного эксперимента, скажем выпадение двух очков при бросании кости. Свяжем с этим событием неотрицательное вещественное число, которое назовем вероятностью его появления. Предположим, что при большом числе N повторений опыта интересующее нас событие (Л) происходит п(А) раз. Относительная частота появления события при N повто- рениях опыта равна тогда n(A)/N. Если имеется практическая уверенность (т. е. основанное на практике твердое убеждение), что при беспредельном увеличении числа опытов относительная частота возникновения данного события стремится к пределу, то мы можем сказать, что событие (Л) имеет определенную вероятность появления Р(Л), и определить Р(Л) как этот предел, т. е. —>Р(А) при 7V-> со. К сожалению, такой простой подход таит в себе много" трудностей. Одна очевидная трудность состоит, например, в том, что, строго говоря, предел никогда не может быть найден (ибо никто не может прожить достаточно долго), хотя в некоторых случаях (таких, на- пример, как азартные игры) могут быть очень веские основания по-
2.2. Основы 15 лагать, что этот предел существует и известен. Поэтому мы пред- почтем определить вероятность не как предел относительной часто- ты, а абстрактным образом, но все же так, чтобы вероятности вели себя подобно пределам относительных частот. Важное оправдание такой процедуры постфактум состоит в том, что она приводит к так называемому закону больших чисел, который, грубо говоря, состоит в том, что при некоторых весьма общих условиях математический эквивалент эмпирически определенной относительной частоты схо- дится к соответствующей вероятности, а поэтому эмпирические относительные частоты могут быть использованы для Определения вероятностей1). Одну из форм закона больших чисел мы рассмотрим в § 5.5. 2.2. Основы Введя понятие вероятности и связав его с относительной часто- той мы можем теперь дать точное определение вероятности и рас- смотреть некоторые из ее свойств. Прежде, однако, мы должны расширить наше понятие события. Когда мы говорим, что при бросании кости «выпали три или четыре очка», смысл этого утверждения вполне понятен. Таким образом, мы можем говорить о сложном событии (Я или В) где (Я) и (В)— некоторые события2). Точно так же мы можем говорить о событии (Я и В), т. е. об одновременном появлении событий (Д) и (В). Пусть, например, при бросании кости событие (Д) есть «выпадение не бо- лее четырех очков», а событие (В)—«выпадение не менее четырех очков». Тогда событием (Я и В) является «выпадение четырех оч- ков». Наконец, полезно рассмотреть событие (не Я), где (Я)— некоторое событие. Если, например, при бросании кости событие (Д) есть выпадение одного очка, то событие (не Д) есть выпадение’ двух или большего числа очков. Если в последовательности повторяющихся экспериментов мы после каждого опыта можем определить, произошло или не произош- ло событие (Я) и произошло или не произошло событие (В), то мы также можем определить произошли или не произошли собы- тия (Я и В), (Д или В), (не Я) и (не В). Затем можно вычислить эмпирическую относительную частоту появления событий (Я), (В), (Д и В), (Я или В), (не Я) и (не В). Поэтому представляется целесообразным принять следующую аксиому: х) Вышеприведенные рассуждения касаются трудного и спорного предме- та—оснований теории вероятностей, подробное рассмотрение которых выходит за рамки настоящей книги. Краткое и удобочитаемое изложение этого пред- мета смотрите в книгах Карнапа (I, гл. II), Крамера (I, гл. 13) и Джефриса (К гл. I). [Изложение этого предмета с методологических позиций, принятых в советской теории вероятностей, можно найти в учебнике Гнеденко (I, гл. I) или в статье Колмогорова (II).—Прим, ред.] 2) Мы будем всегда говорить «Д или В», подразумевая под этим «ил Д, или В, или оба они вместе».
16 Гл. 2. Вероятность 3 Аксиома I. Каждому из событий (А), принадлежащих 'j к классу возможных в основном эксперименте событий, соответ- J ствует неотрицательное вещественное число Р (А), называемое ее- $ роятностъю данного события. Если к указанному классу относятся событие (А) и событие (В), то к нему относятся также события (А и В), (А или В) и (не А). | Из этой аксиомы следует, что вероятность определена и для д достоверного события (т. е. для события, которое заведомо должно ] произойти), так как для любого события (А) событие (А или не А) 1 является достоверным. Вероятность определена также и для «не- возможного события», так как для любого события (А) событие (А I и не А) является невозможным. 1 Относительная частота появления достоверного события равна | единице, и поэтому естественно принять следующую аксиому: J л Аксиома II. Вероятность достоверного события равна | единице. j Мы будем говорить, что события (А) и (В) несовместимы или 1 взаимно исключают друг друга, если возникновение одного из | них исключает возможность возникновения другого. При бросании | кости выпадение двух очков и выпадение трех очков являются событиями несовместимыми. Во всех случаях несовместимы : события (А) и (не А). Предположим, что (А) и (В) — некоторые несовместимые события, которые могут появиться при данном основ- s ном эксперименте. Пусть, далее, основной эксперимент повто- ряется N раз и при этом и (А) раз происходит событие (А) и j п(В) раз —событие (В). Так как при возникновении (А) не может иметь место (В) и наоборот, то событие (А или В) происходит п(А) + п(В) раз. Следовательно, п (Д или В) _п (Д) п (В) N ~ ~N г . ‘ ; Это соотношение не нарушается при >оо, и поэтому мы при- . < йимаем такую аксиому: | Аксиома III. Если (А) и (В) — несовместимые события, то т Р(А или В) = Р(А) + Р(В). (2.1) ' J Следствием из этой аксиомы является то, что если ! Ах, А2, ..., Ак суть К попарно несовместимых событий, то * i К ' J Р (Ах или А2 или ... или Ак)= S (2-2) I fe=i 1 В этом нетрудно убедиться, последовательно применяя аксиому III. Из аксиом II и III следует, что для любого события (А) ) 0<Р(А)<1. (2.3) : а
2.2. Основы 17 В самом деле, Р (Д) + Р (не А) = Р (достоверное событие) = 1, и число Р(неД) неотрицательно. Из аксиом II и III следует также, что Р (невозможное событие) = 0. (2.4) Заметим, что если достоверное событие может быть разложено на попарно несовместимые события Av ..., Ац, то к i:.p(4)=i. (2.5) Перечисленные аксиомы совместимы друг с другом и доста- точны для построения теории вероятностей, охватывающей те случаи, когда общее число всех событий конечно. Если, однако, рбщее число возможных событий бесконечно, то рассмотренная система аксиом оказывается уже неадекватной и необходимо ввести дополнительные предположения. А именно достаточно ввести следующую аксиому1): Аксиома IV. Если для каждого из событий (Ах)(А2), ... определена вероятность Р (Аг), то определена также вероятность Р(АГ или А2 или ...); если (Ах), (А2), . .. — попарно несовмести- 'мые события и если вероятность каждого из них определена, то Р (Ах или А2или...) = 1£Р(Аг). (2.6) i=l Один момент нужно, видимо, подчеркнуть особо. Хотя из аксиом вытекает, что вероятность невозможного события равна нулю, из них не следует, что если вероятность некоторого собы- тия равна нулю, то оно невозможно. Невозможное событие есть математический аналог события, которое не может произойти; гтгематическая теория приписывает нулевую вероятность всему, что не может произойти, однако она не утверждает, что если вероятность некоторого события равна нулю, то событие это про- изойти не может. В том, что таково действительное положение вещей, легко убедиться, рассматривая частотную интерпретацию вероятностей. Вполне понятно, что может существовать событие (А), для которого n(A)/N—>0, хотя и (А) не остается равной нулю. Приведем простой пример. Пусть основной эксперимент состоит в совершенно случайном выборе точки на отрезке единичной длины. Выбор какой-либо определенной точки является событием, которое мы предполагаем столь же вероятным, сколь и выбор любой другой точки. Следовательно, если отлична от нуля вероятность х) См. Колмогоров (I, гл. II). 2 Заказ № 57|
18 Гл. 2. Вероятность выбора какой-либо одной точки, то отличны от нуля и вероят- ности выбора всех других точек; однако этого не может быть, так как при этом сумма вероятностей всех этих несовместимых событий окажется больше единицы, что противоречит аксиоме II. Таким образом, каждый определенный выбор точки должен быть событием вероятности нуль. Отсюда также следует, конечно, что хотя вероятность досто- верного события равна единице, не всякое событие с вероятностью единица, должно обязательно произойти. В заключение рассмотрим простой пример. Пусть основной эксперимент допускает шесть взаимно исключающих друг друга исходов, которые мы назовем просто событиями 1^2, 3, 4, 5 и 6.* Класс событий, которым мы припишем вероятности, состоит из этих шести событий и всевозможных ком- бинаций из них типа (—и — и...). Заметим, что этот класс удовлетворяет аксиоме I. Если мы теперь припишем определенные вероятности каждому из событий 1, 2, 3, 4, 5 и 6, то в силу аксиомы III вероятности окажутся также заданными для всех событий рассматриваемого класса. Вероятности событий 1, 2, 3, 4, 5 и 6 мы'можем выбрать произвольно; они только должны' быть неотрицательными и в сумме составлять единицу. Пусть, например, Р (1) = 1 /2 = вероятность события 1, г Р(2) = 1/4, Р(3) = 1/8, . Р (4) = 1/16, Р (5) = 1/16, * * Р(6) = 0. Тогда Р (1 или 3 или 6) = 5/8, Р (2 или 3) = 3/8 и т. д. Другой возможный способ задания вероятностей для того же класса событий: Р (1) = Р (2) = Р (3) = Р (4) = Р (5) = Р (6) = 1/6. Мы не можем решить на основе математической теории вероятностей, какой из этих двух способов задания вероятностей приложим к Эксперименту броса- ния игральной кости; оба выбора являются математически обоснованными. 2.3. Совместные вероятности Выше мы рассматривали преимущественно исходы одного основного эксперимента. Однако во многих интересных задачах приходится иметь дело с исходами нескольких различных основ- ных экспериментов, например со значениями амплитуды шумового напряжения jb различные моменты времени или с результатом бросания двух игральных костей. В первом примере может пред- ставить интерес вероятность того, что в некоторый момент вре- мени амплитуда шумового напряжения превышает и в другой момент /2 превышает х2. Во втором примере мы можем пожелать узнать вероятность того, что на одной кости выпадают два очка и на другой —пять очков.
2.3. Совместные вероятности 19 Вероятности, относящиеся к таким составным экспериментам, называются совместными вероятностями. Нетрудно убедиться, что совместные вероятности также обладают основными свой- ствами, рассмотренными в предыдущем параграфе; в самом деле, составной эксперимент, представляющий собой комбинацию одного эксперимента с возможными исходами (Ак) и другого экспери- мента с исходами (Вт), можно рассматривать также как простой эксперимент с возможными исходами (А и Вт). Если, следова- тельно, вероятность того, что одновременно будут иметь место А-й исход эксперимента А и m-й исход эксперимента В, обозна- чить через P(Ak, Вт), то, согласно неравенству (2.3), 0<Р(А,Вт)<1. (2.7} Из рассуждений, которые привели нас к равенству (2.5), сле- дует, далее, что если существуют К возможных попарно несо- вместимых исходов (Ak) и М возможных попарно несовместимых исходов (Вт), то м к 2 2>Р(Ак,Вт)=1, (2.8) тп=Л й=1 так как мы имеем здесь дело с достоверным событием. Оба полу- ченных результата, очевидно, можно распространить на случай комбинаций более чем двух основных экспериментов. Новая проблема, однако, возникает, когда мы начинаем инте- ресоваться соотношением между совместными вероятностями в со- ставном эксперименте и элементарными вероятностями в основных экспериментах, образующих составной. Например, в предыдущем случае может понадобиться выяснить соотношение между совмест- ными вероятностями Р {Ак, В^ и элементарными вероятностями Р{А^) и Р(Вф). Для этого рассмотрим вероятность того, что будут иметь место k-n исход эксперимента А и любой из воз- можных исходов эксперимента В. Если все возможные исходы эксперимента В попарно несовместимы, то, согласно аксиоме III, м Р (Afe, Вг или В2 или ... или Вм) = S В Вт). т=1 Но это есть просто вероятность того, что происходит событие (А&), каков бы ни был исход эксперимента В, т. е. просто вероят- ность Р (Ak). Итак, если все возможные исходы эксперимента В попарно несовместимы, то м P-W = %P(Ak,Bm). (2.9а) m=l Аналогично, если попарно4 несовместимы все возможные исходы 2*
20 Г л. 2. Вероятность эксперимента А, то к Р(Вт)= ^Р(Ак,Вт). (2.96)’ й=1 Таким образом, мы вывели следующий важный факт: элементар- ные вероятности, относящиеся к основным экспериментам, образу- ющим составной эксперимент, могут быть получены из совместных вероятностей, относящихся к этому составному эксперименту. Из равенств (2.8а) и (2.96) следует, далее, что так как совместные вероятности Р (Ak, Вт) неотрицательны, то для любых значений k и т Р(Ак)>Р(Ак,Вт) и Р(Вт)>Р(Ак,Вт). (2.10) 2Л. Условные вероятности В предыдущем параграфе мы ввели совместные вероятности, относящиеся к результатам составных экспериментов, и выяснили соотношение между совместными вероятностями составных событий и вероятностями элементарных событий. Наряду с этим пред- ставляет интерес ответ на следующий вопрос: «Какова вероятность наступления события (А), если известно, что произошло событие (В)?» Вероятности этого типа — «условные вероятности» — мы будем изучать в настоящем параграфе. Рассмотрим составной эксперимент, состоящий из двух основ- ных экспериментов, у одного из которых основными исходами являются элементарные события (Aft), а у другого — элементарные события (Вт). Предположим, что составной эксперимент повто- ряется W раз и что при этом элементарное событие (Aft) насту- пает п(Ак) раз, элементарное событие (Bw) —n(Bm) раз и состав- ное событие (Afe, Bm) — м(А&, Вт) раз. Сосредоточим сейчас наше внимание на тех м(А&) экспери- ментах, при которых произошло событие (Afe). При каждом из этих экспериментов произошло также одно из событий , (Вт); в частности, некоторое определенное событие (Вт) произошло при этих экспериментах n(Afe, Вт) раз. Таким образом, относительная частота наступления события (Вт) в предположении, что при этом также наступает событие (Afe), равняется п(Ак, Вт)/п(Ак). Эта относительная частота называется условной относительной частотой,* так как она относится к некоторому заданному условию или заданной гипотезе. Условную относительную частоту можно выразить в виде п (Aft, Bm) п (Aft, Вт)/АГ п (Ак) ~ п (Ak)/N
2.4. Условные вероятности 21 и, следовательно, она равна отношению относительной частоты наступления совместного события (Дй, Вт) к относительной частоте наступления события (Ah), являющегося предположенным условием. Имея в виду сказанное выше, мы можем теперь определить условную вероятность1). Определение. Условная вероятность Р (В | Л) появления события (В) в предположении, что произошло событие (Л), есть отношение вероятности появления составного события (Л, В) к вероятности появления события (Л): Р(В|Л) = ^р. (2.11) Условная вероятность не определена, если Р (А) равна нулю. Переписывая выражение (2.11) в форме Р(А, В) = Р(В|А) Р(А), (2.12) мы видим, что совместную вероятность двух событий можно представить в виде произведения условной вероятности одного собы- тия относительно другого на вероятность этого другого события. Определенная нами условная вероятность обладает по существу теми же свойствами, что и различные вероятности, введенные ранее. В качестве примера рассмотрим составной эксперимент, приводящий к составным событиям (А^, Вт), в котором основные исходы (Вт) взаимно исключают друг друга. Согласно приведен- ному выше определению, условная вероятность события (В; или Вт) в предположении, что произошло событие (Aft), есть О/О D I Л Ч В (Aft, В; ИЛИ Bw) Р (Ву или Вт | Ak) р (Ak) Учитывая рассмотренные выше свойства совместных вероятностей взаимно исключающих друг друга событий, получаем Р (Aft, Ву или Вт) _ Р (Ak, Ву) + Р (Akf Вт) B(Afe) “ P(Ak) Правая часть последнего равенства есть просто сумма вероятностей P(Bj\Ak) и P(Bm\Ak), и, следовательно, Р (В, или Вт \Ak) = P (Bj \Ak) + P (Вт | Aft), (2.13) т. e. условные вероятности попарно несовместимых событий явля- ются аддитивными. х) С определением условной вероятности связан ряд тонких вопросов, которые могут быть рассмотрены лишь с привлечением теории, меры и потому выходят за рамки настоящей книги. См. Колмогоров (I, гл. V).
22 Гл. 2. Вероятность Более того, если события Вт образуют совокупность попарно несовместимых событий, то мы получаем м 2 P(Ak, Вт) м Р (Вг или ... или Вм 14) = m=1 р (Ak)-=2 Р (Вт I Л). тп=1 и если эти М событий (Вт) в совокупности образуют достоверное событие, то, как следует из равенства (2.9а), числитель в сред- ней части предыдущего равенства есть просто P(Afe); следова- тельно, в этом случае м %P(Bm\Ah)=L • (2.14) m=l Из неравенства (2.10) и определения (2.11) вытекает, что условные вероятности также заключены между нулем и единицей: 0<Р(Вго[4)< 1; (2.15) далее, так как вероятность Р(А) заключена между нулем и еди- ницей, то условная вероятность не меньше соответствующей со- вместной вероятности: Р(В\А)>Р(А, В). (2.16) 2.5. Статистическая независимость Условная вероятность Р(В\А) — это вероятность появления события (В) в предположении, что произошло событие (А). Пусть теперь эта условная вероятность просто равна безусловной вероят- ности появления события (В): Р(В|А) = Р(В). В этом случае, в соответствии с равенством (2.12), вероятность появления составного события (А, В) равна произведению ве- роятностей событий (А) и (В): Р(А,В>Р(А)Р(В); (2.17) следовательно, - • В (А.| В) = Р (А), т. е. условная вероятность события (А) в-предположении, что произошло событие (В), равна просто безусловной вероятности события (А). Итак, мы видим, что в этом случае сведения о воз- никновении одного из событий ничего не говорят нам о вероят- ности появления другого события. События (А) и (В), удов- летворяющие этим соотношениям, называются статистически независимыми событиями.
2.5. Статистическая независимость 23 Если рассматривать более двух событий, то положение суще- ственно усложняется. В качестве примера1) рассмотрим экспери- мент, имеющий четыре несовместимых друг с другом исхода (Лх), (Л2), (Л3) и И1)> вероятности каждого из которых одинаковы и равны 1/4. Введем, далее, три новых события (By), определяемые следующими соотношениями: (Bi) = (Лх или А2), (В2) = (Ai или Л3), (В3) = (Лх или Л4). Из несовместимости событий (Лт) следует, что Р(Вх) = Р(Лх) + Р(Л2) = 1/2 и, аналогично, что Р(В2)=1/2 = Р(В8). Рассмотрим теперь совместное появление событий (Вх) и (В2). Поскольку события (Лт) несовместимы, событие (Вх, В2) проис- ходит тогда и только тогда, когда происходит событие- (Лх). Поэтому Р(ВХ, В2) = Р(ЛХ)= 1/4. Аналогично Р(ВХ, В3)= 1/4 = Р(В2, В3). Вероятности каждого из событий (By) равны 1/2; таким образом, мы показали, что В(ВХ. В2)=Р(В1)Р(В2), Р(ВХ, В3) = Р(ВХ)Р(В3), . Р(В2, В3) = Р(В2)Р(В3), и, следовательно, события (By) попарно независимы. Заметим, однако, что если мы знаем, что произошли какие-либо два собы- тия (В;), то мы также знаем, что исходом эксперимента было (Лх), и, следовательно, третье событие (By) также произошло. Так, например, Р (В31 Вх, В2) = 1 =# Р (В3) = 1/2. Итак, мы видим, что попарная статистическая независимость любой пары событий из. заданной системы N > 2 событий недо- статочна для того, чтобы гарантировать нам независимость трех или более из событий этой системы в том смысле, который подсказывает нам наша интуиция. Таким образом, мы должны *) Этот пример был впервые дан С. Н. Бернштейном. См. Колмогоров (I, стр. 19, примечание 1).
24 Г л. 2. Вероятность расширить наше определение статистической независимости с тем, чтобы оно охватывало также и случай трех и более событий. Если, в дополнение к попарной независимости, совместные вероятности трех событий предыдущего примера были бы равны произведению вероятностей этих событий, то оказалось бьц что р / п \ н R }_ Р (^i) Р (^2) Р (^з) _р ✓ d \ И (^з I ^2) - р р (в2) - р \вз)> и аналогично для других условных вероятностей. В этом случае три события можно было бы с полным основанием назвать стати- стически независимыми. Имея в виду сказанное, мы можем сле- дующим образом определить статистическую независимость системы из N событий: Определение. N событий (Лп) называются статисти- чески независимыми, если для всех наборов индексов 1 < i < j < < k ... < W выполняются следующие соотношения: Р(Л, Л) = Р(Д)Р(Л.), Р(А, AJt ЛЬ) = Р(Л{)Р(Л/)Р(АЛ), (2.18) Р (Л, Л2) • • •. Лл) = Р (Л1И(Л2) • • • Р ’ Обратимся теперь к экспериментам, исходами которых являются наши события. В частности, рассмотрим случай М экспериментов из которых т-й имеет Nm попарно - несовместимых исходов. Всю совокупность исходов мы можем тогда рассматривать при желании как совокупность W событий, где м 3 Nm. т=1 При этом можно применить предыдущее определение для решения вопроса о том, являются ли эти события статистически независи- мыми. Интересен, однако, также вопрос о том, являются ли ста- тистически независимыми сами эксперименты. В этом случае при- менимо следующее определение: Определение. М экспериментов А(т), из которых т-й имеет Nm попарно несовместимых исходов, называются стати- стически независимыми, если для всякого множества, из М целых чисел п19 п2, ...,пм выполняется следующее соотношение: Р{А%, А%.....A^] = Pi[A%]P[A%] ...Р[А^]. (2.19) Простота данной системы соотношений по сравнению с анало- гичными соотношениями для событий — равенствами (2.18) —объяс- няется тем, что совместные вероятности любых К — 1 из К экспе- риментов могут быть получены из совместных вероятностей исхо-
2.6. Примеры 25 дов К экспериментов * Предположим, например, что мы имеем М экспериментов, для которых верны равенства (2.19). Просум- мируем эти равенства по Пм* Тогда из равенств (2.9) следует, что У РЫ(1) Д(2> Д(М)1-РГД(1) Д(2) дШ-щ ZJ г , ^п2 , • . •, J — Г |ЛП1 , Мп2 , . . ., J. nM=1 Сложив правые части равенств (2.19) и вспомнив, что пм~1 мы видим, что если выполняются равенства (2.19), то выпол- няются также и соотношения р г Д(2) _ р глС1)] р гл(2)] РГЛ(М'’1>1 Этот результат представляет собой просто равенство (2.19) для случая М — 1 экспериментов. Продолжая ту же процедуру, можно показать, что если равенство (2.19) удовлетворяется для Л4 экспериментов, то аналогичные соотношения между вероятностями выполняются также и для любого числа К < М экспериментов. 2.6. Примеры Рассмотрим несколько примеров, иллюстрирующих идеи, раз- витые в предыдущих параграфах. Эти примеры принадлежат к так называемым «задачам комбинаторного типа» и характерны для широкого круга проблем теории вероятностей. Блестящее и подробное рассмотрение задач такого рода содержится в книге Феллера (I). Пример 2.6.1. Вытаскивание карт. Рассмотрим задачу о вытаскивании карт из колоды игральных карт. Колода игральных карт содержит 52 карты, разделяющиеся на 4 различные масти по 13 карт в каждой, начиная от двойки и кончая тузом. Предположим, что колода тщательно стасована, так что вытаскивание любой карты одинаково вероятно. Пусть из полной колоды вытаскивается одна карта. Какова вероятность того, что этой картой окажется король бубен? Ранее мы предположили, что различные события (Д;), состоящие в вытаскивании какой-либо отдельной карты, равновероятны и, следовательно, все Р (At) равны некоторому числу р. Вытаскивания различных карт являются попарно несовместимыми событиями, и поэтому 52 4 2 Р(Лг) = 52р=1. 1=1 Следовательно, для любой карты р= 1/52 и, в частности, Р (король бубен)=1/52.
26 Гл. 2. Вероятность Спросим теперь: какова вероятность, что вытащенной картой окажется король любой из четырех мастей? Поскольку в колоде имеются четыре короля и поскольку вытаскивания различных королей являются попарно несовмести- мыми событиями, Р (король) = Р (король пик) + Р (король червей)-|- -\-Р (король бубен)-\-Р (король треф). Следовательно, Р (король) = 4/52= 1/13. В общем случае мы видий, что когда мы имеем дело с совокупностью равно- вероятных несовместимых элементарных событий, вероятность какого-либо события (элементарного или составного) равна отношению числа благоприят- ных элементарных событий, т. е. тех, при которых интересующее нас событие происходит, к полному числу всех возможных элементарных событий. Предположим теперь, что мы вытаскиваем из полной колоды две карты. Какова вероятность того, что мы вытащим короля и даму не обязательно одной и той же масти? Это событие может произойти двумя способами: мы можем вытащить либо сначала короля, а потом даму, либо, наоборот, сначала даму, а затем короля. В символической форме Р (король и дама) = Р (король, дама) -]-Р (дама, король). Из проведенного выше рассмотрения условных вероятностей следует, что Р (король, дама) = Р (дама | король) - Р (король) и Р (дама, король) = Р (король | дама)• Р (дама). Если мы вытащили короля (даму), то в колоде остается 51 карта, среди которых содержатся все четыре дамы (короля). Следовательно, Р (дама | король) = 4/51 =Р (король | дама); используя полученные ранее результаты, находим, что п/ ч 4 1 , 4 1 8 Р (король и дама)=5гп+§г.1§=^. Этот, же результат можно было бы, конечно, получить непосредственно, вычислив отношение числа благоприятных элементарных событий к полному числу всех возможных элементарных событий. Пример 2.6.2. Бросания монеты. Рассмотрим теперь бросания монеты, причем будем предполагать, что последовательные бросания являются стати- стически независимыми экспериментами. Однако мы не будем делать никаких предположений о правильности монеты и потому напишем Р(Г)'=Р и Р(Р) = д = 1—р, так как выпадение герба (Г) и выпадение решетки (Р) являются событиями несовместимыми. Такие бросания называют испытаниями Бернулли. Пусть монета подброшена N раз. Какова вероятность Р(пГ)*того, что при этом п раз выпадет герб? Чтобы ответить на этот вопрос, рассмотрим сначала некоторую элементарную последовательность результатов N бросаний, в которой герб выпал п раз. В силу статистической независимости последо- вательных бросаний монеты, вероятность образования нашей элементарной последовательности Pi (пГ) есть просто произведение вероятностей выпаде- ния п гербов и N — п решеток: (nD=pV’~n-
2.7. Задачи 27 Однако эта элементарная последовательность является не единственной, при которой из N бросаний п приводят к выпадению герба. Вероятность образо- вания какой-либо из возможных последовательностей такого рода равна полному числу таких последовательностей, умноженному на вероятность появления одной из них, ибо мы имеем дело с попарно несовместимыми (составными) равновероятными событиями. Определим теперь общее число различных возможных последователь- ностей результатов W бросаний, при которых герб выпадает п раз. Если бы результаты всех W бросаний были различными, то мы имели бы N (N — 1) ... 3-2-1 = ЛЧ различных последовательностей. Однако не все бросания дают различные результаты; п из них приводят к выпадению герба и W—п к выпадению решетки. Таким образом, среди ЛИ последовательностей имеется по п! дубли- катов, возникающих из-за того, что невозможно отличить одно выпадение герба от другого, и по (N—п)! дубликатов, возникающих из-за того, что то же относится к решеткам. Поэтому общее возможное число различных последо- вательностей, в которых при N бросаниях герб выпадает п раз, определяется биномиальным коэффициентом (К~) = ” ,7. (2.2») \п J п\ (N—n)\ v ' Полная вероятность появления одной из таких последовательностей с п выпа- дениями герба в /V бросаниях равна, следовательно, P(nD = ^^)pV-n. (2.21) Совокупность вероятностей, соответствующих различным возможным значе- ниям п (т. е. п = 0, 1, ..., N), называют биномиальным распределением. 2.7. Задачи Обширное собрание задач, относящихся к материалу настоя- щей главы, содержится в книге Феллера (I, гл. 1 — 5). 1. В эксперименте (А) возможны три попарно несовместимых исхода (Д^), вероятности появления которых равны Р (Ат). Пусть составные события (В) и (С) определяются так: (В) = (А1 или Д2), (С) = (Д1 или Д3). Найти соотношения, связывающие Р (В), Р (С) и Р (В или С). 2. В эксперименте (Д) возможны три попарно несовместимых исхода (Дт), а в эксперименте (В)—два несовместимых исхода (Вп). Совместные вероят- ности Р (Дт, Вп) равны: Р (Дп В1) = 0,2, Р (Др В2) = 0,1, Р (Д2, Bi) 0,1, Р (Д2, В2) = 0,2, Р (Д3, = 0,1, Р (Д3, В2) = 0,3. Вычислить вероятности Р (Ат) и Р (Вп) для всех т и п. 3. Для эксперимента, описанного в задаче 2, найти при всех тип условные вероятности Р (Ат | Вп) и Р (Вп [ Дт). 4. Выяснить, являются ли эксперименты, описанные в задаче 2, статисти- чески независимыми или нет.
28 Гл. 2. Вероятность 5 Пусть К есть полное число очков, выпадающих при бросании двух одинаковых игральных костей. Найти Р (К) для всех возможных значений К. 6. Вычислить для всех возможных значений п вероятность выпадения п гербов при 10 независимых бросаниях монеты, если вероятность р выпадения герба при одном бросании равна 1/10. 7. Та же задача применительно к случаю правильной монеты (р= 1/2). 8. Определить вероятность выпадения при W независимых бросаниях монеты не более п < W гербов. Вычисления провести для /V=10, п = 5 и р = 1/2. 9. Определить вероятность выпадения при N независимых бросаниях монеты не менее п < N гербов. Вычисления провести для Лг = 10, п = 5 и р = 1/2. 10. Установить зависимость между вероятностями, рассмотренными в за-" дачах 8 и 9. 11. При эксперименте (Д) возможны М несовместимых исходов Aw, а при эксперименте (В) — ДГ несовместимых исходов Вп. Показать, что условную вероятность Р (Вп | Ат) можно выразить через вероятности Р (Ат | Вп) и Р (Вп) следующим образом: р (Вп | 4m) = PHm|Bn)P(Bn) . (2.22) 2 Р(Лт|В{)Р(В;) i—1 Это соотношение известно как закон Байеса.
Глава 3 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И РАСПРЕДЕЛЕНИЯ ВЕРОЯТНОСТЕЙ 3.1. Определения Выборочные точки и выборочное пространство1). В предыду- щей главе мы рассматривали эксперименты, события (т# е. воз- можные исходы экспериментов) и вероятности событий. При таких рассмотрениях во многих случаях оказывается удобным считать, что эксперимент и его возможные исходы задают некоторое про- странство и его точки. Каждому из элементарных возможных исходов эксперимента мы можем сопоставить точку некоторого пространства, называемую выборочной точкой. Множество выбо- рочных точек, соответствующее совокупности всех возможных исходов эксперимента, называется выборочным пространством, соответствующим рассматриваемому эксперименту. Событию в об- щем случае может соответствовать как отдельная выборочная точка, так и некоторое множество выборочных точек. Например, бросание игральной кости имеет шесть возможных исходов: выпа- дение одного, двух, трех, четырех, пяти или шести очков на верх- ней грани. Каждому из этих исходов мы сопоставляем выбороч- ную точку; наше выборочное пространство состоит из шести выборочных точек. Событию «шесть очков» соответствует выбо- рочная точка, тогда как составному событию «четное число очков» соответствует множество, состоящее из трёх выборочных точек, соответствующих выпадению двух, четырех и шести очков. Во многих интересных- задачах оказывается возможным чис- ленное представление каждого из возможных исходов экспери- мента. В некоторых случаях, как, например, при измерении на- пряжения шума или бросаниях кости, достаточно взять одно число. В других случаях требуется некоторая совокупность чисел. Так, например, для определения мгновенного положения движу- щейся частицы газа требуются три числа (значения трех простран- ственных координат). Если возможно такое численное представле- ние исходов эксперимента, то совокупность чисел, определяющих данный исход, можно рассматривать как координаты вектора, определяющего положение соответствующей выборочной точки в выборочном пространстве. Таким образом, если для задания х) В русской литературе более приняты термины «элементарное событие» и «пространство элементарных событий». — Прим, перев.
30 Гл. 3. Случайные величины каждого возможного исхода необходимы К чисел, то каждая выборочная точка характеризуется значениями К координат и выборочное пространство будет К-мерным векторным про- странством. Мы будем обычно ограничиваться рассмотрением выборочных пространств этого типа. Вероятность данного события можно теперь представлять себе как некоторый вес или некоторую массу, приписанную соответ- ствующей выборочной точке (или множеству выборочных точек). В принятой нами терминологии выборочных точек и выборочных пространств вероятность Р (А) того, что в результате данного эксперимента произойдет событие (А), может быть выражена как вероятность P(Sa) того, что выборочная точка s, соответствую- щая наступившему исходу этого эксперимента, входит в подмно- жество Sa выборочного пространства, соответствующее собы- тию (А)1): P(A) = P(sGSa) = P(Sa). Случайная величина. Функция x(s) с действительными значе- ниями, определенная в выборочном пространстве с точками s, называется случайной величиной2), если для всякого веществен- ного числа а множество точек s, для которых x(s)<a, принад- лежит к классу допустимых множеств, для которых определена вероятность. Это условие называется, измеримостью функции х (s) и почти всегда выполняется на практике. Функция с,комплекс- ными значениями z(s) = x(s) + /i/(s) 3), определенная в выборочном пространстве, будет называться комплексной случайной величи- ной, если как x(s), так и y(s) являются измеримыми. Анало- гично функция, сопоставляющая каждой точке выборочного про- странства некоторый вектор, будет называться векторной случай- ной величиной или случайным вектором. Выше было сказано, что выборочное пространство, соответ- ствующее исходам бросания игральной кости, —это множество, содержащее шесть точек, в качестве которых можно взять целые числа 1, ..., 6. Если мы теперь отождествим точку k с собы- тием, состоящим в том, что при бросании кости выпадает k очков, то функция x(k) — k окажется случайной величиной, такой, что x(k) равно числу очков, выпавших при бросании кости. Функции g\k) = k2 и Л (&) = ехр (&2) также являются случайными величи- нами, определенными на том же пространстве. Другим примером случайной величины может служить дей- ствительная функция от действительной величины, значения кото- х) Запись s С SA означает, что s является элементом множества SA. 2) Использование термина «случайная величина» в применении к функ- ции является традицией. 3) Придерживаясь традиции, принятой в электротехнической литературе, авторы обозначают мнимую единицу буквой /.—Прим. ред.
3.2. Функции распределения 31 рой равны величинам напряжения шума, измеренным в заданный момент времени. Здесь в качестве выборочного пространства взята действительная прямая. Случайной величиной подобного типа будет, например, величина, равная единице, если измеренное значение напряжения шума лежит между V и V + AV вольт, и равная нулю в остальных случаях. Необходимо отметить, что функция от случайной величины есть случайная величина. 3.2. Функции распределения случайных величин Рассмотрим теперь действительную случайную величину x(s), у которой область значений х есть действительная прямая (т. е. — оо<х< + оо). Рассмотрим точку X на действительной прямой. Функция от X, значениями которой являются вероятно- сти Р(х<Х) того, что случайная величина х меньше или равна X, называется функцией распределения 'случайной величины х *). Так как вероятности всегда лежат в пределах от нуля до еди- ницы, то экстремальными значениями функции распределения также должны быть нуль и единица: Р(х<— оо) = 0 и Р(х<+оо)=1. (3.1) Из определения функции распределения следует, далее, что вероят- ность того, что случайная величина х лежит в интервале а < х< &, равна просто разности значений функции распределения на кон- цах интервала: Р(х<&) —Р(х<а) = Р(а < х<&)>0. (3.2) Последнее неравенство вытекает из того, что вероятности всегда неотрицательны. Соотношение (3.2) показывает, что Р(х<&)> >Р(х<а) при т. е. что функция распределения является неубывающей функцией от X. Так же как в случае одной переменной, мы можем определить совместную функцию распределения двух случайных величин как Р(х<Х, у<У), т. е. как вероятность того, что случайная вели- чина х не больше заданного значения X и случайная величина у не больше заданного значения Y. Такая функция может быть определена независимо от того, заданы ли случайные величины х и у на одном и том же выборочном пространстве или на раз- ных2). Более того, несущественно, являются ли х и у двумя отдельными одномерными случайными величинами или компонентами х) Чаще функцию распределения определяют как Р(х<Х).—Прим. ред. 2) Это утверждение авторов неверно. Если х и у определены на разных выборочных пространствах, то, строго говоря, не известно, как интерпрети- ровать (х < X, у у) в виде множества выборочных точек, и поэтому веро- ятность Р(х^Х, у < У) оказывается неопределенной. — Прим. ред.
32 Гл. 3. Случайные величины двумерной случайной величины. В обоих случаях совместным выборочным пространством является двумерное пространство (плос- кость ху), и совместная функция распределения совпадает тогда с вероятностью того, что результат эксперимента будет соответ- ствовать выборочной точке, лежащей в квадранте (— оо < х < X, — оо <у<У) этого выборочного пространства. Экстремальные значения совместной функции распределения, очевидно, равны Р(х<-оо, y^Y) = 0 = P(x<X, у<-оо) (3.3а) и Р(х< 4-00, у < 4- со) = 1, (3.36) причем первый из этих экстремумов соответствует невозможно- сти, а второй— достоверности. Вероятность того, что случайная величина х не превосходит некоторого определенного значения X, в то время как случайная величина у принимает любое возможное значение У, равна просто вероятности того, что х < X, и не зависит от значения у. Последняя вероятность, по определению, равна значению функции распре- деления случайной величины х в точке X. Таким образом, Р(х<Х, у< 4-°°) = Л*<*)- (3.4а) Геометрически это вероятность того, что соответствующая выбо- рочная точка лежит в полуплоскости (—оо<х<Х). Аналогично Р(х<4-оо, у<У) = Р(у<У). (3.46) Итак, мы видим, что совместная функция распределения, так же как и совместные вероятности, определяет функции распределе- ния случайных величин, являющихся компонентами двумерной случайной величины. Функции распределения для компонент слу- чайных величин нередко называются одномерными функциями распределения. Введенные нами определения и полученные результаты могут быть более или менее очевидным способом распространены на слу- чай Х-мерных случайных величин. 3.3. Дискретные случайные величины Назовем случайную величину х дискретной случайной величи- ной, если х может принимать на любом конечном интервале толь- ко конечное число значений. Так, например, случайная величина, определяемая как количество выпадений герба при N бросаниях монеты, является дискретной случайной величиной. Полная сово- купность всех вероятностей Р(хк), относящихся ко всем возмож-
3.3.Дискретные случайные величины 33 ным значениям хк величины х, называется распределением вероят- ностей дискретной случайной величины х. Из определения функ- ции распределения следует, что в дискретном случае Р(х<Х)= 2 (3.5) и, следовательно, Р(х< + аэ)= P(xk)=i: (3.6) все k На фиг. 3.1 показаны "распределение вероятностей и соответ- ствующая ему функция распределения • для некоторой конкретной дискретной случайной величины. Фиг. 3,1. Дискретное распределение вероятностей и функция распределения. а —распределение вероятностей; б —функция распределения. Если распределение вероятностей для двумерной дискретной случайной величины задавать системой вероятностей Р(хк, ут), то соответствующая совместная функция распределения задается выражением Р(х<Х, y<Y) = 2 2 P(xk,ym). ~ (3.7) 3 Заказ № 57
34 Г л. 3. Случайные величины Следовательно, Р(х< +оо,у< + оо)= 3 И Р(хк,ут)^\. (3.8) все к все ш Пример совместного распределения вероятностей и соответству- ющей ему совместной функции распределения двумерной дискрет- ной случайной величины приведен на фиг. 3.2. Фиг. 3.2. Двумерное дискретное распределение вероятностей и соответствующая функция распределения. а — совместное распределение вероятностей; б — совместная функция распределения. Из нашего определения выборочной точки следует, что раз- личные выборочные точки соответствуют попарно несовмести- мым событиям. Поэтому результаты, полученные в гл. !2 для та- ких событий, могут быть непосредственно приложены к изучению дискретных случайных величин. Так, равенство (3.6) вытекает из (2.5), а равенство (3.8) —из (2.8). Соотношения между совмест- ным распределением вероятностей и одномерными распределени-
3.4. Непрерывные случайные величины 35 ями для дискретных случайных величин следуют непосредственно из равенства (2.9) и имеют вид P(xk)= 2J Р{хк, ут) и Р(ут) = 3 Р(хк, ут). (3.9) все m все k Аналогично из равенства (2.12) следует, что Р (хк, ут) = Р(ут\ xk)P (х,{) = Р (л* * | ут)Р (ут), (3.10) а из равенства (2.14) —что S Р{ч\ут) = \= s РШ- (3.11) все k все т 3.4. Непрерывные случайные величины Не все случайные величины дискретны. Например, случайная величина, соответствующая напряжению теплового шума в неко- торый заданный момент времени, может принимать любое значе- ние от плюс до минус бесконечности. Однако можно показать, что так как функция распределения является ограниченной и не- убывающей функцией, то она всегда может быть разложена на две части1): ступенчатую функцию, имеющую скачки в точках X, в которых Р(к = Х)>0 (т. е. дискретную функцию распреде- ления, показанную на фиг. 3.1), и функцию, которая всюду непре- рывна. Случайную величину, функция распределения которой всюду непрерывна, мы будем называть непрерывной случайной величиной. Итак, мы видим, что всякую случайную величину можно представлять себе имеющей дискретную и непрерывную ча- сти. Плотность распределения вероятностей. Всякую непрерывную функцию распределения можно сколь угодно близко аппроксими- ровать неубывающей ступенчатой функцией, которую можно рас- сматривать как функцию распределения дискретной случайной величины. Таким образом, непрерывная случайная величина всег- да может быть аппроксимирована дискретной случайной вели- чиной. Если, однако, функция распределения не только не- прерывна, но и дифференцируема и имеет непрерывную производ- ную всюду, за исключением, быть может, дискретного множества точек, то оказываются применимыми более прямые методы ее иссле- дования. В этом случае мы определяем плотность распределения вероятностей р (X) как производную от функции распределения вероятностей: ' __ р(Х)--(*>-Х) (3.12) *) См. Крамер (I, §§ 6.2 и 6.6). • . 3*
Гл. 3. Случайные величины так что х Р(х<Х)= j p(x)dx. (3.13) — 30 Необходимо отметить, что существуют непрерывные случайные величины, не обладающие плотностью распределения1); однако, вообще говоря, мы можем без всякого вреда игнорировать такие «патологические» случаи. Из определения производной как предела мы выводим, что lim Р(х<Х)-Р(х<Х-ДХ) ; (3 14а) АХ->0 АЛ или, используя равенство (3.2), р (X) = lim P(X~AL<X<X) • (3.146) ДХ->0 АЛ Поэтому мы можем написать в обозначениях, использующих диф- ференциалы, p(X)dX = P(X-dX <х<Х) (3.15) и интерпретировать p(X)dX как вероятность того, что значение случайной величины х лежит в интервале (X —dX<x<X). Из того, что функция распределения является неубывающей, следует, что плотность распределения вероятностей всегда неотрицательна: р(х)>0. (3.16) Пример функции распределения и соответствующей ей плотности распределения непрерывной случайной величины показан на фиг. 3.3. Из равенств (3.2) и (3.13) следует, что вероятность того, что значение непрерывной-случайной величины попадает [в интервал (а<х<&), задается интегралом от плотности распределения ве- роятностей по этому интервалу: ь Р (а < х<6) = p(x)dx. (3.17) а В частности, для бесконечного интервала (—оо, 4- оо), в силу (3.1), получаем Ч-о° p(x)dx=l. (3.18) х) См., например, Титчмарш (I, § 11.72). [См. также Смирнов (I, т. V, разд. 76).—Прим, ред.]
3.4. Непрерывные случайные величины 37 Этот результат выражает в применении к непрерывным случай-, ным величинам тот факт, что вероятность .достоверного события Фиг. 3.3. Пример плотности распределения вероятно- стей и функции распределения непрерывной случайной величины. а — плотноЪть распределения вероятностей; б — функция распределения. равна единице. По определению непрерывной случайной величины ее функция распределения не имеет скачков; поэтому для вся- кого х0 Р(х = хо) = 0. (3.19) Иными словами, вероятность того, что непрерывная ^УЧ^®^Я величина принимает некоторое определенное значение, р У Очевидно, однако, что это событие не является невоз Импульсные функции. Было бы удобным использовать еД^УЮ систему обозначений для дискретных и для непрерывны у ных величин и таким образом упростить рассмотрение си у ц । в которых фигурируют смешанные случайные величины, с д р щие как дискретную, так и непрерывную части. Этого м
38 Г л. 3, Случайные величины достигнуть введением более общей формы интегрирования1) или применением импульсных функций и игнорированием случаев, в которых непрерывная часть распределения не имеет производ- ной. Мы будем пользоваться вторым из этих методов. Применим теперь предельное соотношение, выведенное нами для плотности распределения вероятностей, к дискретным слу- чайным величинам. Предположим для удобства, что рассматривае- мая дискретная величина принимает М возможных значений хт с вероятностями Р(хт). Тогда lim Р(Х-ДХ< х<Х) = / Р(Х"»)ПРИ Х = х^ дх-о . . ........... (О при других X. Применяя последнее соотношение к (3.146), мы видим, что р(Х)= I °° при Х=Хт' ( 0 при других X. Пусть, далее, 8 — произвольно малое положительное число (мень- шее наименьшего расстояния между соседними значениями хт); тогда I 0 при других X. В приложении I изложены некоторые свойства импульсных функ- ций и функций скачков2). Используя приведенные там факты, видим, что написанные выше выражения совпадают с определением им- пульсных функций. Следовательно, плотность распределения вероят- ностей дискретной случайной величины можно рассматривать как состоящую из импульсов веса (т. е. площади) Р{х^ в точках хт, соответствующих возможным значениям случайной величины. Та- ким образом, плотность распределения вероятностей дискретной случайной величины, принимающей М возможных значений хт с вероятностями P(xt^, может быть записана в виде м р(х)= 2 P(xm)6(x-xm). (3.20) т=1 Функция 6(х — х)п) в (3.20) представляет собой единичный импульс в точке х = хт. Функцию распределения дискретной случайной величины мож- но теперь получить подстановкой выражения (3.20) в (3.13). х) А именно использованием интеграла Стильтьеса. Операция усреднения по отношению к некоторому распределению вероятностей может быть запи- сана в виде интеграла Стильтьеса даже и в том случае, когда непрерывная часть функции распределения не обладает производной. См. Крамер (I, гл. 7). 2) См. также Гельфанд и Шилов (I).—Прим. ред.
3.4. Непрерывные случайные величины 39 Меняя местами интегрирование и конечное суммирование, нахо- дим, что м р Р(х<Х) = 3 р(хт) \ b{x-xm)dx. m=l —co Как показано в приложении I, интеграл в этом выражении равен функции единичного скачка U (X — хт), определяемой соотноше- ниями1) тх-х I 1 при х>Хт' [ 0 при других X. Итак, для функции распределения нашей дискретной случайной величины мы можем написать м Р(х<Х)= 3 Р(хт)С/(Х-хт). (3.21) Ш=1 График такой функции распределения вероятностей имеет ступен- чатую форму, как это показано на фиг. 3.1, б. Таким образом, мы показали, что, применяя импульсные функ- ции, мы можем распространить понятие плотности распределения вероятностей на дискретные случайные величины. Впредь мы бу- дем поэтому использовать в случае необходимости плотность рас- пределения вероятностей независимо от того, имеем ли мы дело с непрерывными, дискретными или смешанными случайными ве- личинами. а \ Плотность совместного распределения вероятностей. Примени- тельно к одной случайной величине ее плотность распределения была определена как производная от функции распределения. В случае двух переменных аналогично, если совместная функция распределения всюду непрерывна и всюду, за исключением, быть может, конечного множества кривых, обладает непрерывной сме- шанной частной производной второго порядка, мы можем опре- делить плотность совместного распределения вероятностей как эту вторую производную: р(Х, У) = Ар(кХ! y<Y), (3.22) *) В приложении I авторы полагают £/(0) = -^- вместо принятого здесь значения U (0) = 1. Впрочем, это различие несущественно для всех дальней- ших построений.—Прим. ред.
40 Гл. 3. Случайные величины откуда у х Р(х<Х, у<У) = \ \ p(x, y)dxdy. (3.23) Как и прежде, мы будем игнорировать «патологические» случаи и ограничимся случаями, когда частные производные или суще- ствуют в обычном смысле,' или представляют собой импульсные функции (это будет так в случае дискретных случайных величин). Из определения частной производной как предела выводим, что Г)=дНт д^дУ-[Р(х<Х, у<Г)-Р(х<Х-ДХ, у<У)- ДУ-0 -Р(х<Х, y<Y-ДУ) + Р(х<Х-ДХ, у<У-ДУ)]; следовательно, Р(Х —ДХ<х<Х, У—ДУ < y^Y р(Х, У)= lim ДХ->0 ДУ—0 ДХДУ или, в обозначениях, использующих дифференциалы, р(Х, Y)dXdY = P(X-dX< х<Х, У-ЙУ<у<У). (3.24) Итак, р (X, У) dX dY можно интерпретировать, как вероятность того, что выборочная точка попадает внутрь площадки dXdY в выборочном пространстве, где dX dY — приращения координат в точке (X, У). Совместная функция распределения является неубывающей функцией своих аргументов; следовательно, плот- ность совместного распределения всегда неотрицательна: р(х, г/)>0. (3.25) Из нашего определения плотности совместного распределения следует, что вероятность P(s6 7?) того, что выборочная точка s лежит в области R выборочного пространства, задается интегра- лом от плотности совместного распределения вероятностей по этой области: Р р(х, y)dxdy, (3.26) В частности, когда рассматриваемая область есть все выборочное пространство (т. е. вся плоскость ху), мы получаем 4-оо 4-оо Р(х, y)dxdy= 1, (3.27) —оо — оо
3.4. Непрерывные случайные величины 41* так как здесь мы имеем дело с достоверным событием. С другой, стороны, устремляя к бесконечности только один из верхних пре- делов и применяя равенства (3.4), находим, что 4-оо х р(х, у) dxdy = P(x^.X) (3.28аЛ —оо —оо И У 4-00 • р(х, y)dxdy = P(y^.Y). (3.286} • —ОО —оо Производные от правых частей этих равенств равны просто соот- ветствующим плотностям распределения вероятностей р(Х) и p(Y). Поэтому, дифференцируя левые и правые части равенств (3.28)г получаем 4-оо \ p(X,y)dy = p(X) (3.29а} —ОО И +оо р(х, Y)dx — p(Y), (3.296} так кэк производная от интеграла по его верхнему пределу совпа- дает со значением подинтегральной функции в точке, равной этому верхнему пределу. Равенства (3.29) являются относящимся к непрерывным случайным величинам эквивалентом равенств (3.9), применимых к дискретным случайным величинам. Как и в случае функций распределения, приведенные выше определения и формулы можно распространить на случай /г-мер- ных случайных величин1). Условные плотности распределения. Рассмотрим теперь вероят- ность того, что случайная величина у не превосходит некоторого значения Y при условии, что вторая случайная величина х лежит в интервале (X—. ДХ < х<Х). Из определения условной вероят- ности [равенство (2.11)] следует, что Р(и < VI X КХ Х\________? (% У<У> P(y<Y\X-&X<x<X)- р(х_&х<-^~х} • Вероятности, входящие в правую часть равенства, могут быть выражены через плотности распределения вероятностей, опреде- т) См., например, Крамер (I, §§ 8.4 и 22.1).
42 Гл. 3. Случайные величины ленные выше. Тогда у х j У Р у) dx dy P(y<Y\X-bX<x<X) = . J р (х) dx х-ьх Предполагая, что плотности распределения являются непре- рывными функциями от х в рассматриваемом интервале и что р (X) > 0, и полагая АХ —> 0, мы можем заменить инте- гралы по х произведениями значений подинтегральных функций при х = Х на АХ. Приращение АХ будет при этом входить в ка- честве множителя как в числитель, так и в знаменатель дроби и поэтому может быть сокращено. Предел левой части равенства при АХ—>0 равен вероятности того, что y^Y при условии, что случайная величина х принимает значение X. Итак, у J р(Х, y)dy P(y<Y\X) = . (3.30) Определенная таким образом вероятность Р (у < Y | X) называется условной функцией распределения случайной величины у при условии, что х = Х. Если теперь выполняются обычные требования относительно непрерывности плотности совместного распределения, то мы можем определить условную плотность распределения вероятностей р(У|Х) как производную от условной функции распределения: р(У|Х) = ^^Ш>. (3.31) Тогда у Р(г/<У|Х)= p(y\X)dy. (3.32) Дифференцируя (3.30) по У, получаем, что р(Ф) = ^. (3-33а) или, в форме произведения, р(Х, Y) = p(Y\X)p(X). (3.336) Этот результат есть применимый к случаю непрерывной случай- ной величины вариант представления совместной вероятности в виде произведения условной вероятности на безусловную вероятность.
3.5. Независимые случайные величины 43 Как и все функции распределения, условная функция распре- деления P(y^.Y\X) является неубывающей функцией (от Y). Следовательно, условная плотность распределения вероятностей неотрицательна: p(Y\X)>0. (3.34) Из равенства (3.32) следует, что вероятность того, что значе- ние у лежит в интервале (а<г/<&) при условии, что х = Х, определяется интегралом от условной плотности распределения вероятностей по этому интервалу: ь P(a<y^b\X) = \p(y\X)dy. (3.35) а Удаляя пределы интегрирования в бесконечность, получаем 4-00 p(y\X)dy=l, (3.36) —оо так как здесь мы имеем достоверное событие. Совершенно аналогично p(Y\X) можно, конечно, определить и условную плотность распределения вероятностей Р (X | У), и для нее можно получить аналогичные результаты. 3.5. Независимые случайные величины В § 2.5 мы назвали эксперименты независимыми, если их сов- местные вероятности выражаются в виде произведений соответ- ствующих вероятностей для отдельных экспериментов. Так, экспе- рименты А и В, имеющие соответственно К и М попарно несо- вместимых исходов Ak и Вт, называются независимыми, если для всех значений k и т удовлетворяются соотношения P(Ak, Вт) = Р(Л) Р(Вт). Пусть теперь исходы экспериментов А и В задаются дискретными случайными величинами х и у, причем х принимает значение xh, когда происходит событие Ак, а у —значение ут, когда происхо- дит событие Вт. Тогда Р(хк) = Р(Ак], Р(ут) = Р(Вт) и P(xk, ут) = Р (Ак, Вт). Мы назовем х и у независимыми случайными величинами, если задаваемые ими эксперименты независимы. Итак, дискретные слу- чайные величины х и у, принимающие соответственно К значе- ний xk и М значений ут, называются независимыми тогда и только тогда, когда для всех значений k и т выполняется соотношение р (xk, ут) = Р (xh) Р (ут). (3.37)
44 Гл. 3. Случайные величины Из равенств (3.7) и (3.37) находим, что в случае независи- мости случайных величин х и у Р(х<Х, y<Y)= 2 2 P(xk)P (у,п). xk<X ym<Y Используя равенство (3.5), получаем, что если х и // — независи- мые случайные величины, то для всех значений X и Y выпол- няется соотношение Р(х<Х, y<Y) = P(x<X)P(y<Y). (3.38) Легко показать, что справедливо и обратное: если соотношение (3.38) выполнено для всех X и Y, то соотношение (3.37) выпол- няется для всех k и т. Итак, дискретные случайные величины независимы тогда и только тогда, когда соотношение (3.38) выполняется для всех значений X и У. Соотношение (3.37) применимо только к дискретным случай- ным величинам; тем не менее соотношение (3.38) может выпол- няться как для дискретных случайных величин хну, так и для непрерывных или смешанных. Поэтому в основу нашего общего определения независимости случайных величин мы положим соотношение (3.38): Определение. Случайные величины х, у, ..., z называют- ся независимыми в том и только в том случае, если равенство Р(х<Х, у<У, ..., z<Z) = Р (х<Х) Р (у <У).. .Р (z<Z) (3.39) выполняется для всех значений X, Y, ..Z. Предположим теперь, что х и у — непрерывные случайные величины, имеющие плотности распределений вероятностей. Тогда равенство (3.38) можно будет переписать в виде Y х х Y р(х, y)dxdy= p(x)dx p(y)dy. — со —оо —оо —оо Вычисляя смешанную вторую частную производную от обеих частей равенства (по X и У), получаем .. p(X,Y) = p(X)p(Y). . Наоборот, интегрируя последнее равенство, мы можем получить соотношение (3.38). Таким образом, представимость совместной плотности в виде произведения является необходимым и доста- точным условием для независимости случайных величин х и у. Аналогично можно показать, что случайные величины х, у, ..., z независимы тогда и только тогда, когда равенство р(х, у, ...,z) = p(x)p(y)...p(z) (3.40) выполняется для всех значений х, у, ..., г.
3.6.Функции от случайных величин 45 3.6. Функции от случайных величин Один из основных вопросов, возникающий в применениях теории вероятностей, формулируется следующим образом. Заданы случайная величина х и ее распределение; каково будет распре- деление другой случайной величины у, связанной с х функцио- нальной зависимостью, скажем вида y = g(x)? Такой вопрос воз- никает, например, при определении плотности распределения вероятностей сигнала на выходе детектора в радиоприемном устройстве. В настоящем параграфе мы попытаемся показать, как можно ответить на этот вопрос. Случай одной переменной. . Пусть х — действительная случай- ная величина. Мы можем рассматривать ее как координатную переменную в выборочном пространстве Sx, представляющем собой действительную прямую с соответствующим образом задан- ными вероятностями. Пусть точки пространства Sx обозначаются через s. Тогда х—это функция x(s) = s. Пусть у — однозначная действительная функция действительной переменной; рассмотрим функцию от s, определяемую как r/[x(s)]. Так как y[x(s)] является для всякого s действительным числом, то z/[x(s)] —это новая случайная величина, определенная на пространстве Sx (конечно, в предположении, что t/[x(s)] удовлетворяет условию измеримости). С другой стороны, у(х) можно рассматривать так- же как функцию, задающую отображение пространства Sx в новое выборочное пространство Sy, где Sy —множество действительных чисел, образующее область значений, принимаемых у [x(s)], когда s изменяется в Sx. Тогда, если А —некоторое множество точек в Sx, то ему соответствует множество точек В в Sy, задаваемое условием: sogA в тОхМ и только в том случае, если у [х (s0)] € В. Следовательно, Р (s 6 А) = Р [х (s) 6 А] = Р {у [х (s)] G В}. Так как мы обычно опускаем переменную s, принимающую зна- чения в выборочном пространстве, при записи выражений, содер- жащих случайные величины, то мы можем написать Р(х£А) = = Р [у(х)£ В]. Этот результат выражает основное соотношение между распределениями величин х и у(х). Важно отметить, что несущественно, ^рассматривать ли t/(x) как случайную величину, заданную на Sx, или же рассматривать у как случайную величи- ну, заданную соответствующей координатой в Sy. ^Теперь мы можем получить функцию распределения случай- ной величины у, взяв в качестве В бесконечный с одной стороны интервал (— оо < у < У). Если А (У) — множество* точек в Sx, соответствующее множеству точек ( —оо<у<У). в Sy, то мы
46 Г л. 3. Случайные ее личины получаем следующее соотношение между распределением вероят- ностей величины у и распределением вероятностей величины х: р(^<г)=р[хел(Г)]. (3.41) Плотность распределения вероятностей случайной величины у можно теперь получить при помощи дифференцирования: (3.42) Предположим, что плотность рх(х) распределения случайной величины х существует и непрерывна почти всюду, что у яв- ляется дифференцируемой монотонной функцией от х и что ее производная dy/dx обращается в нуль только в изолированных точках. При этих условиях мы можем получить соотношение, непосредственно связывающее рх (х) и плотность распределения вероятностей р2(у) величины у, так как из наших предположе- ний вытекает, что х является однозначной функцией от у. По- этому каждой точке Y в Sy соответствует единственная точка X в 8Х и преобразование от х к у является, как говорят, взаимно однозначным. Если предположить, что у — монотонно возраста- ющая функция от х, то интервал ( —оо <х<Х(У)) в Sx соот- ветствует интервалу ( — оо < t/<F) в Sy. С учетом этого соотно- шение (3.42) приводится к виду Х(У) р2(п=4 5 p^dx=p^x>>S- —со Аналогичный результат (со знаком минус) мы получим, предпо- ложив, что у является монотонно убывающей функцией от х; поэтому искомым соотношением между плотностями распределе- ний вероятностей случайных величин у и х будет соотношение P2(n = PxW|^|- (3.43) • Если перечисленные выше условия не выполняются, то, при- меняя равенство (3.43), можно прийти к неверным результатам. Пусть, например, функция у постоянна на некотором интервале в Sx (как это имеет место в однополупериодном выпрямителе); тогда х не является однозначной функцией у и равенство (3.43) становится бессмысленным. Пример 3.6.1. Технику вычисления плотности распределения вероятностей для функции от случайной величины лучше всего, пожалуй, понять на частном примере. Рассмотрим случай квадратичного преобразования </=х2 (3.44) (изображенного на фиг. 3.4). Такое преобразование имеет место, например, в двухполупериодном квадратичном детекторе. Из фиг. 3.4 мы прежде всего
3.6. Функции от случайных величин 47 Фиг. 3.4. Функция, задающая» квадратичное преобразование. видим, что у никогда не принимает отрицательных значений. Поэтому Р(^<У) = 0 для У < О и, следовательно, р2(У) = 0 для У < 0. (3.45> Из фиг. 3.4, далее, видно, что при У > 0 множество А (У) есть множество* точек (—V”У<х< + )/У). Следовательно, р (У < Y) = Р [ -/У < х < /Т] = = Р[х<+ /У]-Р [х < -Гу], откуда +Vy -Ку = Pi(*)dx— \ Pi(x)dx. —оо —оо Взяв, далее, производные по У от обеих частей равенства, получаем пр. Г>0. <3.«). Равенства (3.45) и (3.46) в совокупности выражают искомую плотность рас- пределения вероятностей случайной величины у через плотность распределения* величины х. Фиг. 3.5. Гауссовская и %2 плотности распределений вероятностей.
48 Г л. 3. Случайные величины Если мы теперь точно зададим функцию р(х), например как гауссовскую плотность Р1(Х) ехр(-х2/2) (2 л)1 z 2 то можно провести в соотношениях (3.45) и найти явное выражение для р2(#): и (3.46) дальнейшие вычисления Г ехр(—у/2) Р2(</)= (2ш/)1/2 I О при у О, при у < 0. (3.47) Плотность распределения вероятностей, определяемая выражением (3.47) и записаная как функция от # = %2, называется плотностью распределения %2. Плотности pi (х) и р2 (у) изображены на фиг. 3.5. Случай многих переменных. Идеи, используемые для нахо- ждения распределения вероятностей функции от нескольких слу- чайных величин, — те же, что и в одномерном случае. Если (%i, х2, ..., xN) — некоторое множество действительных случайных величин, совместное распределение вероятностей которых извест- но, то выражения Ут — ёт(х1> х2> • • •» xN), т = 1, 2, М, определяют отображение выборочного пространства величин хп в выборочное пространство величин ут. Распределение вероят- ностей случайных величин ут можно вычислить, найдя множества точек в выборочном пространстве величин ут, являющиеся обра- зами заданных множеств точек в пространстве величин хп, и приравняв вероятности. Нужно отметить, что число случайных величин ут не должно быть обязательно равно числу случайных величин хп. Пример 3.6.2. Пусть случайная величина z определена как сумма дей- ствительных случайных величин х и у'. z=g(x, у) = х+у; (3.48} пусть, далее, совместное распределение вероятностей величин х и у известно. Задача состоит в нахождении плотности распределения вероятностей р3 (г) случайной величины г. Поскольку х и у являются действительными случайными величинами, в качестве их совместного выборочного пространства можно взять плоскость (х, у} ( —оо<х<4-оо, —оо < у <-|-оо). Так как х и у действительны, то действительной должна быть также и величина г, и в качестве соответствую- щего этой случайной величине выборочного пространства можно взять дей- ствительную прямую (— оо г <-|-оо). Как. и обычно, мы можем найти плот- ность распределения вероятностей, вычисляя производную от функции распре- деления. Для этого мы должны найти множество точек в плоскости (х, у}, соответствующее множеству точек (г^Х} на действительной прямой г. Из определения случайной величины z следует, что искомые точки расположены в полуплоскости (у^Х—х), изображенной на фиг. 3.6. Итак, P(z<Z) = P(0<Z-x).
3.6. Функции от случайных величин 49 Если плотность совместного распределения вероятностей величин х и у существует и непрерывна, то мы можем написать 4-оо z—x P(z<2)= р(х, y)dydx-, —ОО —оо отсюда, дифференцируя по Z, получаем, что 4-00 p3(Z)= р (х, y = Z — х) dx. (3.49) —оо Если теперь х и г/ —независимые случайные величины, то плотность их сов- местного распределения вероятностей равна произведению плотностей распре- деления каждой из этих величин. Следовательно, в этом случае 4-00 p3(Z)= Pi(x)p2(f/ = Z—x)dx. (3.50) —оо Плотность распределения вероятностей суммы двух независимых случайных величин совпадает, следовательно, со сверткой соответствующих плотностей распределения исходных величин. Якобиан. Если старые и новые случайные величины связаны взаимно однозначным преобразованием, то, как и в соответству- ющем одномерном, случае, может быть выведено явное соотноше- ние между плотностями вероятностей старых и новых величин. Предположим, например, что не только новые случайные вели- чины Ут заданы как однозначные, непрерывные (со всюду непре- рывными частными производными) функции старых случайных величин, . ' Ут = ёт(хи хг, .xN), m=l,2,...,N, (3.51) 4 Заказ № 57
50 Г л. 3. Случайные величины но и старые случайные величины могут быть представлены как однозначные непрерывные функции новых: хп = fn (Uv У* • • • > n=l,2,...,N (3.52) (мы считаем теперь число старых и новых величин одинаковым). При этом каждой точке в пространстве величин хп соответствует одна и только одна точка ’ в пространстве величин ут и функ- циональная зависимость между старыми и новыми случайными величинами задает взаимно однозначное преобразование одного пространства в другое. Предположим, далее, что А — произвольная замкнутая область в выборочном пространстве величин хп, а В —ее образ в выбороч- ном пространстве величин ут. Тогда вероятность того, что неко- торая точка попадает в область А, равна вероятности того, что ее образ попадает в область В. Предполагая, что существует плотность совместного распределения величин хп, мы можем написать ( ... рг (хХ1 ..., xN) dx±.. .dxN (уи .. ,,yN)dyr.. .dyN. А В Наша задача сводится теперь просто к вычислению кратных интегралов путем замены переменных. Из сделанных нами пред- положений о свойствах преобразования следует, что1) Pi (jq, ..., xN) dxt.. .dxN = A = $ .. • \ Pl (*i = fl, • •., Xn = ?n)\ J | dyr.. .dyN, в где fm задаются равенствами (3.52), a J — якобиан преобразования: д (хх,.. • > Xiv) __ dfi дУ1 WN dyi (3.53) д(Уг, •• ’♦» У^ dfi дУк дУя Таким образом, старые и новые плотности совместных распределе- ний вероятностей связаны соотношением Р2 G/i» •••» У~ Pi(x^ —fi, • ••» xN = fN) | J |. (3.54) x) См.» например, Курант (I, ч. II, стр. 205). [См. также Смирнов (I, т. II, раздел 98). — Прим, ред.}
3.7. Вероятностные процессы 51 При W=1 соотношение (3.54) сводится к результату, полученно- му ранее для одномерного случая [равенство (3.43)]. 3.7. Вероятностные процессы1) До настоящего момента мы не упоминали о том, что распре- деления вероятностей могут зависеть от времени. Мы делали это умышленно, так как во многих случаях, если время и имеется в общей картине, то только в неявном виде и поэтому не имеет прямого отношения к задаче. Однако существует много представ- ляющих интерес случаев, в которых важно учитывать зависимость вероятностных параметров от времени; таковы, например, задачи, связанные со случайными сигналами и шумами. Мы попытаемся теперь показать, как введенные нами раньше понятия вероятности и случайной величины могут быть распространены на такие ситуации. Одной из главных идей, лежащих в основе нашей концепции вероятности, является понятие относительной частоты данного исхода при большом числе (—> оо) повторений основного экспери- мента. Идея «повторения» эксперимента обычно подразумевает про- ведение эксперимента в первый раз, повторение его спустя неко- торое время, следующее повторение еще некоторое время спустя и т. д. Однако в определении относительной частоты важным является скорее не последовательное повторение экспериментов во времени, а просто проведение большого числа экспериментов. Мы можем удовлетворить нашим требованиям не только путем повто- рения эксперимента во времени, но и путем одновременного про- ведения большого числа идентично поставленных экспериментов. Рассмотрим последовательность из N бросаний игральной кости. Пусть при n-м бросании выпадает k(n) очков; k(n) может быть любым целым числом от единицы до шести. Следовательно, соот- ветствующее n-му бросанию выборочное пространство состоит из шести точек 1, ..., 6, а соответствующей случайной вели- чиной является само k (и). Аналогично для последовательности из N бросаний соответствующим совместным выборочным простран- ством является Л/-мерное векторное пространство, в котором координаты выборочных точек суть £(1), &(2), ..., k(N), а соот- ветствующая случайная величина —вектор, характеризующий вы- борочную точку. С увеличением длины последовательности броса- ний растет и размерность совместного выборочного пространства. Вероятность того,-что при первом бросании выпадает &(1) очков, можно найти по результатам одновременного бросания большого 1) Подробное рассмотрение различных возможных определений вероятности го процесса выходит за рамки настоящей книги. Полное изложение этого? вопроса можно найти в книге Дуба (II, гл. I, §§ 5 и 6; гл. II, §§ 1 и 2). См. также Гренандер (I, §§ 1.2-1.4). (Или Гнеденко (I, гл. 10).— Прим. ред.^ 4*
52 Гл. 3. Случайные величины числа костей, определив соответствующую относительную частоту» Аналогично, повторяя последовательно эту процедуру, мы можем определить вероятность того, что при n-м бросании выпадает k(n) очков, а также совместную вероятность выпадения k{\) очков при Фиг. 3.7. а — типичные выборочные функции случай- ного процесса с дискретным параметром; б — типичные выборочные функции случайного процесса с непрерыв- ным параметром. первом бросании, &(2) очков при втором бросании, ..., k(N) очков при V-м бросании. Задание совокупности подобных экспериментов вместе с соответствующими распределениями вероятностей и слу- чайными величинами (для всех УУ) определяют вероятностный (или случайный, или стохастический) процесс и, в частности, в рассмотренном примере — вероятностный процесс, с дискретным параметром х). . - ’*9 Дискретным параметром явл яется в нашем примере номер бросания
3.7. Вероятностные процессы 53 Рассмотрим теперь некоторую определенную последовательность результатов бросаний кости. Числа k(n), входящие в эту после- довательность бросаний, называются выборочными значениями, и можно представлять себе, что они задают некоторую функцию от индекса п. Такие функции, различные примеры которых приве- дены на фиг. 3.7, а, называются выборочными функциями1) рас- сматриваемого вероятностного процесса. Совокупность всевозмож- ных выборочных функций, заданных вместе с их распределением вероятностей, называется ансамблем-выборочных функций. Часто оказывается удобным наряду с заданием вероятностного процесса с помощью рассмотренных выше случайных величин и функций распределения задавать его с помощью ансамбля выборочных функций. Эти соображения, развитые применительно к вероятностным про- цессам с дискретным параметром, можно более или менее очевидным способом распространить на вероятностные процессы с непрерывным параметром. Рассмотрим, например, напряжение теплового шума x(t). некоторого сопротивления. В частности, рассмотрим резуль- тат х(/х) его измерения в момент t±. Это напряжение может при- нимать любое значение от плюс до минус бесконечности. Выбороч- ным пространством, соответствующим нашему измерению; явится, следовательно, действительная прямая (— оо+ оо), а соот- ветствующей случайной величиной хх будет само измеряемое на- пряжение. Обладая большим числом одинаковых сопротивлений, мы можем одновременно измерить целую совокупность значений х(/х) и по результатам этих измерений определить относительную частоту наступления событий [X— ДХ < х(?х)<Х]. Полученные таким образом относительные частоты позволят измерить Р[Х — — ДХ<хх<Х] и, следовательно, найти плотность распределения вероятностей р (хх). Аналогично мы могли бы проделать измерения в N моментов времени от до In, найдя тем самым выборочные значения случайных величин хх, .... xN, и таким образом полу- чить плотность совместного распределения вероятностей р(х1г ... ..., Хм). Задание всех таких множеств случайных величин и плот- ностей их совместных распределений вероятностей определяет ве- роятностный процесс с непрерывным параметром2). При этом выходное напряжение шума какого-либо конкретного сопротивле- ния, рассматриваемое как функция времени, оказывается выбороч- ной функцией нашего вероятностного процесса с непрерывным па- раметром. Типичные примеры таких выборочных функций показаны *) В качестве синонимов употребляются также иногда термины «реализа- ции вероятностного процесса» и «траектории вероятностного процесса».— Прим, ред, 2) Термин «непрерывный параметр» относится к тому, что параметр t может принимать любое действительное значение, и никак не связан с тем, будут ли рассматриваемые случайные величины непрерывными или дискретными.
54 Гл. 3. Случайные величины на фиг. 3.7, б. Как и в случае дискретного параметра, можно представлять себе, что вероятностный процесс задается ансамблем всевозможных выборочных функций. Вероятностные соотношения. Определив вероятностный процесс, задающие его распределения вероятностей и случайные величины, мы можем непосредственно применить все вероятностные соотно- шения, определенные и выведенные нами выше. Так, если хх,... ..., xN — случайные величины, принадлежащие рассматриваемому вероятностному процессу, то его плотности распределения вероят- ностей p(xlf х2, ..., xN) обладают следующими свойствами. Преж- де всего, в силу неотрицательности плотностей распределения веро- ятностей, для всех значений N •• -Л)- (3.55) , Далее, должно удовлетворяться соотношение *4-00 -|-оо ... р (хъ х2, ..., Хм) dxt ... dxu =1 (3.56) — ОО —оо в соответствии с тем, что вероятность появления хотя бы одного из возможных событий равна единице. Также должно удовлетво- ряться соотношение 4-00 4-00 ... p(xv хк, xft+1, ..., x„)dxk+1 ... dxN = —со —co — р(х1, k < Af, (3.57) вытекающее из (3.29). Условные плотности распределения вероят- ностей задаются, как и обычно, равенствами р(Х1, ..., ..., Xjv)- p(JCft+it . (3.58) и должно удовлетворяться условие +=° ^р(хл |х1; ..., XN-t)dxN= 1> (3.59) — ОО поскольку в этом случае мы снова имеем дело с достоверным событием. Пусть хх......Хм — случайные величины, принадлежащие одно- му вероятностному процессу, a у1г ..., ум — случайные величины, принадлежащие другому вероятностному процессу. Эти два процесса называются независимыми вероятностными процессами, если для любой совокупности случайных величин хп и ут и для всех зна-
3.8. Задачи 55 чений N и М p(xlt xN, ух, Ум) = р(х1, .... xN) Р(,У1............ум). (3.60) Стационарные вероятностные процессы. Обратимся вновь к рас- смотрению большого числа изготовленных идентичным образом источников теплового шума, о которых мы уже говорили выше. Совершенно так же, как по данным измерений, полученных в момент t19 мы выяснили плотность распределения вероятно- стей мы можем теперь по данным, полученным в другой момент времени + Л вычислить плотности распределения вероят- ностей р (Xh-и)- Аналогично наравне с плотностью совместного распределения вероятностей p(xtl, ..., x//v), вычисленной по дан- ным, полученным в моменты мы можем также вычислить плотность совместного распределения вероятностей Р(*ц-Н, •••> основываясь на данных, полученных в момен- ты ti + t, ..., tn + t- Очевидно, возможна одна из двух ситуа- ций: или эти две совокупности плотностей распределения вероят- ностей окажутся совпадающими, или нет. Если для всех значений Ми/ распределения вероятностей, соответствующие моментам времени tni идентичны распределениям вероятностей, соответст- вующим моментам времени tn+t, то эти распределения вероят- ностей инвариантны по отношению к переносу начала отсчета времени. Вероятностный процесс, задаваемый такой системой рас- пределений вероятностей, называется стационарным вероятност- ным процессом; все прочие процессы называются нестационарными. В качестве примера стационарного вероятностного процесса рассмотрим напряжение теплового шума, развиваемое сопротивле- нием 7?, имеющим температуру Т и соединенным параллельно с конденсатором емкости С. Ниже мы увидим, что распределения вероятностей шумового напряжения, возникающего на зажимах параллельной ячейки, полностью определяются значениями /?, Т и С. Если значения /?, Т и С неизменны во времени, то шу- мовое напряжение задает стационарный вероятностный процесс. Если же, с другой стороны, скажем, температура Т меняется со временем, то процесс будет нестационарным. 3.8. Задачи 1. Случайная величина х, имеет экспоненциальную плотность распределе- ния вероятностей: р(х) = аехр( — Ь\х\), где а и b — постоянные. а) Найти соотношение, которому должны удовлетворять постоянные а и /. б) Найти распределение Р(х^Х) случайной величины х. в) Построить графики р (х) и- Р (х X) для случая а= 1.
56 Г л. 3. Случайные величины 2. Случайная величина у имеет плотность распределения Коши Q где с и d—постоянные. а) Найти соотношение, которому должны удовлетворять постоянные end. б) Найти функцию распределения P(y^Y) случайной величины у. в) Построить графики р (у) и Р (y^Y) для случая d=l. 3. Показать, что плотность совместного распределения случайных вели- чин (%1, ..., х/v) может быть выражена следующим образом через условные плотности распределения вероятностей р(хп|хг, •••» xn-i)- .....Xn) = =p(x/v|xJ> .... хлм)...р(х8|х1, x2) p(x2|xj) p(xx). (3.62) 4. Пусть дискретные случайные величины х и у принимают соответствен- но К значений х^ и М значений ут. Показать, что если для всех значений X и У выполняется соотношение Р(*<Х, y<Y) = P(x^X)P(y<Y), то для всех значений k и т оказывается справедливым соотношение* Р (xkt Ут)= Р (xk) Р (Ут) и, следовательно, случайные величины х и у независимы. 5. Пусть х и (/ — независимые дискретные случайные величины; х при- нимает три возможных значения 0, 1, 3 с вероятностями 1/2, 3/8, 1/8, а у— два возможных значения 0, 1 с вероятностями 1/3, 2/3. Вычислить совместную функцию распределения случайных величин х и у и построить ее график. 6. Пусть х и у—случайные величины, определенные в задаче 5. Новая случайная величина v определяется как сумма х и у: v=x + y. Найти функцию распределения P(v^V) случайной величины у; построить график. 7. Пусть р(х) — плотность распределения случайной величины х. Случай- ная величина у выражается через х равенством y = ax-\-bt где а и b — постоянные. Найти соотношение между р(у) и р(х). 8. Пусть х и у—независимые случайные величины. Новые случайные величины и и v определяются равенствами и = ах + Ь и o = c(/4-d, где а, Ь, с и d— постоянные. Показать, что случайные величины и и v также независимы. 9. Пусть х—гауссовская случайная величина, имеющая плотность рас- пределения вероятностей (2л)1'» Случайная величина у задается равенством у = х3. Вычислить плотности рас- пределения вероятностей случайной величины у и построить график. 10. Пусть х — гауссовская случайная величина, определенная в задаче 9. Случайная величина у задается формулами | х1уГп при х > 0, ( — ( — х)1/п при х < 0,
3.8. Задачи ЬТ где п — положительная постоянная. Вычислить плотности распределения ве- роятностей случайной величины у для случаев п=1, 2 и бесконечности и по^ строить их графики. 11. Вероятностный процесс x(t) задается выражением х (/) = sin (со/4-6), где (о — постоянная, а 0 — случайная величина, имеющая плотность распреде- ления вероятностей р(6)= приО<10<;2л, 2л н О при других 6. а) Найти функцию распределения Р (xt < X). б) Найти плотности распределения p(xt). в) Построить графики функций, найденных в а) и б). 12. Пусть х и (/ — независимые случайные величины. Новая случайная* величина z определяется как произведение х на у: z = xy. Вывести выражение для плотности распределения р (г) новой случайной вели- чины z через плотности р (х) и р(у) распределения исходных случайных вели- чин хну. 13. Пусть х и (/—независимые случайные величины, имеющие следующие плотности распределения вероятностей: РМ= [ у ехр ( ) при // > 0. .P(i/)= \ 2 у [ 0 при у < 0. Показать, что их произведение имеет гауссовскую плотность распределения вероятностей. 14. Пусть х и у — независимые случайные величины с равномерными плотностями распределения вероятностей: {-4- при 0 < х < А, А 0 при других X и р ({/) = -g- при 0<4/<В, 0 при других X. Вычислить плотность распределения их произведения при Д = 1 и В = 2; по- строить график.
38 Гл. 3. Случайные величины 15. Пусть х и у — независимые случайные величины, имеющие плотности распределения Р (У) = ₽w (2л)1/2 yeXpC—ПрИ//>0, при у < 0. Показать, что их произведение имеет экспоненциальную плотность распреде- ления (см. задачу 1).
Глава 4 СРЕДНИЕ ЗНАЧЕНИЯ В двух предыдущих главах мы ввели понятия вероятности и случайной величины, определили различные функции, их харак- теризующие, и рассмотрели некоторые свойства этих функций. Мы отметили, что эти функции описывают поведение случайных величин в длинных сериях испытаний (т. е. поведение в среднем), В действительности можно показать, что различные величины, характеризующие случайные величины в среднем (среднее, сред- неквадратичное и т. п.), можно определить, используя распре- деления вероятностей этих случайных величин. Именно этот аспект теории вероятностей рассматривается в настоящей главе. В част- ности, мы определим процесс статистического усреднения, изучим некоторые представляющие интерес средние значения и в заклю- чение исследуем соотношение между временными и статистиче- скими средними. 4.1. Математические ожидания Рассмотрим дискретную случайную величину y = g(x), где х — дискретная случайная величина, принимающая одно из М возмож- ных значений xm, a g (х) — однозначная функция от х. Мы хотим теперь определить среднее значение величины g(x). С этой целью возвратимся на время к .частотной интерпретации вероятности. Предположим, что N раз повторяется основной эксперимент, опре- деляющий случайную величину х, и что при этих N повторениях событие, соответствующее хт, появляется п(хт) раз. Арифмети- ческое среднее от g(x) равно в этом случае м g(x)cp Я (*1) " (xi) + • • • +g (*м) П (хм) _ 2 g-(x m—i Если мы полагаем, что повторения этого эксперимента обеспечи- вают статистическую устойчивость, то можем ожидать (как это указывалось в гл; 2), что при N —> со это среднее значение схо- дится к некоторому пределу. Вероятность Р(хт)' представляет собой предел относительной частоты n^x^/N] поэтому мы прихо- дим к следующему определению математического ожидания (или
60 Гл. 4. Средние значения статистического среднего х)) Е [g (л)] дискретной случайной вели- чины g(x)2Y -• м - - - £[£«= 2 Е{хт)Р{хт). (4.1> тп=1 Математическое ожидание является пределом арифметического* среднего. Если хьр ..Xk. — набор всевозможных значений х, при кото- рых g(x) принимает значение yk, то вероятность значения yk равна Р(х^) + ... +P(Xk.) и равенство (4.1) может быть переписано в виде к E[g(x)] — Е(у)= УкР(Уь). . (4-2) fe=l Выражения (4.1) и (4.2) приводят к одному и тому же значению для математического ожидания g(x); их существенное различие состоит в том, что выражение (4.1) относится к пространству значений величины х, а (4.2) —к пространству значений величины у. Простейшим частным случаем выражения (4.1) является тот, при котором g (х) ~ х. Число Е(х) называют также средним зна- чением хи обозначают через тх. Пусть теперь х —непрерывная случайная величина, имеющая плотность распределения рх(х), a g (х) — однозначная функция отх. Мы снова хотим определить математическое ожидание случайной величины g(x). Пусть х аппроксимируется дискретной случайной величиной х', которая принимает значения хт с вероятностями рг (хт) &хт, где Дхт — набор М интервалов, на которые разбивается пространство значений х. Тогда, согласно (4.1), м Е [Я (*')] = 2 S Р1 (*т) &хт- тп=1 Если мы положим все Дхт—>0, то при этом М —> оо и предель- ным значением суммы оказывается написанный ниже интеграл х) Его также называют стохастическим средним и средним по ансамблю. Для удобства мы иногда будем обозначать математическое ожида- ние с помощью черты над усредняемой величиной: g(x). [Авторы выбирают среди этих синонимов в качестве основного и систематически используют в книге термин «statistical average» (статистическое среднее). Мы, однако, не решились отказаться в переводе от общепринятого в русской статистической литературе термина «математическое ожидание», иногда заменяемого для краткости термином «среднее».—Прим, ред.} 2) В русской литературе для обозначения математического ожидания часто используется также символ M[g(x)]. — Прим. ред.
4.1. Математические ожидания 61 (4.3) (это. йо всяком случае будет так, если g(x) и рх(х) кусоч- но-непрерывны). Это рассуждение наводит на мысль, что мы мо- жем определить математическое ожидание непрерывной случайной величины -g (х) при помощи равенства 4-00 £[£(*)]= 5 §(.x)Pi(x)dx. (4.3) —СО Допустив, что рх(х) может содержать импульсные функции, можно расширить область приложимости соотношения (4.3) и при- менять его к тем случаям, когда х —-смешанная случайная вели- чина, содержащая непрерывную и дискретную части. Математи- ческое ожидание случайной величины y = g(x) можно выразить также и через вероятности в пространстве значений у\ если опре- делена плотность распределения р2(у), т0 +°О Е [g (х)] = Е(у) = ypz(y)dy. (4.4) — ОО • Многомерные случайные величины. Выше мы рассмотрели только математические ожидания функций одной случайной величи- ны. Рассмотрим теперь случай, когда имеются две или несколько «случайных величин. Предположим сначала, что случайные вели- чины хну дискретны и принимают соответственно М возможных значений хт и К возможных значений yk. Наша задача состоит в том, чтобы определить математическое ожидание однозначной функции, скажем g(x, у), от двух случайных величин х и у. Та- кой функцией может быть сумма хф- у, произведение ху и т. п. Хотя мы и имеем здесь дело с двумя случайными величинами х и у, математическое ожидание случайной величины g(x, у) в действительности уже определено равенством (4.1). Поскольку х может принимать любое из М возможных значений, а у — любое из К возможных значений, пара (х, у) может принимать любое из 7И/С возможных значений; можно заменить двойные индексы k) одним индексом, пробегающим значения от 1 до МК, и, далее, применить равенство (4.1). Но в замене индексов даже нет необ- ходимости; очевидно, что к м E[g(x, g)]=S 2 Уь)Р(хт> Ун)- (4-5) k=i 7П=1 Соответствующее выражение для непрерывных (или смешанных) х и у имеет вид 4-00 +оо £[£(*.!/)]= 5 g(x. У)р(х> y)dxdy. (4.6) —ОО —оо
6 Г л. 4. Средние значения Совершенно очевидным способом равенства (4.5) и (4.6) можно распространить на случай более чем двух случайных величин. Пример 4.1.1. Применим полученные выше выражения к некоторым пред- ставляющим интерес функциям g(x, у). Пусть g(xt у) = ах-}-by, где а и Ь— постоянные. Непосредственное применение равенства (4.6) приводит к следую- щему результату: 4-00 4-00 4~°О 4-00 Е (ах-}-Ьу)—.а хр (х, у) dx dy-^b УР(х, y)dx dy. —оо —оо —оо —оо Первое слагаемое в правой части представляет собой умноженное на а мате- матическое ожидание функции gY (х, #) = х, а второе слагаемое—умноженное на b математическое ожидание функции g2 (х, у) = у. Итак, Е(ах+Ьу) = аЕ(х)+ЬЕ(у). (4.7) Согласованность этого результата с исходным определением (4.3) вытекает из свойств плотности совместного распределения вероятностей и, в частности, из равенства (3.29а). Нетрудно распространить полученный результат на слу- чай /V величин хп и показать, что N N Е ( 2 апхп) = 2 ап^ (4.8)- ; п=1 п=1 где ап—постоянные. Итак, среднее от взвешенной суммы случайных величин равно взвешенной сумме их средних. Пример 4.1.2. Найдем теперь математическое ожидание произведения функции от случайной величины х на функцию от случайной величины у Согласно (4.6), j -4-00 4-00 { Е lh(x)f (</)] = h(x)f(y)p(x, y)dxdy. | — ОО —со Вообще говоря, это все, что можно получить, не конкретизируя дальше плотность совместного распределения. Однако дальнейшее упрощение оказы- вается возможным, если х и у независимы. В этом случае плотность сов- местного распределения оказывается произведением плотностей вероятностей величин х и г/, и мы получаем 4~оо 4~°° 1 £pW/(i/)]= h(x)pJ(x)dx f(y)Pi(y)dy. ; —оо —оо Таким образом, для независимых случайных величин х и у E[h(x)f(y)]^E[h(x)]E[f(y)]. (4.9} Этот результат легко распространить на случай более чем двух случайных . величин. Таким образом, среднее от произведения независимых случайных ве- личин равно произведению средних от этих величин. Вероятностные процессы. Предыдущие замечания относительно математических ожиданий случайных величин приложимы равным образом и к математическим ожиданиям вероятностных процессов. а ।
4.2. Моменты 63. Пусть, например, случайная величина, представляющая собой значения, которые в момент t могут принимать выборочные функ- ции x(t) некоторого вероятного процесса. Тогда мы определим математическое ожидание функции от данного вероятностного^ процесса как математическое ожидание соответствующей функ- ции от xt: 4-00 E[g (*«)]= g(.xt)p(xt)dxt. —оо Следует отметить, что математическое ожидание вероятност- ного процесса, вообще говоря, будет функцией времени, так как плотность случайной величины xt в общем случае может отличать- ся от плотности величины Предположим, например, что вы- борочные функции некоторого вероятностного процесса x(t) связа- ны с выборочными функциями другого процесса у (t) соотношением. х(/) = у (t) cost. Так как cost является [при фиксированном t просто числом, то [£ (xt) = E(yt)cost. Предположим теперь, что процесс с выборочными функциями t/(/> стационарен. Тогда плотность распределения p(yt) одинакова для всех t и E(yt) при всех t имеет одинаковое значение ту (т. е. математическое ожидание стационарного вероятностного процесса' представляет собой как функция от времени постоянную). При этом для всех т, не кратных 2л, Е (xt) = ту cos t Ф Е (хн-т) = ту cos (t + т) и E(xt) не является постоянной, как это было бы, будь соответ- ствующий процесс стационарным. 4.2. Моменты^ Один из типов средних от функций случайной величины х,. представляющий особый интерес, образуют моменты величины х; n-й момент (иногда говорят момент п-го порядка) случайной ве- личины х определяется как математическое ожидание n-й степени случайной величины х: . 4-00 E(xn) = xnp(x)dx. (4.10} —оо Аналогично определяется n-й момент вероятностного процесса. В стационарном вероятностном процессе первый момент т = Е(х} (т. е. среднее значение) определяет постоянную компоненту
<64 Гл. 4. Средние значения процесса (составляющую постоянного тока); момент второго порядка Е (х2) (т. е. среднеквадратичное значение) определяет интенсивность и * является мерой средней мощности, несомой выборочной функцией процесса. Определим n-й центральный момент рп случайной величины х равенствами 4-00 = Е [(х — т)п] = (х — m)np(x)dx. (4.11) —оо Из биномиального разложения (х — т)п следует, что центральные моменты связаны с обычными моментами соотношением п (4-12) г=0 Второй центральный момент, часто представляющий особый инте- рес, обычно обозначается специальным символом о2, o* = p2 = E(x-m)2, (4.13) л называется дисперсией. В стационарном вероятностном процессе дисперсия характеризует интенсивность переменной компоненты процесса (составляющей переменного тока). Положительное зна- чение квадратного корня из дисперсии а называется стандарт- ным отклонением случайной величины х. Стандартное отклонение вероятностного процесса представляет собой квадратный корень из среднеквадратичного значения его переменной компоненты. Многомерные случайные величины. Понятие момента случай- ной величины может, конечно, быть распространено на совмест- ные распределения вероятностей. Так, например, смешанный мо- мент (п + &)-го порядка случайных величин х и у определяется ‘Соотношением Е(хпук) = хпукр(х, y)dxdy. (4.14) —оо —оо Соответствующий центральный смешанный момент определяется формулой ^ = Е[(х-тхГ{у-туП (4.15) а'де тх — среднее значение х, а ту — среднее значение у. Сме* лианный момент
4.3. Характеристические функции 65 называется ковариацией случайных величин х и у. Он представ- ляет ' специальный интерес и будет более подробно рассмотрен в § 4.4. 4.3. Характеристические функции1) Другим довольно важным типом средних значений являются характеристические функции. Характеристическая функция Mx(jv)2) вещественной случайной величины х определяется как математическое ожидание ехр(рх): 4-00 Л4Х (р) = Е [exp (fox)] = exp (jvx) р (х) dx, (4.16) ' —со где v — действительное число. Поскольку плотность р(х) неотри- цательна, а модуль числа exp(jux) равен единице, 4-00 4-°° | exp (jvx) р (х) dx | < p(x)dx= 1. —оо —оо Следовательно, характеристическая функция всегда существует и удовлетворяет неравенству |]Л4х(/ц)|<Мя(0)=1. (4.17) Из определения интеграла Фурье следует, что характеристи- ческая функция случайной величины х является преобразованием Фурье от плотности распределения вероятностей этой случайной величины. Поэтому при соответствующих условиях3) мы можем применить обратное преобразование Фурье и выразить плотность распределения вероятностей случайной величины через характери- стическую функцию: 1 +с° £(*)= 2^ ) Ms(jv)exp(-jvx)dv. (4.18) —СО Нередко оказывается более простым не вычислять непосредствен- но плотность распределения, а найти сначала характеристическую функцию и лишь затем вычислить плотность распределения, используя преобразование Фурье. Более подробно свойства характеристических функций рассматриваются в книгах Кламера (I, гл. 10) и Дуба (П,:гл. I, § 11). [См. также Гнеденко (I, гл. 7).—Прим, ред.] 2) См. примечание3) на стр. 30.—Прим. ред. 3) См., например, Курант (I, 4. II,. гл. 4, приложение, §5) или Гйймен (II, гл. VII, § 19). [См. также Смирнов (I, т. II, разд. 160). —Прим, ред.] 5 Заказ № 57
66 Гл. 4. Средние значения Если х — дискретная случайная величина, то равенство (4.16) принимает вид Мх (/О) = 2 р (хт) exp (jvxm). (4.19) 7П Вычисление моментов. Продифференцируем теперь характе- ристическую функцию по параметру v: -4-00 $ xexp(/t>x)p(x)dx. —оо Если в обеих частях этого равенства положить v = Ot то инте- грал превращается в первый момент случайной величины х. Отсюда находим, что _.4ЛЫМ-| (4.20) х J dv J v=0 4 ' Итак, первый момент может быть получен дифференцированием характеристической функции. Аналогично, вычисляя n-ю производную от характеристической функции по v, получаем -4-00 = $ х"ехр (Jvx)p(x)dx. —оо При г» = 0 интеграл превращается в n-й момент случайной вели- чины х. Следовательно, £(х") = (-7у^^]о=о. .(4.21) Иногда для вычисления момента оказывается проще провести дифференцирование по формуле (4.21), чем интегрирование по формуле (4.10). Предположим, что характеристическая функция может быть разложена в ряд Тейлора: .. .. . dnMx(jv)~\ vn n=0 Тогда, учитывая равенство (4.21), находим, что Мя(/0=2 Е(хп)^. (4.22) п=0 Итак, если характеристическая функция случайной величины раз- лагается в ряд Тейлора в некотором интервале около начала
4.3. Характеристические функции 67 координат, то она однозначно определяется в этом интервале моментами соответствующей случайной величины. Если для неко7 торой случайной величины существуют не все моменты, но ее момент n-го порядка существует, то также существуют моменты всех порядков ниже n-го и характеристическая функция может быть разложена в ряд Тейлора с остаточным членом n-го порядка1). Если моменты некоторой случайной величины однозначно задают ее характеристическую функцию, то они однозначно задают также и ее функцию распределения2). Простое достаточное условие для такой однозначности состоит в следующем: если распределение вероятностей таково, что существуют все моменты, и если ряд (4.22) абсолютно сходится для некоторого v > 0, то это распреде- ление вероятностей является единственным распределением с та- кими моментами3). В литературе по математической статистике часто встречается другой тип средних значений, тесно связанный с характеристи- ческой функцией4). Эта функция Мх(и), называемая производящей функцией, определяется как математическое ожидание ехр(шс): Мх (и) = Е [ехр (их)], (4.23) где и — действительные числа. Эта функция связана с моментами по существу так же, как характеристическая функция. Легко показать, в частности, что (4-24) Существенное различие между характеристической и производя- щей функциями состоит в том, что характеристическая функция существует всегда, а производящая—только если существуют все моменты.. Многомерные характеристические функции. Математическое ожидание exp (jvtx + jv2y), p2) = E[exp(p1x + /y2t/)] = -j-оо +°o = 5 exPUvix + iv2y)p(x, y)dxdy, (4.25) x) См. Курант (I, 4. I, гл. VI, § 2). [Или Смирнов (I/т. I, разд. 126).— Прим, ред,] 2) См. Крамер (I, стр. 109) или Лоэв (I, стр. 186). [См. также Гнеденко (1, § 35). — Прим, ред.] 3) См. Крамер (I, стр. 199). 4) См., например, Муд (I, §5.3). [См. также Феллер (I, гл. 11).,— Прим, ред.] 5*
68 Гл. 4. Средние значения называется двумерной характеристической функцией случайных величин х и у. Таким образом, двумерная характеристическая функция есть двумерное преобразование Фурье от плотности совместного распределения случайных величин х и у. и мы можем, зная двумерную характеристическую функцию, с помощью обрат- ного преобразования Фурье найти плотность совместного распре- деления вероятностей двух случайных величин: 4-00 4-30 р = (§57 \ 5 м 1V^ ехр < “ iV1X ~ dV1 dv* <4'26) —оо —оо Аналогично, N-мерная характеристическая функция и W-мерная плотность совместного распределения вероятностей связаны друг с другом Л/-мерйым преобразованием Фурье1). Определив двумерную характеристическую функцию, рассмот- рим теперь некоторые ее свойства. Во-первых, заметим, что М(0, 0)=1. Из равенства (4.25) вытекает далее, что р2)|<М(0, 0)=1. (4.27) Следовательно, двумерная характеристическая функция всегда существует и достигает своего наибольшего значения в начале координат плоскости (vx, v2). Положим теперь равным нулю только v2. Тогда 4-оо 4-оо ^(М, 0)= ехр(/охх)(/х р(х, y)dy. —оо —оо Из свойств плотности совместного распределения вероятностей следует, что интеграл по у в предыдущем равенстве есть просто плотность распределения рх(х). Таким образом, мы получаем следующее соотношение между двумерной характеристической функцией величин х и у и одномерной характеристической функ- цией величины х: М(/01> О) = ЖХ(М). (4.28) Диалогично можно показать, что М(0,р2) = ^(р2). (4.29) Продифференцируем теперь двумерную характеристическую функцию п раз по vx *и k раз по и2: ' 4-00 4-00 х"/ехр (jVjX + jv2y)p(x, y)dx dy. dntk М (jv!, jv2) _ .n+ft dv? dtk ’ 1 *) См. Крамер (I, § 10.6). [См. также Гнеденко (I, § 39).—Прим, ред.}
4.3. Характеристические функции 69 Полагая и о2 равными нулю, мы видим, что двойной интеграл обращается в смешанный момент E(xnyh). Следовательно, ь дп+кМ(}уг, jv2) Л dvidtft J«r®a=(> (4.30) Таким образом, различные смешанные моменты случайных вели- чин х и у могут быть найдены последовательным дифференциро- ванием их двумерной характеристической функции. Разлагая в степенной ряд экспоненциальную функцию, входя- щую в интегральное выражение для M(jvv jv2), можно получить разложение двумерной характеристической функции в ряд по смешанным моментам: М(/Л. w=TT[2 [SJр —оо —оо n=0 fe=0 или, меняя порядок интегрирования и суммирования, оо оо -f-oo 4~оо М (fa, /Ч) = 2 2 \ yjdxdy. n=o fe=O —оо —оо Двойные интегралы в последнем выражении представляют собой просто смешанные моменты Е(хп, у*), и, следовательно, /Ч)=2 2 • (4.31) n=0 fe=O Независимые случайные величины. По определению, М-мерная характеристическая функция М случайных величин xlt ..., xN есть N N М (fa, ..., joN) = Е [ехр (/ } vnxn)] = Е [ П ехр (/»Л)] • 71=1 П=1 Если N случайных величин хп независимы, то математическое ожидание произведения равно произведению соответствующих математических ожиданий. Поскольку математическое ожидание ехр(/Ъпхп) равняется характеристической функции величин хп, мы получаем N М(fa, ..., jvN) = П Л4хп(К). ‘ (4.32) п=1 п Итак, ./V-мерная характеристическая функция совокупности N независимых случайных величин равна произведению их индиви- дуальных характеристических функций. Легко показать, что и наоборот, N случайных величин хп обязательно будут незави-
70 Гл. 4, Средние значения симыми, если их N-мерная характеристическая функция равна произведению соответствующих одномерных характеристических функций. Пример 4.3.1. Рассмотрим случайную величину у, являющуюся суммой W независимых случайных величин хп: N п=1 Характеристическая функция у равна тогда N N My(jv) = E [exp (/о 2 *п)]=£ [П exP(/’vxn)] • П=1 П=1 В силу независимости случайных величин хп, N My(jv)={] Мх (jv), (4.33) п=1 п и мы видим, что характеристическая функция суммы независимых случайных величин равна произведению характеристических функций слагаемых. Не сле- дует, однако, смешивать равенства (4.32) и (4.33), похожие одно на другое по форме. Равенство (4.32) задает TV-мерную характеристическую функцию N случайных величин хп и является функцией от N переменных vn. Равенство же (4.33) задает характеристическую функцию одной случайной величйны у и является функцией одного переменного v. Пример 4.3.2. Пусть случайная величина z является суммой двух неза- висимых случайных величин х и у*. z = x-\-y. Из равенства (4.33) следует, что Mz(jv)=Mx(jv)My(jv). (4.34) Плотность распределения вероятностей величины z можно теперь найти, вычислив обратное преобразование Фурье от обеих Частей равенства (4.34). Получим 4-00 /?з(г)=2л Mx{jv)Mv(iv)e*p(—jvz)dv. — СО Подставляя вместо Mx(jv) правую часть равенства (4.16) и меняя порядок интегрирования, получаем 4-00 4-00 Ps(z)= Pi(x) {^- Ми(/у)ехр[— jv(z—x)]dv ) dx. —ОО —оо Отсюда, используя (4.18), находим, что 4-00 Рз(г)= Р1(х)рг(«/=г —x)dx. (4.35) —ОО Этот результат в точности совпадает с результатом, полученным ранее [см. равенство (3.50)] непосредственно из рассмотрения функций распределе- ния.
4.4. Корреляция 71 4.4. Корреляция Как мы видели выше при рассмотрении. условных вероят- ностей, часто интересно выяснить зависимость одной случайной величины от другой. Один из способов разобраться в характере зависимости между двумя действительными случайными величи- нами х и у состоит в графическом построении результатов отдель- ных осуществлений основного эксперимента; при этом случайные величины изображаются точками на плоскости (х, у) (т. е. гра- фически строятся различные измеренные значения этих величин, называемые часто выборочными точками) и изучается получаю- щаяся фигура. Такой график может иметь вид, показанный на фиг. 4.1; он называется диаграммой разброса. Если случайные величины х и у не являются взаимно зависимыми, то можно ожидать, что выборочные точки разбросаны более или менее по всей плоскости. С другой стороны, если величины сильно зависят друг от друга, то мы можем ожидать, что все выборочные точки группируются вблизи кривой, описывающей функциональную зависимость между этими величинами. Простейшей формой зави- симости является линейная зависимость, представляющая боль- шой практический интерес. Мы можем ожидать, что в этом случае выборочные точки концентрируются вдоль прямой линии, как показано, например, на фиг. 4.1. Предположим, что диаграмма разброса указывает на то, что случайные величины х и у связаны друг с другом сильной ли- нейной зависимостью. В этом случае интересно определить, какая из прямых линий ур = а + Ьх (4.36) приводит к наилучшему предсказанию ур значений случайной величины у по выборочным значениям случайной величины х.
72 Гл. 4. Средние значения Для того чтобы ответить на этот вопрос, нужно прежде опреде- лить, что мы понимаем под термином «наилучшее». Один из удобных критериев, полезный во многих приложениях, — величина среднеквадратичной разности (ошибки) eTOS между истинным вы- борочным значением случайной величины у и предсказанным зна- чением: ems = Е [(р - z/p)2] = Е {[р - {а + дх)]*}. (4.37) Прямой наилучшего предсказания оказывается при таком крите- рии качества та, которая обеспечивает наименьшую среднеквадра- тичную ошибку. Такую прямую нередко называют прямой средне- квадратичной регрессии2). Найдем теперь для нашей прямой значения начального отрезка а и наклона Ь, обеспечивающие наименьшую среднеквадратичную ошибку. Дифференцируя выражение для среднеквадратичной ошибки по а и Ь и приравнивая нулю результаты, имеем -2£(р) + 2а + 2&£(х) = 0, = - 2Е (ху) + 2аЕ (х) + 2ЬЕ (х®) = 0. Решая относительно а и b эти уравнения, получаем, что А_Я[(х—ту)]_ Цц °х ~ °х ’ Теперь можно подставить эти значения в (4.36) и убедиться, что при этом действительно имеет место минимум ошибки; мы нашли, таким образом, что уравнение прямой, обеспечивающей наилуч- шее предсказание, есть Ур = ту + ^(Х-тх). (4-38) Из этого выражения следует, что прямая наилучшего предсказа- ния проходит через точку (/их, ту). Удобно ввести нормированную величину g, соответствующую случайной величине х и определяемую равенством | . (4.39) CFX Легко видеть, что £© = 0и 1, (4.40) 0 См. Крамер (I, §§ 21.5—21.7). [См. также Дунин-Барковский и Смир- нов (I, гл. 7, § 4),—Прим, ред.}
4.4. Корреляция 73 т. е. среднее значение нормированной величины равно нулю, а ее стандартное отклонение — единице. Используя нормированную величину g и вводя нормированное предсказание = (ур — мы можем придать выведенному ранее выражению для прямой наилучшего предсказания особенно простую форму nP = QS; (4.41} здесь q — коэффициент корреляции, определяемый соотношением е = £(^) = ^-, (4.42) где т] — нормированная величина, соответствующая у. Коэффи- циент корреляции часто называют нормированной ковариацией случайных величин х и у. Соотношение (4.41) показывает, что коэффициент корреляции равен наклону прямой, дающей наилуч- шие .предсказания значений т] по заданным выборочным значе- ниям |. Рассмотрим теперь среднее значение квадрата случайной вели- чины (£ ± т)). Поскольку | и т] действительны, этот квадрат, а значит, и его среднее значение должны быть неотрицательны. Таким образом, Е [(& ±h)2] = Е№) ±\2Е (fr) + Е (Т)2) = 2 (1 ± Q) > 0 (4.43) и, следовательно, наибольшие положительное и отрицательное значения, которые принимает коэффициент ^корреляции, равны + 1 и — 1: (4.44} Пусть р = + 1. Тогда 4*00 -J-0O £[(£-п)2]=$ 5 (x-y?p[x,y)dxdy = Q. —-оо —оо Оба множителя в подинтегральной функции неотрицательны, и, следовательно, при непрерывной р(х, у) интеграл может быть равен нулю только в том случае, если.т1 = £ для всех значений х и у, при которых р (х, у) > 0; совокупность пар значений | и т], для которых р(х, у) = 0, появляется с вероятностью нуль. Ана- логично при р = — 1 равенство т) = — | имеет место для всех значений х и у, для которых р(х, у) > 0. Таким образом, экстре- мальные значения р = ± 1 соответствуют тем случаям, когда Л = ± I с вероятностью единица. Независимость и линейная независимость. Если коэффициент корреляции действительных случайных величин х и у равен нулю, с=о, то эти случайные величины называются некоррелированными или
74 Гл. 4. Средние значения линейно независимыми. Из соотношения (4.42), являющегося определением коэффициента корреляции, следует, что если сме- шанный момент Е(ху) случайных величин х и у равен произве- дению математических ожиданий этих величин, Е(ху) = Е(х)Е(у), то коэффициент корреляции равен нулю и, следовательно, х и у линейно независимы. Таким образом, если две случайные вели- чины независимы, то они также линейно независимы. С другой стороны, однако, линейно независимые случайные величины могут как быть, так и не быть независимыми. Это можно показать следующим образом. В § 4.3 было указано, что необходимым и достаточным условием независимости двух слу- чайных величин является равенство их двумерной характеристи- ческой функции произведению соответствующих одномерных характеристических функций: Мх, „ (Jvlt jv2) = Мх (jvj Му (jv2). Предположим теперь, что двумерная характеристическая функция может быть разложена в ряд Тейлора в некоторой области, содержащей внутри себя начало координат плоскости (t\, v2). Тогда Мх (/с^) и (р2) также можно разложить в 'ряд Тейлора, и, подставляя соответствующие разложения в приведенное выше выражение, мы получаем 2 2 п=0 k=0 = [2ги^][2£,’‘>тг] = n=0 fe=0 оо оо п=0 k=Q Так так эти ряды должны быть равны почленно, то, следова- тельно, если двумерная характеристическая функция может быть разложена в ряд Тейлора, то для независимости двух случайных величин х и у необходимо и достаточно, чтобы для всех целых положительных п и k смешанный момент этих случайных величин представлялся в виде произведения Е (xnyk) = Е (хп) Е (yk). (4.45) Так как линейная независимость гарантирует выполнение послед- него равенства только для Е (ху), то естественно, что линейно независимые случайные величины не обязательно являются неза-
4.5 Корреляционные функции 75 висимыми; соответствующий пример приведен в виде задачи 12 в конце настоящей главы. Однако, как мы увидим ниже, в частном случае, когда х и у имеют совместное гауссовское распределение, линейная независимость влечет за собой неза- висимость в статистическом смысле. 4.5. Корреляционные функции Пусть хх и х2 —случайные величины, задающие значения, кото- рые могут принимать выборочные функции x(t) данного вероят- ностного процесса соответственно в моменты времени t± и /2. Замечания, высказанные в предыдущем параграфе относительно корреляции, применимы к этой паре случайных величин так же, как и к любой другой паре. Однако, так как совместное рас- пределение случайных величин хг и х2 может меняться с измене- нием t± и t2, то -поэтому среднее Е (ххх2) может быть функцией обоих моментов времени. Для того чтобы указать на такую зависимость от времени, мы назовем это среднее корреляционной функцией случайного процесса и обозначим символом Rx t2). Таким образом, если рассматриваемый вероятностный процесс является действительным, то мы имеем Ях(*п Q = £(*A)- (4.46а) Для комплексного вероятностного процесса мы положим Rx(ti, №№), (4.466) где звездочка означает переход к комплексно сопряженной вели- чине. В применении к действительному вероятностному про- цессу равенство (4.466), конечно, переходит в (4.46а). Если Е (хгх2) является функцией моментов времени и t2, то это имеет место и для коэффициента корреляции. Мы будем называть коэффициент корреляции величин хг и х2 нормирован- ной корреляционной функцией данного вероятностного процесса и обозначим ее символом (tv t2). Для действительного случай- ного процесса Ox(G. (г)=-(Х1~о1а2(Ха~ОТ2)] (4-47) и, следовательно, *,) = , (4.48) где /п1 = Е(х1), tn2 = E(x2), сг1 = о(х1) и o2 = or(x2). Если вероятностный процесс стационарен, то совместное рас- пределение вероятностей случайных величин хх и х2 зависит не от самих значений /х и /2, а только от разности т = t1 —t2. Кор-
76 Гл. 4. Средние значения реляционная функция оказывается тогда функцией только от про- межутка времени т, и мы можем написать, что Rx (/, t - т) = Rx (т) = Е (xtx^r) (4.49) для всех t. Соответствующая нормированная корреляционная функция имеет вид (4.50) Ох где тх = т1 = т2 и сгх = о1 = а2, так как мы имеем дело со ста- ционарным вероятностным процессом. Некоторые вероятностные процессы не являются стационар- ными в узком смысле (т. е. их распределения вероятностей не являются инвариантными относительно сдвига начала отсчета времени), но тем не менее имеют корреляционные функций, удо- ‘ % влетворяющие соотношению (4.49), и их средние являются постоянными функциями времени. Такие вероятностные процес- сы называются стационарными в широком смыслех). Очевид- но, что вероятностный процесс, стационарный в узком смысле, является также стационарным в широком смысле. Рассмотрим теперь два не обязательно действительных вероят- ностных процесса с выборочными функциями соответственно x(t) } и y(t). Пусть каждый из этих процессов имеет соответственно i корреляционные функции Rx(tv t2) и Ry(tv t2). В дополнение к ним мы можем определить две взаимные корреляционные i функции*. | Ryx(t» = 1 } I Корреляция между значениями выборочных функций x(t) и y(t) ; в два различных момента времени задается тогда корреляцион- ной матрицей Р __ ^2) '*ху (^1» ^)1 ад^2)_г В общем случае потребуется корреляционная матрица порядка j N х N для того, чтобы задать корреляции в два момента времени * для совокупности W вероятностных процессов или в W моментов времени для совокупности двух процессов. * Некоторые общие свойства. Предположим, что вероятностные процессы с выборочными функциями x(t) и y(t) стационарны каждый по отдельности и совместно (по крайней мере в широком 1) Ср. Дуб (II, гл. II, § 8).
4.5. Корреляционные функции 77 смысле)1). Тогда, полагая t' = t — т, имеем Е (xtyt_x) - Е* (xrW') = £* (yt'Xt'+x). Так как оба процесса стационарны, эти средние инвариантны по •отношению к переносу начала отсчета времени. Следовательно, /?х„(т) = /?^(-т) (4.52) И /?я(т) = ££(-?). (4.53) Итак, корреляционная функция стационарного действительного вероятностного процесса является четной функцией своего аргу- мента. Взаимные корреляционные функции двух таких процессов могут быть и могут не быть четными. Предположим на время, что действительные вероятностные процессы с выборочными функциями x(t) и «/(/) не обязательно стационарны. Поскольку x(t) и //(^ — действительные функции времени и поскольку квадрат действительной функции неотрица- телен, 0<еГГ —± у* 71. L\. £/2(<4) ' J Раскрывая скобки, мы можем получить следующий результат: | RXy (/,, /2) | < £1/2 (х2) Е1/2 (//2) (4.54а) 34 аналогично .. |/?ж(/1>(а)|<£1/2(хП£1/2(х22). (4.546) Для стационарных вероятностных процессов эти неравенства при- нимают вид l^(T)|</?i/2(0)^/2(0) (4.55а) И |(т) | (0). (4.556) Пример 4.5.1. Чтобы лучше освоить понятие корреляционной функции, рассмотрим один специальный пример — пример «случайного телеграфного •сигнала», изображенного на фиг. 4.2. Значение этого сигнала в любой мо- мент времени с равной вероятностью равно нулю или единице, и скачки от •одного значения к другому происходят случайным и независимым образом. Следовательно, тх=0.р(х=0)4-1-Р(х=1) = />(х=1)=|. (4.56) х) Два вероятностных процесса х (i) и у (t) называются совместно ста- ционарными, если (ср. § 3.7J для любых моментов времени ..., tn совме- стное распр*еделение вероятностей 2п случайных величин ..., •••» не зависит от Аналогичным образом дается определение совокупности N совместно стационарных процессов. Из стационарности про- цессов х (t) и y(t)t вообще говоря, еще не вытекает их совместная стацио- нарность. —Прим. ред.
78 Гл. 4. Средние значения Пусть вероятность того, что в интервале времени длины Т происходит k скачков, задается распределением Пуассона х) Р(*,Т) = ^ехр(-аТ), (4.57) где а —среднее число скачков за единицу времени. Здесь xt = xt и x2 = xf_T—дискретные случайные величины, принимающие два возможных значения — нуль и единица. Следовательно, Rх (т) = (0 • 0) Р (>! = 0, х2 = 0)+(0.1) Р (х, = 0, х2 = 1)+ +(Ь0)Р(Х1 = 1, х2 = 0)-|-(1 • 1) Р (Xj = 1, х2 = 1) = Р(х1 = 1, х2=1). Фиг. 4.2. Случайный телеграфный сигнал. Вероятность того, что хх = 1 и х2 = 1, равна вероятности того, что хх = I и за время от t—х до t происходит четное количество скачков. Следова- тельно, Р (хя = 1, х2— 1) = Р (хх= 1, k четное) = Р (xt = 1) Р (k четное), ибо вероятность того, что k примет некоторое конкретное значение, не'зависит от значения хх. Поскольку хх принимает значения нуль и единица с равны- ми вероятностями, = четное). Используя распределение Пуассона для k, получаем /?х(г) оо _ехр( — а|т|) (а | x\)k “ 2 k\ fe=o (k четное) Этот ряд мы можем записать в следующем виде: vi (а | х |)fe __ 1 Г Vi (д | т |)fe , y (~~а I * l)fe ZJ k\ “ 2 L^J k\ kl k=0 /1=0 fc=0 (k четное) [exp (a | r 14-exp ( — a | т |). l) Вывод распределения Пуассона приведен в гл. 7, § 7.2.
4.6. Сходимость 79 Подставляя это выражение в предыдущую формулу для корреляционной функции, мы получаем , ^х(т)=-^-[1+ехр(—2а|т|)] (4.58) в качестве выражения для корреляционной функции случайного телеграфного сигнала. График этой функции приведен на фиг. 4.3. Фиг. 4.3. Корреляционная функция случайного телеграф- ного сигнала. Предельные значения корреляционной функции равны /?х(0)=£(*») = 1 (4 59) для т = 0 и Rx(a>)=-j = m« (4.60> для т=оо. Правое равенство в (4.60) вытекает из (4.56). 4.6. Сходимость Отвлечемся теперь от рассмотрения средних и выведем несколько результатов, которые нам понадобятся в дальнейшем. В этом параграфе мы выведем одно важное неравенство и затем рассмотрим вопрос о сходимости последовательности случайных величин. В следующем параграфе мы изучим интегралы от веро- ятностных процессов. Наконец, в § 4.8 мы вернемся к вопросу о средних и рассмотрим временные средние и их связь с мате- матическими ожиданиями. Неравенство Чебышева. Пусть у — произвольная случайная величина с плотностью распределения р(у), причем оо £(№)= \ \у\ър{у)Лу<ж. . -ОО Поскольку | у |2 и р (у) неотрицательны, Е(\У\2)> \У\2Р(У^У>
so Гл. 4. Средние значения где 8 — произвольное положительное число. Далее, поскольку jz/|2>82, в каждой точке области интегрирования £(И2)>е2 P^dy- |1/Г^6 Последний интеграл равен вероятности того, что | у | > 8. Решая неравенство относительно этой вероятности, получаем ^(1у1>8)<ЦР-. (4.61) В частности, если в качестве у взять разность между случайной величиной х и ее средним значением тх, мы получим неравен- ство Чебышева 2 Р(|х-хж|>8)<^. (4.62) Сходимость в среднем и по вероятности. В дальнейшем в ряде случаев нам будет важно знать, сходится ли последовательность случайных величин хп к случайной величине х, и если да, то в каком смысле. Мы определим здесь различные виды сходи- мости и рассмотрим некоторые их взаимосвязи. Пусть Е (| хп |2) < со при всех п и Е(|х|2)<оо. Последова- тельность случайных величин хп называется сходящейся в сред- нем к случайной величине х, если lim Е (| хп — х |2) = 0. (4.63) п-уоо В этом случае мы будем писать1) l.i.m. хп = х, (4.64) п->оо где «l.i.m.» означает предел в среднем. Если последовательность случайных величин хп такова, что для. произвольного е > 0 lim Р (| хп — х | > е) = 0, (4.65) П->0О то мы скажем, что последовательность случайных величин хп х) Запись «l.i.m.» происходит от английского термина «limit in the mean» — «предел в среднем».. [Иногда под сходимостью в среднем понимают сходимость вида lim Е(\ хп—х|) = 0, п->оо и тогда сходимость вида (4.63) называют для отличия сходимостью в средне- квадратичном. —Прим, ред. ]
4.6. Сходимость 81 сходится по вероятности к случайной величине х, и запишем plimxn = x. (4.66) п->оо Полагая в (4.61) у = х — хп, мы видим, что, в силу (4.61), (4.63) и. (4.65), последовательность случайных величин хп, сходящаяся к случайной величине х в среднем, сходится к х и по вероят- ности. Сходимость по распределению. Теперь можно показать, что если последовательность случайных величин хп сходится по вероят- ности к случайной величине х, то функции распределения слу- чайных величин хп сходятся к функции распределения случайной величины х во всех точках непрерывности этой последней функ- ции. В этом случае говорят, что последовательность случайных величин хп сходится по распределению к случайной величине х. Рассмотрим сначала функцию распределения Р(хп<Х); Собы- тие (хп<Х) может произойти при (х<Х-{--8) или при (х >Х-|-8). Поскольку последние два события несовместимы, Р(хп<Х) = Р (хп<Х, х<Х-Ье)-|-Р(хп<Х, x>X-t-s). Аналогично Р(х<Х + 8) = Р(х<Х + 8, хп<Х)-|-Р(х<Х-|-8, хп>Х). Вычитая второе равенство из первого, имеем Р(хп<Х)-Р(х<Х + 8) = = Р (х^<Х, Х>Х-|-8) — Р(хп >Х, Х<Х-|-8)< <Р(хп<Х, X > X + 8). Если (х„<Х) и (х> X + в), то (|хп —х|>8). Это единственная возможность, при которой может произойти событие (| хп—х| > 8); следовательно,- Р(хп<Х, х> X-t-8)<P(|xn-x| > 8). Таким образом, если положить 6n = P(|xn —х| > в), то P(xn<X)<P(x<X + 8) + fin. Аналогичным способом можно показать, что P(x<X-e)-Sn<P(xn<X), и, следовательно, Р(х<Х-8)-6п<Р(хп<Х)<Р(х<Х + 8) + 6п. Так как хп сходится по вероятности к х, то дп—>0 при п—» со. Следовательно, для каждого 8 > 0 P(x<X-8)<limP(x„<X)<P(x<X+e), . п->оо 6 Заказ № 57
82 Гл. 4. Средние значения откуда в свою очередь вытекает, что во всех точках непрерыв- ности функции Р(х<Х) limP(xn<X) = P(x<X), (4.67) П->оо что и требовалось доказать. 4.7. Интегралы от вероятностных процессов Мы будем часто пользоваться интегралами от вероятностных процессов. Они естественным образом возникают во многих вопросах; в гл. 9, например, мы увидим, что если какая-либо система преоб- разует входную функцию некоторым способом, включающим в себя интегрирование, и мы хотим узнать, что произойдет, когда на вход такой системы подается шумовой сигнал, нам приходится иметь дело с интегралами от вероятностных процессов. Совершенно ясно, что именно означает в таком примере интегрирование вероятностного процесса; любой конкретный шумовой сигнал на входе представляет собой выборочную функцию соответствую- щего вероятностного процесса, и интегрирование процесса здесь сводится к обычному интегрированию функций (в качестве таких функций надо брать выборочные функции процесса). Для каждой выборочной функции вероятностного процесса значение ее инте- грала есть некоторое число; однако для различных выборочных функций эти числа оказываются, вообще говоря, различными, и в целом для совокупности выборочных функций, образующих вероятностный процесс, интеграл принимает целую совокупность значений. Вероятность того, что эти значения лежат в определен- ной области, равна вероятности появления выборочной функции, интегрирование которой приводит к значению, лежащему в этой области. Таким образом, мы можем естественным образом при- писать значениям интеграла некоторый закон распределения вероят- ностей; иными словами, интеграл от вероятностного процесса можно рассматривать как случайную величину. В символической форме, если мы обозначим на время вероятностный процесс через x(s, t), где s — вероятностная переменная, принимающая значения в выборочном пространстве S, а / — время, мы можем написать ъ y(s) = ^x(s, t)dt. (4.68) а Для каждого s это выражение можно рассматривать как обычный интеграл (от выборочной функции). Так как s принимает значе- ния в пространстве S, то y(s) также является функцией, опреде- ленной на S, т. е. случайной величиной. Можно на самом деле показать, что при разумных предполо- жениях интеграл от вероятностного процесса можно рассматри-
4.7. Интегралы дт вероятностных процессов 83 вать как ансамбль интегралов от выборочных функций этого про- цесса, что приводит к интерпретации, которую мы только что обсудили. В частности х), при соответствующих условиях измери- мости и при ъ Е [| x(s, t)\]dt< оо (4.69) а все выборочные функции, кроме некоторой их совокупности, имею- щей вероятность нуль, абсолютно интегрируемы и, кроме того, ъ ' ь Е [ ^x(s, t)dt] = ^£[x(s, t)]dt. (4.70) a a - Пределы интегрирования а и b могут быть как конечными, так и бесконечными. Условие измеримости—это условие, которое можно практически всегда предполагать выполненным. Таким образом, мы имеем право рассматривать интегралы от выборочных функций вероятностного процесса всегда, когда среднее значение процесса интегрируемо. Мы можем, далее, с помощью равенства (4.70) вычислять средние значения, связанные с такими интегралами. Обычно опускают вероятностное переменное s и записывают равенство (4.68) просто в виде ь у — x(t)dt, (4.71) а а равенство (4.70) —в виде ь ь Е(у) = Е %(/)<//] = ^E(xt)dt. (4.72) а а Часто приходится рассматривать интегралы от вероятностного процесса с весом, задаваемым некоторой функцией. Пусть, например, ь у = (J h(f)x(t)dt, (4.73) а где h (/) — действительная или комплексная функция от t. Тогда в соответствии с приведенной выше теоремой такой интеграл существует с вероятностью единица, если ъ ь ' ^ЕЦй(0х(0|]#= 5 \h (01 £ [к(ОНdt < ОО. (4.74) а а 9 Ср. Дуб (II, теорема 2.7). 6*
84 Гл. 4. Средние значения Если весовая функция также является функцией некоторого параметра, скажем другого действительного переменного т, то ь у(г)= h(t, (4.75) а это равенство задает у(х) как некоторый вероятностный процесс. 4.8. Временные средние В § 4.1 мы определили математическое ожидание (статисти- ческое среднее) вероятностного процесса с выборочными функ- циями x(t) как некоторую функцию времени E(xt). Это среднее представляет собой среднее «поперек процесса»; при каждом /0 оно определяет среднее значение случайной величины, описываю- щей возможные значения, которые могут принимать выборочные функции при t = t0. Представляется естественным рассмотреть также средние «вдоль процесса», т. е. временные средние от отдель- ных выборочных функций, и исследовать связь между ними и статистическими средними. Так как в большинстве интересных для Нас случаев выборочные функции простираются во времени до бесконечности, то мы определим временное среднее {x(t)) от выборочной функции x(t) формулой +Т (*(/)) = lim \ x(t)dtf (4.76) если этот предел существует. Следует отметить, что среднее (х(/)> может не существовать (т. е. конечные средние могут не иметь предела) для всех или даже лишь для некоторых выборочных функций и что если даже временные средние существуют, то они могут быть различными для различных выборочных функций. Из-за этого, а также в силу того, что математическое ожидание нестационарного случайного процесса в общем случае не постоянно во времени, мы не можем надеяться, что в общем случае „времен- ное среднее равно статистическому среднему". Тем не менее в неко-. торых случаях естественно ожидать, что временные средние от почти всех выборочных функций должны существовать и быть равными постоянному статистическому среднему (математическому ожиданию). Рассмотрим, например, диод, работающий в неизменных во вре- мени условиях; пусть мы в течение длительного периода Т наблю- даем развиваемое им шумовое напряжение, и пусть для аппрокси- мации временного среднего этого напряжения мы рассматриваем К его значений, измеренных в моменты времени kT/fc, где 6=1,2, причем К очень велико, и, далее, берем среднее
4.8. Временные средние 85 по совокупности этих К значений; Предположим также, что мы в некоторый момент времени одновременно измеряем напряжение на К других диодах, совершенно идентичных первому и работаю- щих в таких же условиях, и усредняем результаты этих измере- ний. Если в первом случае Т/К достаточно велико, так что шумовые напряжения, измеряемые через интервалы времени' Т//С, слабо зависят одно от другого, то кажется, что нет никаких физических оснований для того, чтобы результат осреднения К последовательных измерений на одном диодё был выше или ниже, чем результат осреднения одновременных измерений на К диодах, и мы можем ожидать, что временное среднее и статистическое среднее будут равны друг другу (в пределе). Заметим, что в этом примере имеет место статистическая стационарность. Удовлетворительные результаты, касающиеся связи между временными и статистическими средними, получены на самом деле только для стационарных вероятностных процессов. Наиболее важным из таких результатов является эргодическая теорема1) Биркгофа, главное утверждение которой состоит в том, что для ста- ционарного вероятностного процесса среднее (х (/)) существует для всех выборочных функций, кроме некоторой совокупности, имею- щей вероятность нуль. Таким образом, говоря о временных сред- них от выборочных функций стационарных процессов, мы стоим на твердой почве. Временное среднее стационарного вероятностного процесса является случайной величиной, однако, как гласит далее эргодическая теорема, при выполнении определенного условия, называемого условием эргодичности, это среднее равно с вероят- ностью единица . постоянному математическому ожиданию Е (xt). Точное описание условия эргодичности выходит за рамки настоя- щей книги; суть его состоит в том, что в эргодическом процессе всякая выборочная функция должна в конечном итоге вести себя почти так же, как любая другая выборочная функция. Одно простое условие, влекущее за собой эргодичность для важного класса гауссовских вероятностных процессов с непрерывными корреляционными функциями, состоит в том, что2) 4-00 \R(x)\dx< + oo, (4.77) —оо где У? (т) — корреляционная функция рассматриваемого вероят- ностного процесса, и процесс предполагается стационарным с нуле- х) См.* Х-инчин (I, гл. 2 и 3), Дуб (И, гл. 10 и 11, §§ 1 и 2) или Лоэв (I, гл. 9). 2) Условие (4.77) можно вывести из результатов, содержащихся в книге Дуба (И, гл. 11, §§ 1 и 8). См. также Гренандер (I, § 5.10). (Определение гауссовского вероятностного процесса см. в § 8.4 настоящей книги.)
86 Гл. 4. Средние значения вым средним. В общем случае, однако, никакие условия, на- лагаемые только на 7?(т), не могут гарантировать эргодич- ность. Нужно отметить, что если вероятностный процесс эргодичен, то любая функция от этого процесса (удовлетворяющая опреде- ленным условиям измеримости) также задает эргодический вероят- ностный процесс и поэтому обладает равными друг другу вре- менными и статистическими средними. В частности, для эргоди- ческого случайного процесса с выборочными функциями х(/) имеем с вероятностью единица 4T £(х?)= lim \ Сходимость по вероятности. Не имея возможности доказать здесь эргодическую теорему, мы тем не менее можем доказать более слабое предложение, связывающее временные и статисти- ческие средние. Пусть х(/) —выборочная функция стационарного в широком смысле вероятностного процесса с конечным средним значением тх и конечной дисперсией or*. Среднее Ах (Т) от выбо- рочной функции за конечный интервал времени определяется равенством +т АХ{Т)=^ -т (4-78) Тогда, если предел существует, lim Лх(Т) = (х(0). (4.79) Т-+оо Если при фиксированном Т функция x(t) пробегает значения, соответствующие всевозможным выборочным функциям, то АХ(Т) задает случайную величину, которую мы также обозначим через АХ(Т). Ниже мы покажем, что если разность между корреляцион- ной функцией вероятностного процесса и квадратом его среднего значения абсолютно интегрируема, т. е. если Н-ОО | /?х(т)_ml\dt < ОО, (4.80) —со то при Т —> оо случайные величины Ах (Т) сходятся по вероят- ности к пгх. Прежде всего, взяв математические ожидания обеих частей ра- венства (4.78) и изменив порядок статистического усреднения и инте-
4.8. Временные средние 87 грирования, будем иметь £[ЛХ(Т)] = ^ E(xt)dt = mx, -т (4.81) поскольку E(xt) = mx. В силу того, что этот результат верен при любом Г, мы получаем, что E[{x(t))] = mX9 ’ (4.82) т. е. что математическое ожидание временного среднего выбороч- ной функции вероятностного процесса, стационарного в широком смысле, равно среднему значению этого процесса. Дисперсия Ах (Г) может теперь быть найдена следующим образом. Меняя порядок статистического усреднения и интегри- рования, получаем из (4.78) и (4.81) 4-т 4-т О2 [4 О =4^2- $ dtr'\ Е (xt'Xt)dt — mx = -т -т 4-Т +т = ^2 dt' [Rx(f -t)-m2x]dt, -Т -Т где Rx(t' ~ t)— корреляционная функция рассматриваемого вероят- ностного процесса. Полагая т = = f имеем О2[Л(Т)] = 4-т г-нг = 472- dt' [7?ж(т)-/п£]с1т.‘ -Т t'-T Интегрирование ведется здесь по области, занятой параллелограм- мом, изображенным на фиг. 4.4. Поскольку корреляционная функ- Фиг. 4.4. Область интегрирования. ция является четной функцией от т (и в нашем случае не зависит от Г), интеграл по всему параллелограмму равен просто удвоенному значению интеграла, взятого по части параллелограмма, лежащей вправо от оси t'. Следовательно, 2Т 4-т а2 [Л, (Т)] = (т) - ml} dr $ dt',, 0 —тут и поэтому . 2Т о2 [4 (Т)] = 1Д f 1 * Л [Ях (Т) _ dr. (4.83)
88 Гл. 4. Средние значения Так как IС 2Т 2Т О 2Т < |flx(r)-/n£|dr, О то из предположения, что оо |/?х(т) — mx\dx< ОО, (4.84) —оо следует, что Нт о2 [Ас СО] = 0. (4.85) Т-»оо Из последнего равенства и из результатов § 4.6 вытекает, что l.i.m. Ах(Т) = /пя (4.86) Т-*оо И р lim Ах(Г) = тх. (4.87) Т->оо Нужно отметить, что это условие абсолютной интегрируемости является достаточным условием для выполнения предельного соотношения (4.85), но может и не быть необходимым условием. Временная корреляционная функция. Определим временную корреляционную функцию J?x(r) выборочной функции вероятно- стного процесса формулой +Г J?x(r) = lim х (t + т) х* (t) dt. (4.88) Если вероятностный процесс эргодичен, то временная корреля- ционная функция его выборочных функций с вероятностью еди- ница равна статистической корреляционной функции этого про- цесса: •Ях(т) = /?х(т). (4.89) Аналогично мы можем определить временную взаимную корреля- ционную функцию J?xy(r) выборочных функций x(t) и y(t) двух вероятностных процессов: 1 V J?x„(r) = lim\ x(t + x)y* (t)dt. (4.90) Т->оо J
4.8. Временные средние 89 Если эти два процесса образуют совместно эргодический процесс ь то с вероятностью единица ^(t) = ^(T). (4.91} Пример 4.8.1. Определение (4.88) можно применять не только к выбороч- ным функциям вероятностного процесса, но и к произвольным функциям времени, если только предел, входящий в определение, существует. Пусть, например, x(t)— комплексная периодическая функция времени, такая, что ее ряд Фурье сходится. Тогда мы можем написать +оо *(0 = 2 ® (7«®о) ехр (;п<ооО, (4.92> п=—ОО где п принимает целые значения, <о0 —основная угловая частота функции х(/), коэффициенты а (/7г<оо)— комплексные константы, определяемые равен- ством х) 2л/соо a(/n®o)=^ х(/)ехр(—dt. (4.93) О Из (4.88) вытекает, что +т +оо <%х(т) = 11^27 J [ 2 «*(/«®о)ехр(—/п®00] X —Т п=—оо 4-00 х | 2 «(+M®o)exp(+J/n<oo(<4-T)]| dt. m=—оо Меняя порядок интегрирования и суммирования и используя тот факт, что 4-т llm от \ ехР I-J (n~m) “od dt = lim ц ,..т = Т-нэо J Т->оо т)ы$1 —Т __J 1 при П1 = п, ~~ [0 при /п #=и, получаем 4-00 six (т) = 2 । “ I2 ехр (+/ПО)ОТ). (4.94> п=—оо Если х (t) — действительная функция времени, то равенство (4.94) принимает вид 4-00 ^?ж(т) = а2(0)Н-2 2 | а (/п<оо) |2 cos (пгоот). (4.95) П=1 Итак, мы видим, что корреляционная функция периодической функции вре- мени сама является также периодической функцией с периодом, равным перио- ду исходной функции. Равенство (4.95), далее, показывает, что вся информа- ция об отйобйтельных фазах отдельных компонент х (t) не отражается в кор- х) См., например, Гиймен (II, гл. VII, § 7) или Черчилл (I, § 30). [См. также, Смирнов (I, т. II, разд. 161).—Прим, ред.]
*90 Гл. 4. Средние значения реляционной функции (поскольку эта функция выражается лишь через моде- ли коэффициентов а(/п(оо)). Таким образом, все периодические функции вре- мени, имеющие одинаковые модули коэффициентов Фурье и равные периоды, имеют одинаковые корреляционные функции, хотя фазы их коэффициентов Фурье (а значит, и действительное временное строение этих функций) могут •быть различными. Этот результат показывает, что соответствие между функ- циями от времени и корреляционными функциями не является взаимно одно- значным, так как оно переводит разные временные функции в одну и ту же корреляционную. 4.9. Задачи 1. Случайная величина х имеет экспоненциальную плотность распределе- ния вероятностей р (х) = а ехр ( — 2а | х |). а) Найти среднее и дисперсию случайной величины х. б) Найти п-и момент случайной величины х. 2. Доказать, что если х — ограниченная случайная величина, то n-й момент величины х существует при всех п. 3. Пусть х— случайная величина, а с — произвольная постоянная. Найти значение с, при котором Е [(х— с)2] достигает своего минимума. 4. Случайная величина у определяется как сумма N случайных вели- чин хп: N у = 2 П=1 Найти выражение для дисперсии у, если: а) случайные величины хп некоррелированы; б) коррелированы. Выразить результат через дисперсии о2 (хп)1). 5. Случайная величина х принимает только неотрицательные целые значе- ния, и вероятность того, что она принимает значение /п, задается распреде- лением Пуассона nz %mexp( — h) /Л ОА\ р (X = т) =-----. (4.96) а) Найти среднее и дисперсию случайной величины х. б) Найти характеристическую функцию величины х. 6. Дискретные случайные величины х и у имеют распределения Пуассона {как в задаче 5). Предполагая, что х и у независимы, найти распределение вероятностей их суммы z=x-\-y. 7. Пусть х — гауссовская случайная величина с плотностью ехр р(*) (х-а)* 262 У2яЬ (4-97) Эту плотность называют также плотностью нормального распределения вероятностей. а) Вывести выражение для характеристической функции величины х. б) Используя результат пункта а), получить выражения для среднего я для стандартного отклонения величины х и выразить через них р (х). г) Это, конечно, можно сделать лишь в предположении а).—Прим. ред.
4.9. Задачи 91 в) Используя результаты двух предыдущих пунктов, получить выражение .для n-го момента величины х в том частном случае, когда х имеет нулевое •среднее. 8. Пусть х и (/ — независимые гауссовские случайные величины. а) Вывести выражение для плотности совместного распределения вероят- ностей р (х, у). б) Вывести выражение для совместной характеристической функции вели- •чин х и у. 9. Пусть (/ — случайная величина с плотностью распределения О при у < О, где и —константа, а Г — гамма-функция. Обычно такая плотность записывает- ся как функция от X, где */ = %2, и называется плотностью распределения X2 .с п степенями свободы. а) Найти среднее значение величины у. б) Найти характеристическую функцию величины у. 10. Пусть х и у — независимые случайные величины, имеющие плотности распределения X2. Пусть п—число степеней свободы для х, а т — число сте- пеней свободы для у. Вывести выражение для плотности распределения вероятностей их суммы z = x-\-y. 11. Пусть х— гауссовская случайная величина с равным нулю средним значением и равным единице стандартным отклонением. Пусть, далее, хп— результаты W независимых измерений величины х. Образуем новую случайную величину (/, характеризующую этот составной эксперимент и определяемую равенством N у— 2 хп- п=1 Вывести выражение для плотности распределения величины у. 12. Пусть z—случайная величина, такая, что при 0 < z<C 2л, 0 при остальных z, и пусть случайные величины х и у определяются выражениями x=rsinz и (/ = COSZ. Показать, что случайные величины х и у линейно независимы, но статисти- чески не независимы. 13. Пусть случайная величина у определена как сумма N независимых случайных величин хп: N у= 2 П=1 где каждая из случайных величин хп принимает два возможных значения: единица с вероятностью р и нуль с вероятностью q = 1—р. а) Найти характеристическую функцию величин хп. б) Найти характеристическую функцию величины у. в) Найти распределение вероятностей величины у.
92 Гл. 4. Средние значения 14. Пусть х и у—дискретные случайные величины, принимающие каждая два равновероятных значения: +1 и —1. а) Показать, что их совместные вероятности симметричны, т. е. что Р(х = 1, 1) = Р (х= — 1. */=-!) и Р(х = 1, у= — 1)=Р(х= — 1, у = \). б) Вывести выражения для совместных вероятностей через коэффициент корреляции Qxy величин х и у. 15. Рассмотрим три стационарных' вероятностных процесса с выборочными функциями соответственно x(t), y(t) и z(t). Найти выражение для^корреля- ционной функции суммы этих трех процессов в предположении, что а) процессы коррелированы; б) процессы попарно некоррелированы1); в) процессы попарно некоррелированы и имеют равные нулю средние^зна- чения. Фиг. 4.5. Периодический прямоугольный сигнал.. 16. Пусть х (t) — периодическая функция времени, изображенная на фиг. 4.5. Найти выражение для корреляционной функции х (t). 17. Рассмотрим ансамбль импульсных выборочных функций, определяемых равенством х(0=Г«п при n<f<n+l, ' [0 при п— где п может принимать только нечетные целые значения, а коэффициенты ап — независимые случайные величины, принимающие одно из двух равно- вероятных значений 1 и 0. Найти график /+т)>. 18. Повторить задачу 17 для ансамбля, в котором коэффициенты ап—неза- висимые случайные величины, принимающие одно из двух равновероятных значений -|~1 и —1. 19. Пусть х (t)—ограниченная периодическая функция времени с основ- ным периодом То секунд. Доказать, что +Т То lim х (0 dt = ( x(t) dt. Т->оо J 1 о J -г о х) Два процесса называются некоррелированными, если их взаимная корреляционная функция тождественно равна нулю. — Прим. ред.
4.9. Задачи 93 20. Рассмотрим вероятностный процесс, задаваемый выборочными функ- циями y(t) = acos (/+<р), где а и <р — независимые случайные р(ф)= 1 2л 0 величины, причем при 0< <р < 2л, при остальных <р. а) Найти корреляционную функцию этого процесса. б) Показать, что Е (yt) = <y(t)). 21. Рассмотрим вероятностный процесс, задаваемый выборочными функ- циями Х(/) = Г/2(0, где выборочные функции у (t) определены в задаче 20. а) Показать, что если а не равно с вероятностью единица константе, то _ Е (х() #=<х(0>. б) Показать, что для этого вероятностного процесса не выполняется условие интегрируемости (4.80). 22. Рассмотрим постоянный во времени вероятностный процесс, опреде- ляемый выборочными функциями х (t) = a9 где а — случайная величина, принимающая два возможных значения 4-1 и —1с вероятностями соответственно р и q. а) Найти корреляционную функцию этого процесса. б) Непосредственным вычислением показать, что £(xz)^<x(0>. в) Показать, что для этого вероятностного процесса не выполняется условие интегрируемости (4.80). 23. Рассмотрим стационарный ,(в узком смысле) вероятностный процесс с корреляционной функцией Rx(x). Предполагая, что написанные ниже производные существуют, показать, что dx \ dx J 24. Пусть х (t) и y(t)—периодические функции времени с несоизмери- мыми основными периодами и равными нулю средними значениями. Показать, что их временная взаимная корреляционная функция равна нулю. 25. Пусть x{t) n y(t) — различные периодические функции времени с оди- наковыми основными периодами. Показать, что их временная взаимная кор- реляционная функция содержит только те гармоники, которые присутствуют как в x(t), так и в y(t).
Глава 5 ВЫБОР 5.1. Введение До сих пор мы предполагали, что распределения вероятностей рассматриваемых случайных величин или вероятностных процес- сов известны априори и что задача состоит в вычислении раз- личных функций от этих распределений (моментов, характеристи- ческих функций и т. п.). На практике, однако, мы часто встре- чаемся с иной задачей. Выполнив ряд измерений случайной, величины или вероятностного процесса с неизвестными распреде- лениями вероятностей, мы ставим вопрос о возможности опреде- лить те или иные статистические свойства случайной величины или вероятностного процесса по результатам измерений. Например,, иногда интересно узнать, можем ли мы определить на основе- измерений среднее значение или дисперсию. Рассмотрим теперь результаты W повторений основного экспе- римента, определяющего случайную величину, или, вместо это- го, рассмотрим результаты измерений выборочной функции дан- ного вероятностного процесса в W различных моментов времени. Совокупность полученных таким образом ЛГ выборочных значений (или, как говорят, выборок) определяет результат данного состав- ного эксперимента и, следовательно, определяет некоторую выбо- рочную точку в AZ-мерном выборочном пространстве, относящемся к данному эксперименту. Поскольку данная совокупность резуль- татов определяет лишь одну точку в совместном выборочном пространстве, у нас нет оснований ожидать, что она может пол- ностью определить статистические свойства рассматриваемой слу- чайной величины или вероятностного процесса. В лучшем случае мы можем надеяться получить некоторую оценку этих свойств. Основная задача при этом сводится к нахождению функции от результатов измерения или, как ее называют, статистики, кото- рая позволила бы нам получить хорошую оценку отдельных стати- стических свойств, нас интересующих. В настоящей главе мы изложим некоторые из принципов теории выбора; мы сделаем это, рассматривая задачу об оценке среднего значения случайной величины или вероятностного процесса и, далее, изучая соотношение между относительной частотой и вероятностью. Более подробное изложение теории выбора читатель может найти в литературе по математической статистике1). х) См., например, Крамер (I, ч. III). [См. также Дунин-Барковский и Смир- нов (I).— Прим, ред.]
5.3. Сходимость выборочных средних 96 5.2. Выборочное среднее Так как задача оценки среднего значения случайной величины по существу идентична с задачей оценки среднего значения ста- ционарного в широком смысле вероятностного процесса, то мы будем рассматривать одновременно обе эти задачи. Пусть х — действительная случайная величина с конечным средним значе- нием пгх и конечной дисперсией а£, а х (t) — выборочные функции стационарного в широком смысле действительного вероятностного процесса, имеющая те же конечные средние значения тх и диспер- сию Ох- Предположим теперь, что мы выполнили N измерений случайной величины или выборочной функции вероятностного процесса. Пусть, далее, х(п), где п=1,2, ..., N, есть значение n-й выборки случайной величины, пусть х(tn) — значение выбороч- ной функции в момент t = tn, и пусть хп—случайная величина, описывающая возможные значения, которые может принимать х(п) или x(tn). Заметим, что хп имеет те же статистические свойства, что и х или xt. В частности, для всех п Е(хп) = тх и o2(xn) = ol . (5.1) В § 4.1 мы указали, что среднее значение случайной величины является обобщением понятия арифметического среднего выбороч- ной функции. Имея это в виду, рассмотрим выборочное среднее оМ, определяемое как арифметическое среднее М случайных величин хп> N М — -fi- 2 (5*2) п=1 в качестве статистики, которая будет' использована для оценки искомого среднего. Математическое ожидание выборочного сред- него равно N Е(хп) = тх, (5.3) П=1 т. е. математическое ожидание выборочного среднего равно сред- нему значению изучаемой случайной величины (или вероятностного процесса). Статистику, для которой ее математическое ожидание равно оцениваемой величине, называют несмещенной оценкой; выборочное среднее представляет собой, таким образом, несме- щенную оценку для среднего значения. , , 5.3. Сходимость выборочных средних Выборочное среднее является не единственной несмещенной оценкой искомого среднего; случайная величина хп, представляю- щая собой одну-единственную выборку, также является в соот-
*96 Гл. 5. Выбор ветствии с равенством (5.1) несмещенной оценкой, и можно при- вести другие примеры. Ответ на вопрос о том, хороша ли неко- торая данная статистика, зависит главным образом от того, сколь вероятно, что при подстановке в нее выборки получаемое выбо- рочное значение этой статистики будет близко к истинному зна- чению рассматриваемого статистического параметра. Одна стати- стика лучше другой, если более вероятно, что выборочное значение первой статистики будет ближе к требуемому значению. В соот- ветствии с этим мы будем теперь изучать свойства сходимости выборочных средних. Из равенств (5.2) и (5.3) следует, что дисперсия выборочного среднего равна °2М) = [-jjr2 2 Е (vB)] - n=l m=l где мы поменяли местами операции статистического усреднения и суммирования. Несколько более удобная форма того же выра- жения имеет вид N N *2М0 = -^2 2 [Е(хпхт)-т*х]. (5.4) п=1 пг=1 Для того чтобы двигаться дальше, нам нужно иметь данные о корреляции между n-й и /n-й выборками, т. е. о Е (хпх™). При выборе значений вероятностного процесса эта корреляция равна просто корреляционной функции данного процесса: Е Rx (^п | Однако при выборе значений случайной величины одни лишь стати- ] стические свойства заданной случайной величины не дают нам требуемой информации; в этом случае корреляцию можно полу- j чить тем или иным путем, исходя из наших сведений о методе g выбора. । Для того чтобы увидеть эффект корреляции между отдель- I ными выборками, предположим сначала выборки коррелирован- I ными между собой столь сильно, что приближенно Е(хпхт) = Е(хй) (5,5) для всех значений п и т. В этом случае равенство (5.4) сводится приближенно к N N О2(^) = ^2 2 = <5’6) ‘ 71=1 7П=1 Итак, если .выборки сильно коррелированы, то независимо от < числа выборок дисперсия выборочного среднего приблизительно
5.3. Сходимость выборочных средних 97 равна дисперсии рассматриваемой случайной величины (или веро- ятностного процесса). В этом случае единственное измерение дает столь же хорошую (или плохую) оценку требуемого среднего, как и любое другое количество измерений. Окажется ли оценка хорошей или нет, зависит здесь исключительно от свойств рас- сматриваемой случайной величины (или вероятностного процесса). Некоррелированные выборки. Предположим теперь, что отдель- ные выборки не коррелированы друг с другом. В этом случае Е (хпхт) = Е (*n) Е (хт) - тх При П ф Ш (5.7) и все слагаемые двойной суммы в (5.4), за исключением тех, для которых п = т, обращаются в нуль. Слагаемых, для которых п — т, имеется W, и для каждого из них выражение в квадрат- ных скобках равно просто о|. Таким образом, для некоррелиро- ванных выборок равенство (5.4) принимает вид ’ (Г? О2И) = /. (5.8) Некоррелированные выборки получаются, в частности, при после- довательном повторении независимых экспериментов. Если мы теперь будем неограниченно увеличивать количество измерений, то из равенства (5.8) будет следовать, что lim o2(g#) = 0, (5.9) 2V->oo так что, согласно результатам § 4.6, выборочное среднее сходится в среднем, а значит и по вероятности, к искомому среднему: l.i.m. <2# = /и* (5.10а) N->co И р lim <^ = /nx. (5.106) N->oo Подобные оценки называют состоятельными. В соответствии с равенствами (5.10), являющимися одной из форм закона больших чисел, при неограниченном увеличении коли- чества измерений выборочное среднее становится все лучшей и лучшей оценкой искомого среднего. Под этим мы подразумеваем, строго говоря, что, как гласит равенство (5.106), вероятность того, что выборочное среднее отличается от искомого среднего более чем на некоторое фиксированное число, становится все меньше и меньше с увеличением количества экспериментов.’Вме- сте с тем^ вполне возможно, что выборочное среднее, полученное по некоторой частной последовательности измерений, при AZ—> оо отличается от среднего более чем на некоторое фиксированное число. 7 Заказ № 57
98 Гл. 5, Выбор Оценку ожидаемой ошибки измерений при конечном значе- нии N можно получить, исходя из неравенства Чебышева (4.62) Р\\<Ж-М\> . Используя полученные выше выражения для математического ожи- дания и дисперсии выборочного среднего, приводим последнее неравенство к виду (J2 Р[\<М-тх\>&\<^. (5.11) Этот результат не зависит от конкретного распределения вероят- ностей данной случайной величины или вероятностного процесса и потому может дать для ожидаемой ошибки лишь очень грубую оценку сверху. Периодический выбор. Для вероятностных процессов наиболь- ший практический интерес представляет* собой тот случай, когда выбор делается периодически во времени. При этом N измерений равномерно размещены в интервале длины Т с периодом выбора tQ = T/N. Если для удобства считать, что интервал измерения начинается в момент / = 0, то n-й выбор происходит в момент tn = ntQi и равенство (5.4) принимает вид N N о* S 2 {Ях [(/и - П) /0] - ml}. n=l т=1 Рассмотрим отдельные слагаемые двойной суммы. Удобно пред- ставить себе их расположенными в виде квадратной таблицы, содержащей NxN элементов с индексами (и, т). Тогда нетрудно заметить следующее: во-первых, все расположенные на главной диагонали элементы с индексами (и, и) равны между собой и равны or*. Далее, элемент с индексом (и, /и) равен элементу с ин- дексом (/л, п), так как [(/п - п) /0] = Rx [(п - т) 4], т. е. всякий элемент над главной диагональю имеет равный себе под диагональю. Далее, если мы имеем дело со стационарным вероятностным процессом, то элемент с индексами (и, т) равен элементу с индексами (п + /, tn + j) и, следовательно, все N — k элементов k-й диагонали над главной равны между собой. Поэтому при периодическом выборе значений стационарного в широком смысле вероятностного процесса дисперсия выборочного среднего равна 2 N“1 , , . = (5-12) fc=l4
5.4. Центральная предельная теорема 99 Рассмотрим теперь влияние неограниченного • увеличения числа измерений при неизменной общей длительности интервала изме- рения. Для этого удобно переписать выражение (5.12) в виде 2 лг-1 +1 2 (1 - т) k=i 4 Если теперь Т остается постоянным, a Nоо (т. е. »0) таким образом, что £т0 = т, то сумма переходит в интеграл, а слагаемое cfc/N обращается в нуль. Следовательно, т Пт о2 И) = 4 (1 - т) W ~ dx' (5-13> и мы видим, что дисперсия выборочного 'среднего не будет. вообще говоря, стремиться к нулю при М—>оо, если только интер- вал Т не возрастает неограниченно. Так как при постоянном Т и 2V —» оо выборочное среднее стремится к временному среднему за конечный интервал времени, т. е. так как т lim = -±- [ х (t)dt. N-+oo 1 J то не вызывает удивления то обстоятельство, что выражение (5.13) совпадает с результатом, полученным ранее при изучении стати- стических свойств временных средних [см. (4.83)]. 5.4. Центральная предельная теорема Если рассматривается случайная величина или вероятностный процесс с конечными средним значением и дисперсией, причем выборки независимы, то распределение вероятностей выбороч- ного среднего при неограниченном увеличении числа независимых выборок стремится к гауссовскому, каково бы ни было распре- деление вероятностей измеряемой величины или процесса. Этот результат известен как случай равных слагаемых в центральной предельной теореме. Мы докажем сейчас этот результат, используя то обстоятель- ство, что характеристическая функция суммы независимых слу- чайных величин равна произведению их характеристических функ- ций. Пусть у — нормированное выборочное среднее • ‘ * = (5.14) В силу независимости выборок, из равенства (5.8) и определения 7*
100 Гл. 5. Выбор выборочного среднего следует, что N (дГ 2 N ______п=1__________ 1 VI Г хп тх \ У ~ Ox/N1^ ~ N1'2 "Д ах )' Введем, далее, нормированную случайную величину Ъ,п = х^~тх; ~Х тогда N И—^Г.1 S- <5J5> n=l Характеристическая функция величины у равна, следовательно, Му (jv) = Е [ехр ,2 in)] -Е [ П ехр (. Выборки, а значит, и нормированные выборки представляют собой независимые случайные величины, имеющие одинаковые распре- деления вероятностей (те же, что и у измеряемой случайной ве- личины или вероятностного процесса); поэтому из (4.33) следует, что (5.16) где В = (х —mx)/crx. Выясним теперь поведение характеристической функции нор- мированного выборочного среднего при неограниченном увеличении числа выборок. С этой целью разложим характеристическую функцию величины | по формуле Тейлора с остаточным членом2). Так как среднее значение £ равно нулю, а дисперсия—единице, то ' <5Л7> здесь остаточный член A(v/N^2) определяется формулой8) где 7И| —вторая производная характеристической функции вели- чины g и 0<6< 1. Существование второго момента величины g г) См. Курант (I, гл. VI, § 2). [См. также Смирнов (I, т. I, разд. Прим, ред.] 126).- а) Ср. Курант (I, гл. VI, § 2, п. 3).
5.4. Центральная предельная теорема 101 влечет за собой существование непрерывной второй производной2) от следовательно, = (5-19) (v/Nx/2)->0 4 z 4 iV z и, в частности, это верно при »оо и фиксированном и. Лога- рифмируя My(jv) и используя (5.17), получаем Логарифм в правой части последнего выражения может быть представлен в виде log(l+z) = 2 + B(2), (5.20) где остаточный член2) в(г)=~5ьП^- (5.21) о Таким образом, мы получаем , АЛ f X о2 . » А . МО Г— o2+2NA -1 log Му (jv) = - у + NA J + NB [---------------------J . (5.22) Из (5.19) следует, что при N —> оо второе слагаемое в правой части (5.22) обращается в нуль. Третье слагаемое при ТУ—> со также обращается в нуль, ибо, согласно (5.21), №|<± ( tdt = ~->0 при z —> 0. I 2Г I 2 • J 2 Г Таким образом, 7)2 lim logMw(p) = - у, N->oo и, следовательно, Пт Му (jv)= exp — у) . (5.23) Правая часть этого выражения равна характеристической функ- ции гауссовской случайной величины с нулевым средним и дис- персией единица. Из непрерывности этой предельной функции при 4 * х) Ср. Крамер (I, § 10.1). [См. также Гнеденко (I, § 33). — Прим, ред.] 2) Ср. Курант (I, ч. I, гл. VI, § 1). [См. также Смирнов (I, т. II, разд. 196 и 197. — Прим, ред.]
102 Гл. 5. Выбор t/==0 следует, что1) 2™рМ-^ехр(-£У)' (5-24) Итак, если отдельные выборки независимы и имеют конечное среднее значение и- конечную дисперсию, то предельное распре- деление вероятностей выборочного среднего является гауссовским. Дополнительные замечания. Можно показать, что тенденция распределения вероятностей суммы случайных величин становиться гауссовским, когда неограниченно увеличивается число слагаемых, сохраняется и при существенно более слабых предположениях2 3 4). Так, например, можно показать, что если слагаемые хп, имеющие средние тп и дисперсии сгД, независимы и если N 2 Е (I хп—тп |2+6) 1 im n=1 --------= 0, (5.25) (2<*)*+в/2 n=l где б > 0, то нормированная сумма этих случайных величин имеет в пределе при N —>оо гауссовское распределение вероятностей. Этот результат известен как теорема Ляпунова*). При некоторых условиях можно' отказаться даже от требования независимости слагаемых, и тем не менее предельное распределение для суммы будет оставаться гауссовским5). Вместе с тем нецбходимо под- черкнуть, что предельное распределение суммы случайных величин не всегда является гауссовским, и в каждом отдельном случае вопрос о применимости подобной теоремы должен быть исследо- ван особо. Все сказанное выше относится к предельному поведению при Л/—>оо. При конечном, пусть даже очень большом, N гауссов- ское распределение может давать плохое приближение для хво- 2) См., например, Крамер (I, § 10.4). [См. также Гнеденко (I, § 37).— Прим, ред.] а) Строго говоря, из проведенных рассуждений следует лишь сходимость функций распределения, а не плотностей распределений вероятностей. Дока- зательство равенства (5.24), называемого локальной центральной предельной теоремой, требует дополнительных построений. [См. Гнеденко (I, § 42).— Прим, ред.] 3) См., например, Гнеденко и Колмогоров (I, гл. 4). [См. также Гнеденко (I, § 48).—Прим, ред.] 4) См. Успенский (I, гл. 14, §§ 2, 3 и 4) или Лоэв (I, § 20). [См. также Гнеденко (I, § 41).—Прим, ред.] 5) См., например, Лоэв (I, § 28), Успенский (I, гл. 14, § 8) или Леви (I, гл. 8).
5.5. Относительная частота 103 стов1) распределения вероятностей суммы, даже в тех случаях, когда предельное распределение действительно является гауссов- ским2). Это, например, имеет место для суммы независимых слу- чайных величин, имеющих распределение Пуассона, поскольку распределение вероятностей такой суммы при любом N также является пуассоновским. 5.5» Относительная частота - Важным частным случаем выбора является тот случай, когда измеряемая случайная величина или вероятностный процесс могут принимать значения только нуль и единица с вероятностями соот- ветственно р и 1—р. Рассмотрим, например, определение отно- сительной частоты появления некоторого заданного события (А). Мы здесь определим случайную величину хп как величину, рав- ную единице, если при n-й выборке событие (А) произошло, и нулю, если оно не произошло. Из определения выборочного сред- него [равенство (5.2)] следует, что , (5.26) где п (А) — случайная величина, задающая число возникновений события (А) в N выборках. При этом выборочное среднее является случайной величиной, соответствующей относительной частоте появления события (А) в W выборках. Пусть р — вероятность появления события (А); тогда Е(хп) = р (5.27) и, следовательно, согласно (5.3), Е (оМ) = р. (5.28) Итак, математическое ожидание относительной частоты появ- ления некоторого события равно вероятности появления этого события. Некоррелированные выборки. Так как - о2 (xn) = Е (4) - £2 (хп) -р-р2, (5.29) то из равенства (5.8) следует, что если отдельные выборки не- коррелированы, то дисперсия относительной частоты равна а2И) = ^^-). (5.30) х) Под хвостами распределения вероятностей автор подразумевает область, где значения функции распределения близки к 0 или 1.—Прим. ред. 2) Этот вопрос подробно рассматривал Фрай (I, §§_82 и 89).
104 Гл. 5. Выбор Оценку этой дисперсии сверху можно найти, продифференцировав дисперсию по р, приравняв производную нулю и решив получаю- щееся соотношение относительно р. Проделав это, нетрудно уви- деть, что дисперсия принимает максимальное значение при р = 1/2 и это значение а2И)тах = ^. (5.31) Если мы теперь подставим полученные результаты в Чебышева (5.11), то получим 4|Т’- р|>е] pU-p)_ _1_ Уе2 4We2 • неравенство (5.32) При 7V—>оо дисперсия относительной частоты стремится к нулю; поэтому из результатов § 4.6 следует, что относительная частота появления события при неограниченном увеличении числа некор- релированных выборок сходится по .вероятности к вероятности появления этого события. Этот результат, известный как теорема Бернулли, по существу оправдывает развитый в гл. 2 частотный подход к теории вероятностей. Независимые выборки. Нахождение распределения вероятно- стей относительной частоты становится особенно простым, если отдельные выборки независимы. При этом ситуация оказывается в точности такой же, как и при подбрасываний монеты, рассмо- тренном в примере 2.6.2, и последовательные операции выбора образуют испытания Бернулли. Рассуждая так же, как и при выводе равенства (2.21), можно показать, что распределение вероятностей для относительной частоты является биномиальным. Итак, при независимых выборках Р [^ = -^]=С п)рП(1“/’)ЛГ_"- (5-33) 5.6. Задачи 1. Дискретная случайная величина х имеет распределение вероятностей Пуассона Хтехр( — X) л 1 о Р(х=т) =--------------> т — 0> 1, 2,... . 4 7 ml Пусть M — выборочное среднее N независимых выборок. а) Определить среднее и дисперсию выборочного среднего. б) Найти распределение вероятностей выборочного среднего. в) Построить графики для результатов пункта б) при N = 3 и при N =10. 2. Случайная величина х имеет плотность распределения Коши: , ч 1 1 Л 1+х‘ • Пусть — выборочное среднее, задаваемое М независимыми выборками
5.6. Задачи 105» а) Найти среднее и дисперсию выборочного среднего. б) Найти плотность распределения выборочного среднего. в) Как этот случай согласуется с рассмотрениями §§ 5.3 и 5.4? 3. Рассмотрим стационарный вероятностный процесс, задаваемый ансамблем выборочных функций x(t). Пусть корреляционная функция этого процесса» равна г. /ч [mx+oxfl—При 0<|тКт0, I т* ПРИ^ТО<|Т|. Предположим, что выборочное среднее этого процесса задается интегриро* ванием выборочной функции по интервалу измерения длины Т^т0: т ©< = у х (t) dt. о Найти дисперсию выборочного среднего. 4. Вероятность того, что измеренная относительная частота п (А)/М более чем на е отличается от соответствующей ей вероятности Р (А), дается неравенством (5.32). а) Найти как функцию от Р (А) оценку для числа измерений N, нуж- ного для того, чтобы удовлетворялось неравенство ' р [ |27Г~'₽(Л)|>аР(Л) б) Построить график для числа N, найденного в пункте а), как функции- от Р (А) при <х=0,05 и PN==0,l для значений Р (А) в интервале (0,01; 0,99)^ 51 ). Показать, что биномиальное распределение Р («) = (") при N —> оо и постоянном р стремится к гауссовскому распределению /2ло(л) еХ₽ L 2o2(n) J’ где тп~Е(п). 61). Показать, что биномиальное распределение, приведенное в задаче 5,. стремится к пуассоновскому распределению если 7V —> оо и р —» 0, но Np остается постоянным. 7!). Показать, что при тп —» оо пуассоновское распределение, приведен- ное в задаче 6, стремится к гауссовскому распределению, приведенному в задаче 5. г) См. Феллер (I, гл. 6 и 7) и Фрай (I, гл. 8). [См. также Гнеденко» (I. § 13 и $ 15). -Прим, ред.]
Глава 6 СПЕКТРАЛЬНЫЙ АНАЛИЗ 6.1. Введение Разложение заданного электрического сигнала на составляющие различных частот с помощью рядов или* преобразований Фурье является столь полезной техникой при изучении электрических цепей, что естественно встает вопрос о возможности применения аналогичных методов к шумовым сигналам. Ответ на этот вопрос является в основном .положительным; шумовые сигналы описы- ваются вероятностными процессами, и для стационарных (или ста- ционарных в широком смысле) процессов развита вполне удовле- творительная теория их анализа методом Фурье. В настоящей главе мы рассмотрим некоторые разделы этой теории. Ряды Фурье. Предполагается, что читатель имеет некоторое знакомство с рядами и интегралами Фурье1), поэтому мы напомним здесь и приведем для справок лишь немногие основные факты. Если % (^) — действительная или комплексная периодическая функ- ция действительного переменного t (т. е. времени, если предста- влять себе х (t) как сигнал) и если х (/) абсолютно интегрируема в пределах периода Т, т. е. если т ^|х(0|^<оо, (6.1) о то с x(t) связан ее ряд Фурье х(0= 2 % = (6-2) П=—ОО где коэффициенты ап называются коэффициентами Фурье и опре- деляются формулой т ' an = -F$ x^e-^dt. (6.3) О х) См., например Черчилл (I, гл. Ill, IV и V), Гиймен (II, гл. VII) или Титчмарш (I, гл. 13). [См. также Смирнов (1,.т. II, гл. VI).—Прим. ред]. J
6.1. Введение 107 При соблюдении некоторых условий, налагаемых на х(/), сумма в правой части (6.2) сходится в том или ином смысле к x(t). В частности, если x(t) имеет в интервале ограниченную вариацию1), то эта сумма сходится к x(t) всюду, где x(t) непре- рывна. Так как требование ограниченности вариации, грубо говоря, сводится к тому, что полное возрастание и полное убывание функ- ции x(t) в интервале должны быть конечны, то это условие на x(t) обычно удовлетворяется в практических задачах. Другим возможным условием является интегрируемость в квадрате функции x(t) в интервале 0<£<Т, т. е. выполнение неравенства т | x(t) ^dt < оо. о При этом сумма (6.2) сходится к x(f) в том смысле, что lim N~+oo Т N J |х(0- 2 ane^\*dt = O. о n——N (6-4) (6-5) Этот вид сходимости, означающий стремление к нулю средне- квадратичной ошибки, называется сходимостью в среднем2)'. принято писать N x(t) = \.i.m У апе^. (6.6) N~*°° n=-N Так как условие (6.4) означает, что энергия за один период функции x(t) конечна, то мы почти всегда имеем дело со слу- чаями, где оно выполняется. Впредь мы будем предполагать, если не оговорено противное, что все вводимые нами функции удовлетворяют условию (6.4) для любого конечного Т, независимо от того, является ли Т периодом периодической функции или нет. В дальнейшем нам будет удобно писать просто х (t) = х (t), вместо того чтобы говорить, что x(t) равно пределу в среднем, указан- ному в (6.6). г) Титчмарш (I, § 13.63). [См. также Фихтенгольц (I, т. III, п. 660).— Прим, ред.] 2) Мы применяли термин «сходимость в среднем» в § 4.6 в связи со схо- димостью случайных величин, рассматриваемых как функции в выборочном пространстве. -Заметим, что данное здесь определение совпадает с введенным ранее с той лишь разницей, что усреднение или интегрирование производится здесь по действительному переменному, тогда как там оно производилось о переменному, принимающему значения в выборочном пространстве. Исполь- вание этого термина является в обоих случаях общепринятым.
108 Гл. 6. Спектральный анализ Выполнение условия (6.4) влечет за собой теорему Парсеваля1), которая гласит, что средняя энергия сигнала равна сумме средних энергий всех частотных компонент, т. е. оо т 2 К1а=т- 5 1^(01^- (6-7) —оо 0 Преобразования Фурье. Преобразование Фурье x(t) от функ- ции X (f) определяется формулой x(t)= Xffie^df, co = 2nf, (6.8) —оо если этот интеграл существует в каком-либо смысле. Обратное преобразование Фурье от х (t) определяется формулой - X(f) = x(t)e-^dt, a = (6.9) —ОО если она имеет смысл. Одним из основных результатов теории преобразований Фурье является теорема Планшереля2), которая гласит, что если функция X (f) интегрируема в квадрате на всей оси — оо < f < оо, т. е. если оо \\X(f)\*df<a>, (6.10) —оо то существует функция x(t), также интегрируемая в квадрате на всей оси и связанная с X (f) соотношениями А x(0 = l.i.m. \ X(f)eiatdf (6.11а) А->оо J —А И А X(f) = l.i.m. x(f)e~**dt. (6.116) А->оо J • —А При выполнении условия (6.10) имеет место теорема, аналогичная теореме Парсеваля, т. е. оо оо 5 |X(f)|W= 5 1*(012<». (6-12) —оо —оо х) Титчмарш (I, § 13.63). [См. также Смирнов (I, т. П, разд. 147 ). — Прим, ред.] 2) Титчмарш (И, § 3.1).
6.2. Спектральная плотность периодической функции 109 Мы будем называть x(t) и Х(/) парой преобразований Фурье. Если в дополнение к сказанному выше функция X (f) абсолютно интегрируема, то x(t) задается равенством (6.8); если х(/) абсо- лютно интегрируема, то X(f) = X(f) задается равенством (6.9). Как и в случае рядов Фурье, мы будем обычно записывать пре- образования Фурье в виде (6.8) и (6.9) даже тогда, когда для корректности математической терминологии следовало бы говорить о пределе в среднем. 6.2. Спектральная плотность периодической функции Основным предметом нашего изучения в этой главе явится функция, называемая спектральной плотностью мощности (или просто спектральной плотностью) и характеризующая распреде- ление мощности сигнала или шума по частоте, а также связь спектральной плотности с корреляционной функцией. Ситуация, при которой изучается сигнал, являющийся известной функцией времени, отличается от той, которая возникает, когда предметом изучения служит сигнал или шум, рассматриваемый как выбороч- ная функция вероятностного процесса. Хотя между этими двумя ситуациями имеется много аналогий, тем не менее их нужно рас- смотреть по отдельности. Мы начнем с рассмотрения наиболее простого случая — спектральной плотности одной периодической функции. Пусть x(t) периодическая функция с периодом Т, имеющая конечную «энергию» за период, т. е. удовлетворяющая условию (6.4). Тогда, согласно теореме Парсеваля, средняя по времени энергия этой функции, т. е. ее мощность, равна сумме слагаемых, каждое из которых связано с одной частотной составляющей раз- ложения Фурье для этой функции. Каждое слагаемое можно, разумеется, трактовать как временное среднее энергии соответ- ствующей частотной компоненты. Таким образом мы приходим к следующему определению функции (f) — спектральной плот- ности мощности: оо 2. 1°п|26(/-П/;о)> fo = 4-- (6ЛЗ> п=— ОО Итак, функция <У(/) состоит из последовательности импульсов, расположенных на частотах составляющих x(t) и имеющих интенсивность, равную мощности соответствующих составляющих; ясно, что функция «^(f) может служить мерой распределения мощности x(t) по частоте. Общая мощность x(t) равна ОО со Т $ 3 |an|*=±$|x(0M. (&14) —оо п=—оо 0
110 Гл. 6. Спектральный анализ Спектр мощности G(f) функции x(t) определяется формулой <?(/)=$ (6-15) — ОО Спектр мощности периодической функции является ступенчатой функцией со скачками в точках, соответствующих гармоническим частотам исходной функции. Из выражения (6.13) следует, что вся информация о фазах различных частотных составляющих, содержащаяся в разложении функции x(t) в ряд Фурье, утрачивается в функции (f), так как две функции x(t) и *'(/), имеющие коэффициенты Фурье с одинаковыми модулями, но разными фазами, имеют одинаковую спектральную плотность. Далее, заметим, что если x(t) — действи- тельная функция, то ее коэффициенты Фурье ап и а_п являются комплексно сопряженными величинами и, следовательно, | ап |2 = = |а_п|2. Таким образом, если х(/) действительна, то функция <^(f), определяемая равенством (6.13), является четной функцией частоты. Наконец, & (f) неотрицательна. В примере 4.8.1 было показано, что корреляционная функция для ряда Фурье, заданного формулой (6.2), имеет вид J?(r)= 3 I ап |2е+;жйот. (6.16) п=-со Вычисляя преобразование Фурье от J?(t), получаем (т) e-w'dr = 2 I ап I2 e^e-^dx = —ОО —оо —оо оо = 3 l«n|26(f-nfo) = ^(f)- (6.17) п=—ОО Таким образом, мы видим, что для периодической функции х(0 ее спектральная плотность и корреляционная функция являются парой преобразований Фурье. Следовательно, полная информация относительно частотного распределения средней энергии функции x(t) содержится в ее корреляционной функции. 6.3. Спектральная плотность периодического вероятностного процесса Стационарный в широком смысле вёроятностный процесс с вы- борочными функциями x(t) называется периодическим с периодом Г, если его корреляционная функция R (т) периодична с периодом Т. Из этого следует (см. задачу 2), что случайные величины xt и
6.3. Спектральная плотность периодического процесса Hi Xt+т с /вероятностью единица равны друг другу при любом Если все выборочные функции или даже почти все, за исключе- <$, нием множества функций, появляющегося с вероятностью нуль, являются периодическими, то процесс периодичен в смысле, опре- деленном выше. Пусть х (!) — выборочные функции стационарного в широком смысле периодического вероятностного процесса с периодом Т. Предположим для удобства, что среднее значение Е (х() равно- нулю. Тогда, если выборочные функции являются периодическими, и могут быть разложены в' ряды Фурье, мы получим x(0= S (6.18> п=—оо где т Хп = ±^х(Г)е~™<>*(Н. (6.19> о Для различных выборочных функций выражение (6.19) дает различные значения хп; т. е. в соответствии с рассуждениями? § 4.7, если рассматривать целый ансамбль выборочных функций, то выражение (6.19) задаст хп как случайную величину. Из тео- ремы, сформулированной в §4.7, следует, что интеграл (6.19)* существует с вероятностью единица, и можно показать, что выпол- няется соотношение, аналогичное равенству (6.18); точнее, N xt = 1. i. ш. У хпе^1, (6.20> <ЛГ->оо ", n=t—N где 1. i.m. понимается в статистическом смысле, так же, как. в § 4.6. Равенство (6.20) представляет собой в действительности частный случай более общего результата, который мы рассмотрим’ в следующем параграфе. Приведенные формулы аналогичны равенствам (6.2) и (6.3), однако теперь коэффициенты Фурье хп являются случайными величинами, а не числами. Для большинства вычислений, производимых со случайными’ рядами Фурье, т. е. с рядами вида (6.18), особенно удобно, если ряды обладают свойством, двойной ортогональности, т. е. если: не только функции от времени, задаваемые n-м и zn-м членами ряда, при лФт являются ортогональными, но и в дополнение* к этому Е (хпх^) = 0. Покажем, что периодичность вероятност- ного' процесса является достаточным условием для того, чтобы* при н =£т величины хп и хт были не коррелированы между собой..
112 Гл. 6. Спектральный анализ Используя (6.19), имеем г т Е (xn40 == i Е [ J х (t) х* (s) dsdt] = О о т т = ±Л /?(/-s) ези» (ms-nOrfs d/, (6.21) О о где, в силу периодичности функции /?(т), можно написать, что для всех т Я(т) = 2 Vin“oT- (6-22) п=—00 Подставляя (6.22) в (6.21) и учитывая, что аргумент 1?(т) здесь изменяется от —Т до +Т, т. е. в пределах двух периодов функции R(x), получаем Т Т оо Е(хпх^) = ^ 2 (ms-nt) ds dt = 0 0 k=—oo оо T T = jk 3 \ ’ds e’“° (k~n) t di = k==—оо 0 Q ( bn при n — m, = n (6-23) I 0 при n =# m. ' ' Выражение (6.23) показывает не только некоррелированность хп и хт при и =# /и, но, совместно с (6.22), и то, что n-й коэф- фициент Фурье для корреляционной функции 7? (т) равен дисперсии. n-го (случайного) коэффициента Фурье для x(t). Этот результат является статистическим аналогом того факта, что для периоди- ческой функции x(t) п-й коэффициент Фурье ее корреляционной функции 7?(т) равен абсолютной величине квадрата n-го коэффи- циента Фурье функции x(t). Энергию шумового сигнала, представленного вероятностным процессом, наиболее естественно определить как математическое ожидание энергии выборочных функций этого, процесса. Тогда для энергии шумового сигнала за интервал времени Т имеем Е ( | х (t) |2dQ = Е [ J 2 *п^"“#< 2 xte-^dt ] = О 0 оо Л=—оо оо оо = £[ 2 1*п|‘Г]=Т 2 Ьп- (6-24)
6,4. Разложение вероятностных процессов в ряды 113 Средняя по времени энергия сигнала равна 2 Ьп. По аналогии с опре- п=—оо делением, введенным в § 6.2, мы определим спектральную плот- ность S(f) периодического вероятностного процесса равенством оо S(f) = 3 bn&(f-nf0), f0 = ±, (6.25) П-—оо где т = у R(t) e-M^dt. о Здесь bn = Е (| хп |2) равно математическому ожиданию мощности компонент выборочных функций частоты f = n/T. Преобразование Фурье от корреляционной функции равно 4-00 оо оо R (т) e~iaxdx = 2 bne~in^xe-^xdx = —со —оо п=—оо оо = 2 bni>(f-nf0) = S(f). (6.26) п==—оо Итак, как и в § 6.2, мы видим, что спектральная плотность является преобразованием Фурье от корреляционной функции, хотя в § 6.2 корреляционная функция была временным средним, а в этом параграфе она является математическим ожиданием. Мы будем в действительности определять спектральную плот- ность как преобразование Фурье корреляционной функции про- извольного стационарного в широком смысле процесса; результаты, полученные в настоящем параграфе, могут служить эвристическим оправданием такого определения. Прежде, однако, чем рассма- тривать этот вопрос, мы рассмотрим в следующем параграфе задачу о представлении в конечном интервале времени произ- вольного непериодического вероятностного процесса рядами орто- гональных функций со случайными коэффициентами. 6.4. Разложение вероятностных процессов в ортогональные ряды Разложение в тригонометрические ряды. Непериодическая Функция действительной переменной f(t) может быть, конечно, разложена в ряд Фурье по комплексным экспонентам или по синусам и. косинусам, причем ряд этот будет представлять f (/) на некотором конечном интервале а <7 <6. Такое разложение не единственно, ибо ряд можно выбрать так, чтобы он сходился к некоторой периодической функции, совпадающей с f(t) при 8 Заказ 57
114 Тл, 6. Спектральный анализ и коэффициенты этого ряда никак не будут зависеть от поведения вне интервала Для вероятностного процесса ситуация аналогична, однако усложнения возникают при рассмотрении корреляции между коэффициентами. Предположим, что мы, как и в предыдущем параграфе, рас- сматриваем стационарный в широком смысле процесс, но отка- зываемся от всяких условий его периодичности. Разложим этот процесс формально в ряд Фурье, представляющий процесс в интер- вале т. е. х(0= 2 xneima<><> 2 л 0 b — а ’ (6.27а) .где ь а (6.276) В § 6.3 мы показали, что для периодического процесса слу- чайные коэффициенты Фурье хп и хт при п Ф т не коррелированы между собой. Можно показать, что и обратно, отсутствие кор- реляции между коэффициентами свидетельствует о периодичности процесса г). То, что периодичность (или ее отсутствие), которая кажется условием, наложенным на поведение процесса вне интер- вала влияет на коэффициенты разложения, действующего только внутри интервала объясняется тем, что мы имеем дело только со стационарными в широком смысле веро- ятностными процессами. Требование стационарности ,приводит к тому, что структура, которую процесс может иметь внутри некоторого интервала, должна быть статистически аналогична его структуре в любом другом интервале той же длины. Поскольку рассматриваемый сейчас процесс не обязательно является периодическим, корреляционная функция не может быть простым образом выражена через дисперсии коэффициентов Фурье процесса х(/), как это имело место в равенстве (6.22). Теперь мы имеем /?х(т) = Е[х(/ + т)х*(0] = -t-оо 4-оо (6.28) = 22 £ (xnx?) exp [/(n — k)^ + jnu>or], n=~oo fe=—оо причем это равенство справедливо лишь тогда, когда t и t + r находятся в одном и том же интервале длины Ь — а. В общем случае существенно упростить это выражение невозможно. х) См. Рут и Питчер (I, теорема 1).
6.4. Разложение вероятностных процессов в ряды 115 Так как разложение в ряд Фурье, задаваемое равенствами (6.27а) и (6.276), оказывается относительно простым, если коэф- фициенты ряда не коррелированы между собой, и его часто при- меняют в этом предположении, то интересно отметить, что при неограниченном увеличении длины интервала а < t < b нормирован- ная корреляция между различными коэффициентами стремится к нулю J). Иными словами, если Т = b — а, то при постоянных п и т и *n tn lim ТЕ (хпх%) = 0. Т -> оо (6.29а) Далее, если п—>оо при Т —-> оо таким образом, что ncoo = fn остается постоянным, то +оо • limТЕ (| хп|* 2) = Rx(u)exp(-j2afnu)du = Sx(fn), (6.296) т -т со —оо где Sx (fn) — значение спектральной плотности вероятностного процесса2) при f = fn. Чтобы показать это, заметим, что, согласно (6.21), ъ ,ъ Е (хпХт) = ^2 Rx (t — s) ехр [/<D0 (ms —.«О] ds а а Полагая и — t — s, получаем Т T-^s Е (хпХт) = Rx (и) ехр {/соо [ms — п(и + s)]} du ds, 0 — s или, полагая v — s/T, 1 Т(1-») 71 Е (хпх^) = ехр [/2л (m — n)v] dv Rx (и) ехр (du. 0 — vT При т #= п и постоянных тип внутренний интеграл для всякого 4-00 v 0 при Т —» оо стремится к Rx (и) du = const и весь интеграл в пределе обращается в нуль. Если т = п и п —> оо при Т —» оо х) Ср. Рут и Питчер (I). 2) Ср. равенство (6.63). 8*
Гл. 6. Спектральный анализ так, что n(dQ = fn остается постоянным, то интеграл стремится к 4-00 Rx (и) ехр (— j2nfnu) du. —со Отсюда непосредственно следуют равенства (6.29а) и (6.296). Для некоторых приложений более удобным оказывается раз- ложение стационарного в широком смысле действительного вероят- ностного процесса в ряд Фурье не по экспонентам, а по синусам и косинусам. В этих случаях мы можем написать оо Л'(0 = ^-° + 2 (*cn cos + *sn sin (6.30а) Л=1 где соо = 2л/(6 — а), хт — удвоенная действительная часть хп, ь хсп = 231 (хп) = ^_а х (t) cos n<aot dt, (6.306) a a xsn~ удвоенная мнимая часть xn: ъ xsn = 23(^n)= x (t) sin n<aot dt. (6.30b) a Способом, аналогичным тому, которым были доказаны равен- ства (6.29а) и (6.296), можно показать, что при Т — Ь — а и по- стоянных тип lim ТЕ (хспхст) = 0 для (6.31а) Т -> со lim ТЕ (xtnxsm) = 0 для пг ф п (6.316) Т -> оо И lim ТЕ (xcnxsm) = 0 для всех пг и п. (6.31в) Т->оо Далее, если п—*оо при Т —> оо так, что na>Q = fn остается по- стоянным, то lim ТЕ (xc2n) = lim ТЕ (х*п) = 2SX (fn). (6.31г) 71 —> оо Т оо Таким образом, при неограниченном увеличении интервала разло- жения по синусам и косинусам коэффициенты Фурье также ока- зываются не коррелированными между собой. Разложение в ортогональные ряды с некоррелированными коэф- фициентами (теорема Кару йена—Лоэва1)). Как мы показали выше, !) См. Лоэв (I, стр. 478).
6.4. Разложение вероятностных процессов в ряды 117 непериодический вероятностный процесс не может быть записан в виде тригонометрического ряда Фурье с некоррелированными случайными коэффициентами. Оказывается, однако, что если, как это часто делают, понимать термин ряд Фурье в широком смысле, т. е. имея в виду любой ряд по ортогональным функциям фп(£) с соответственно определенными коэффициентами, то непериоди- ческий процесс будет обладать разложением в ряд Фурье с некор- релированными коэффициентами. Мы сейчас уточним это утвер- ждение и затем покажем, как определить искомое разложение. Назовем ортогональным разложением вероятностного процесса х (/) в данном интервале (а, Ь) разложение, имеющее вид » х (0 = 2 W» (0» а < / < 6, (6.32) п где ь , । _ 0 (6-33а) а 1 ( 1 При 7П = И, £(х„х^) = _ F , (6.336) 1 ' (0 при т Ф п; ' оп — действительные или комплексные числа. «Равенство» в (6.32) означает, что для каждого t, x(/) = l.i.m. £ стпхпфя(0. iV->oo 71=1 В § 6.3 было показано, что для стационарного периодического процесса такое разложение осуществляется, если фп(/) = у^ТМй0^ а <гпхп равны соответствующим случайным коэффициентам Фурье. В настоящем параграфе мы отметили, что если условие периодич- ности нарушается, то равенство (6.336) при фп (/) == у ока- зывается неверным и выполняется лишь в пределе при Т—>оо. Однако всякий вероятностный процесс —даже нестационарный,— обладающий непрерывной корреляционной функцией, можно раз- ложить в ортогональный ряд по некоторой системе функций фп(0- Чтобы определить функции фп(/) и числа ап, предположим, что для некоторого множества функций фп(/), чисел огп и случайных величин хп выполняются равенства (6.32) и (6.33). Тогда % (Л S) = Е(xtxt) = Е [2 VA (О 2 O^Xkffk (s)] = n k = Z|<Jnl2<Pn(O<Pn(s), S<d. (6.34)
118 Гл. 6. Спектральный анализ Используя выражение (6.34) для s), получаем ь ъ s)4 (s) ds = 2 I <*n I2 <Pn (0 5 Ф»<s) ffe (S) ds’ a n a ИЛИ b ^(^>s)q)k(s)ds = |CTfe|2<pft(0. a (6.35) На языке интегральных уравнений это означает, что числа | oft |2 должны быть собственными значениями, а функции <pfe(/) — соб- ственными функциямих) интегрального уравнения ь /? (t, s) ф (s) ds = Хф (/), (6.36) а И наоборот, взяв в (6.32) в качестве о иф(/) положительные значения квадратных корней из собственных значений и собствен- ных функций уравнения (6.36), мы можем построить ортогональ- ное разложение вероятностного процесса с непрерывной корреля- ционной функцией, справедливое в интервале Пусть | оп |2 — ненулевые собственные значения уравнения (6.3,6) (все положительные), причем собственные значения кратности г > 1 обозначаются г различными индексами. Обозначим через огп поло- жительные значения квадратных корней из | огп |2. Пусть, далее, {фп W} — совокупность ортонормированных собственных функций уравнения (6.36), причем фп(/) соответствует | оп |2. Пусть, нако- нец, случайные величины хп определяются равенством ь onxn=^x(t)&(t)dt. (6.37) а Тогда ь ь <jn(j,nE (хпх*т) = Е [ х (/) ф* (Z) dt х* (s) фт (s) ds ] = а а Ъ Ь = R(t, s)^(t)(fm(s')dtds = а а Ъ = 5 Ф«(0|ОтГфт(0^ = а 1) См. приложение 2, § 2.2.
6.4. Разложение вероятностных процессов в ряды 119 J On при п — т, ( 0 при п #= т. (6.38) Итак, равенство (6.336) выполняется. Равенство [(6.33а) также выполняется, так как функции <рп(0 были выбраны ортонорми- рованными. Остается показать, что равенство (6.32) выполняется в том смысле, что x(t) является пределом в среднем частных сумм, входящих в правую его часть. Иными словами, мы должны показать, что lim Е [ | х (0 - 2 апхпФп'(0 fl = 0. (6.39) Л'->оо п=1 Если мы положим N Xn(0= S Vn<Pn(0. (6.40) П=1 то непосредственным вычислением получим Е [х(0 x*n (0] = Е [х* (0 xN (/)] = N = E[xN(t)x*N(t)]= S ^Фп(ОФ£(0. (6.41) п— 1 Следовательно, N E[\x(t)-xN(t)\*] = R(t,i)- 3 <4<Pn(0<PS(0- (6.42) n=l Однако, согласно теореме Мерсера1), последнее слагаемое в пра- вой части при N —> оо сходится к Итак, равенство (6.39) выполняется, что и требовалось показать. Энергия шумового сигнала за интервал времени а < t < b равна ъ е( $|x(0|*d/) = а Т оо оо 2 стп^пФп(о2 = 0 n=0 fe=0 оо оо =е [ 2 ст«1хп12] = 2 а«- <6-43) * » п=0 п=0 х) См. приложение 2, § 2.2.
120 Гд. 6. Спектральный анализ Этот результат является обобщением равенства (6.24). Итак, «спектральное разложение» по функциям фп (/) может быть всегда произведено. Изученное нами общее ортогональное разложение на конечном интервале включает разложение периодических про- цессов в качестве частного случая, в котором собственными функ- циями (6.36) служат комплексные экспоненты (или синусы и коси- нусы). Разложение (6.32) очень полезно в некоторых теоретических вопросах; однако практическая его ценность сильно ограничи- вается двумя обстоятельствами: процедура отыскания решений интегральных уравнений вида (6.36) в общем случае неизвестнах), и разложение сигнала или его мощности по системе ортонорми- рованных функций (<рп(0)> не являющихся синусами и косину- сами, не имеет той простой технической интерпретации, какую разложение по частотам имеет, например, при изучении фильтров. Мы закончим этот параграф примером2), в котором собственные функции могут быть найдены как решения соответствующего дифференциального уравнения. Пример 6.4.1. В примере 4.5.1 мы нашли корреляционную функцию «случайного телеграфного сигнала» y(t) Ку(т)=4п+«"’2ОТ|}- Если мы запишем y(t) в виде У (0= 4+^(0. (6-44) то х (/) будет иметь нулевое математическое ожидание и корреляционную функцию Ях(*) = -^~|2от|- (6.45) Найдем теперь ортогональное разложение х (/) в интервале —Мы должны найти собственные значения и собственные функции интегрального уравнения J_ ' 2а (w~”u) । ср (у)рср («), —(6.46) -А Сделав подстановки / = 2ан, s = 2ao, Т = 2аА и f (£) = ф(и), % = 8ар, приве- дем уравнение (6.46) к виду Т e-"-slf(s)ds=Xf(O, (6.47) -т х) Однако следует отметить, что если преобразование Фурье от корреля- ционной функции является рациональной функцией, то соответствующее интегральное уравнение можно решить. См. задачу 5 этой главы и § 2.3 в приложении 2. 2) Этот пример иллюстрирует метод вычислений, рассматриваемый в при- ложении 2, § 2.3. э
\ 6.4. Разложение вероятностных процессов в ряды 121 \ Мы може^ решить уравнение (6.47), найдя линейное дифференциальное урав- нение, которому удовлетворяет f(t), и Затем, подставив общее решение этого дифференциального уравнения в (6.47), найти X. Уравнение (6.47) можно пере- писать в виде t Т kf (0 = es~l f (s) ds+ el~s f (s) ds. -T t Дважды дифференцируя это равенство, получим t т Kf' (t) = — gs-t f (s)’ds -|- el-~s f (s) ds -T t и T —T откуда W(t)+2f или r«+^T^f(O = °. (6.48) Итак, функция f (t), удовлетворяющая интегральному уравнению (6.47), должна удовлетворять также однородному линейному дифференциальному -уравнению (6.48). Подставим общее решение уравнения (6.48) обратно^в (6.47) и рассмотрим по отдельности случаи Х==0, 0 < X < 2, 1 = 2 и 2<Х. Пусть сначала X > 2. Тогда и мы можем написать, что _а2 = 2Л Л 0<а2< 1. При этом дифференциальное уравнение принимает вид его общее решение Г (0-а2/(0=0; / (0 = с1е“'+с2е_а'- Подставляя это выражение в левую часть интегрального уравнения (6.47\ выполняя интегрирование щ приводя подобные члены, получаем eat Г __£1_ ci 1^4-1 a — i Г с2 Ч .а+1 а-1Гг _qe-(a+1)T .^(a-DTq ---ЙП-----+ а-1 J + t Г-С2е-(а+1)Г , Cie(g-1)T ”^е I а4-1 а_1
122 Гл. 6. Спектральный анализ Для того чтобы функция f (t) удовлетворяла интегральному уравнению, коэф- фициенты при слагаемых с ef и е~* должны быть равны нулю, т. е. а— 1 .ат с2е аТ _с1еаТ а-]-1 Складывая (6.50) и (6.51), получаем е~аТ Если с14-с2#:0, то это равенство не может иметь места ни при каком а, удовлетворяющем условию 0<а2<1. Следовательно, если это равенство выполняется, то обязательно —t?2. Подстановка этого равенства в (6.50) дает Lz£__n2aT 1 -]-а что не может быть верно ни для какого а при 0 < а2 < 1. Таким образом,' мы приходим к выводу, что при X > 2 интегральное уравнение удовлетворяться не может. Рассмотрим теперь случай 0 < X < 2. При этом и если мы положим X 0 < Ь2 < оо, то решение дифференциального уравнения принимает вид f (0 = cieibt + с2ег)ь‘. Если заменить jb на а, то данное решение совпадет с тем, которое мы имели в первом случае; следовательно, как и там, должны выполняться условия *(6.50) и (6.51). Нетрудно проверить, что этого не может быть при ± с2. Итак, возможны два случая: с1 = с2 и (\=—с2. Если с1=£2, то мы должны «меть а~ 1_.2аТ «4-1“ ’ или, возвращаясь к Ь, btgbT=t. Обозначим ненулевые решения этого последнего уравнения через Ьп (их имеется •бесконечное множество). Тогда, заменяя, согласно определению Ь, числа Ьп на Хп, найдем, что правая часть (6.49) превращается в X/ (£)> так что инте- гральное уравнение удовлетворяется. Аналогичными рассуждениями можно показать, что при с1==—с2 интегральное уравнение удовлетворяется, если Ь—решение уравнения b ctg ЬТ= 1. Подытоживая все сказанное, мы видим, что система собственных функций и соответствующих им собственных значений уравнения (6.47) имеет вид 2 fn (0= с cos bntf । , (6.52)
6.5. Спектральная плотность произвольной функции 123 где Ьп удовлетворяют уравнению 6tg6T = l, и ?п (0 ~ С sin ^п~ а » 1 + ^п (6.53) где 5П удовлетворяют уравнению 6ctg6T = l. Мы не рассмотрели еще тех случаев, когда 1 = 2 или 1=0 является соб- ственным значением. Но в действительности это невозможно, что можно пока- зать непосредственно (задача 4). Итак, равенства (6.52) и (6.53) определяют полную систему собственных значений и собственных функций. В соответствии с теоремой настоящего параграфа, симметричный (т. е. с нулевым математическим ожиданием) случайный телеграфный сигнал х (t) может теперь быть записан в виде *(0 = 2 (0+2 (0. (6.54) п п где хп и хп—взаимно некоррелированные случайные величины с равным нулю средним значением и равной единице дисперсией, и где __ 1 Ип~4а(1+^) ’ 1 Р'П - -----А-- > 4а(1 + ^ - cos 2abnt, sin 4abnA 4abn - - sin 2abnt, sin 4аЬпД 4abn фи (0 = Фп (0 = (6.55а) (6.556) (6.55в) (6.55г) а Ьп и Ьп— соответственно решения уравнений Mg2a46 = l, b ctg 2аД& = 1. 6.5. Спектральная плотность произвольной функции До сих пор в этой главе мы рассматривали спектральный анализ вероятностных процессов, заданных на конечном интервале времени. Остальная часть главы будет посвящена спектральному анализу на интервале — оо<£<оо, причем мы начнем с изучения спектра мощности одной функции. Предположим, что сигнал опи- сывается интегрируемой в квадрате функцией х(/); тогда x(t) обладает преобразованием Фурье X(f) и имеют место соотноше- ния (6Д1) и (6.12). Полная энергия сигнала равна со оо 5 |*(0М = 5 1*(П \2df,
124 Г л. 6. Спектральный анализ -т а временное среднее энергии, или мощность, есть т Пт 4Л |*(')12^ = 0. (6.56) 1 Т~° Ут Очевидно, рассматривать спектральную плотность мощности в этом । случае бесполезно; плотность должна быть для всех частот равна | нулю, так как при ее интегрировании получается мощность. Иными словами, при рассмотрении сигналов с конечной общей энергией нужно анализировать не мощность, а энергию. Часто оказывается удобным предполагать длительность сигнала неограниченной, чего на самом деле, конечно, быть не может. Хотя при этом обычно считается, что энергия сигнала в конечном интервале времени конечна, сигнал может на бесконечном интер- вале обладать бесконечной энергией. На языке математики это । означает, что мы хотим иметь дело с функциями %(/), для которых т |х(/)|2Л<оо. (6.57) i Класс функций, удовлетворяющих неравенству (6.57), включает в себя все функции, интегрируемые в квадрате, однако он, j конечно, гораздо более широк, и функции, удовлетворяющие (6.57), * вообще говоря, не имеют преобразований Фурье. Интересно изу- чить спектральное разложение мощности таких функций x(f), однако мы не можем здесь поступать так, как мы поступали | с периодическими функциями в конечном интервале, поскольку функции x(t) не имеют преобразований Фурье — аналогов рядов Фурье, .от которых мы отправлялись раньше. Но мы можем при- ’ нять за основу корреляционную функцию ,^(т) и рассмотреть ее преобразование Фурье. Предположим, что предел i т 1 lim ( х (/)%*(/--r)d/==J?(T) (6.58) 1 т->со 27 JT I существует для всех т и, следовательно, условие (6.57) выпол- j няется. Тогда, поскольку х) я т т т | | x(t)x*(t — x)dt | < | x(t) |2d/ |x(Z —т)|М/, Ц -т -т —т 1 х) В силу неравенства Шварца.
6.5, Спектральная плотность произвольной функции 125 имеем т т |J?(r)|<lim {5^ \ |x(0T^2f |х(/-т)|мД1/2 = = lim i T-»co2' т \x(t)\2 dt = ^(Q). —T (6.59) Итак, если сигнал x(t) имеет корреляционную функцию J?(t), то он имеет и «среднюю мощность» J?(0), и функция J?(r) не превосходит J?(0). Напомним, что аналогичный результат в § 4.5 был получен для корреляционной функции вероятностного про- цесса. Определим теперь спектральную плотность мощности of (f) функции х(0 как преобразование Фурье ее корреляционной функции: оо <$”(/) = ^(r)e-^dx, & = 2nf. (6.60) — ОО Тогда обратное преобразование1) дает оо J?(r) = ^(f)e^df. —00 (6.61) В § 6.2 мы определили спектральную плотность периодической функции, удовлетворяющей неравенству (6.4). Поскольку такая функция удовлетворяет также условию (6.58), мы сейчас вновь определили ее спектральную плотность. Здесь, конечно, нет ни- какого противоречия^ так как равенство (6.60) мы получили раньше как- свойство, вытекающее из определения. Из (6.61) непосредственно находим связь между спектральной плотностью оо *) Формулы (6.60) и (6.61) корректные предположении, что (т)| dx<oo\ —оо это часто выполняется на практике. В общем случае спектральная плот- ность of (f) может не существовать и выражение (6.61) нужно было бы написать в форме преобразования Фурье —Стильтьеса, а выражение (6.60) — в проинтегрированной форме. См. Дуб (II, гл. II, § 3). С помощью импульс- ных функций область применимости выражений (6.60) и (6.61) может быть формально расширена и в результате охватит большинство практических задач.
1 126 Гл. 6. Спектральный анализ и средней мощностью функции х(/): J?(0) = <^(f)df = lim ± \ |х(0|* 2^. Т->оо (6.62) Исследование спектра, спектральной плотности и корреляционной функции данной функции обычно называют обобщенным гармони- ческим анализомх). Мы не будем продолжать здесь его изучение, так как в задачах, которые мы будем исследовать ниже, нам придется рассматривать сигнал и шум как выборочные функции вероятностных процессов и поэтому нам нужен гармонический анализ вероятностных процессов. Вместе с тем между обобщен- ным гармоническим анализом функций и созданным позже гармо- ническим анализом стационарных в широком смысле вероятно- стных процессов имеется тесная связь2). Теоремы, относящиеся к обоим этим случаям, часто оказываются аналогами друг друга. Для эргодических стационарных процессов спектр, задаваемый равенством (6.60) для каждой выборочной функции, с вероят- ностью единица оказывается таким же, как и спектр вероятност- ного процесса. 6.6. Спектральный анализ стационарных в широком смысле вероятностных процессов3) Как и в случае одной функции, мы определим спектральную плотность мощности стационарного в широком смысле вероят- ностного процесса как преобразование Фурье от его корреляцион- ной функции; таким образом, со S(f) = /?(т)ехр( — j<£>r)dx, — (6.63) —оо х) См. Винер (I или II, гл. 4). 2) Краткое обсуждение этого вопроса см. в работе Дуба (I). 3) Если стационарный в широком смысле вероятностный процесс с выбо- рочными функциями x(t) «обрезается» при t=—Т и t = T и затем разла- гается в ряд Фурье в интервале от —Т до -\-Т, то, как было разъяснено в § 6.4, случайные коэффициенты ряда при Г—>оо обладают свойством асимптотической ортогональности. Этот результат подсказывает, что суще- ствует предельное соотношение, в силу которого процесс представляется как преобразование Фурье другого вероятностного процесса с выборочными функ- циями у' (f), заменяющими случайные коэффициенты ряда Фурье, относящиеся к дискретной системе частот, и с тем свойством, что для любых fi и f2 слу- чайные величины у'^ и у^2 некоррелированы. Такое предельное соотношение действительно может быть доказано, хотя в этом случае необходимо выразить результат через вероятностный процесс с выборочными функциями у (/), по существу представляющий собой интеграл от процесса у’. Такое представление, называемое спектральным представлением вероятност- ного процесса, можно найти в книгах Дуба (II, гл. XI, § 4) и Бартлетта (I, § 6.2).
6.6. Спектральная плотность стационарных процессов 127 Тогда ОО /?(т)= S (/) exp (jaxt) df. —ОО (6.64} Корреляционная функция R (т) задается, конечно, равенством ^(т) = £[х(0х*(/-т)], но если процесс является эргодическим, то она с вероятностно единица задается также равенством R (т) = lim 4г х (t) х* (t — т) dt. -т Примеры. Прежде чем перейти к изложению некоторых свойств спектральной плотности, рассмотрим два простых примера. Пример 6,6.1. Случайный телеграфный сигнал. Случайный телеграфный сигнал, описанный в примере 4.5.1, имеет корреляционную функцию Rx fr) =4 [ 1+ехр (—2а I-г |)]. Следовательно, со S(f)=-^- [1-|-ехр( — 2а | т| )]ехр(—j2nfx)dx = —оо оо =46 w+4 ехр < - 2°т~ wdx+ о о +4 ехр(2ат—2/n/:T)rfT = 4 {б(/)+ } • (6.65> —оо Импульсная функция, обусловливающая наличие в спектральной плотности пика на нулевой частоте, отражает наличие в случайном телеграфном сигнале постоянной составляющей. Если сигнал симметричен относительно уровня нуле- вого напряжения, то этот пик исчезает. Пример 6.6.2. Белый шум. При рассмотрении задач, связанных с поло- совыми фильтрами, часто оказывается удобным сделать упрощающее пред- положение о том, что спектральная плотность сигнала постоянна в конечном интервале частот и равна нулю вне этого интервала, т. е. что при f2 > А О S(A=f N0 ДЛЯ ——A ''' I 0 для других f. Тогда СО R (х) = S (f) ехр (/2л/т) df = 4 • —ОО —fl f2 = ехр (/2л/т) df + Nq ехр (/2л/т) df = -12 /1
128 Гл. 6. Спектральный анализ = [sin 2л/2т — sin 2л/хт] = =^0 51П2лтД/cos2nrf0, (6.66) лт где В гипотетическом предельном случае, когда S (f) постоянно для всех частот, R (т) становится равным Nod (т). Вероятностный процесс с постоянной спектраль- ной плотностью обычно называют белым шумом. Наиболее обычными примерами применения спектральной плотности, по крайней мере в приложениях к исследованию шумов в электрических цепях, являются примеры, в которых рассматривается спектральная плотность на выходе линейной системы с сосредоточенными параметрами при возбуждении ее белым шумом. В этом случае спектральная плотность оказывается рацио- нальной функцией. Свойства спектральной плотности и корреляционной функции. Класс непрерывных корреляционных функций стационарных про- цессов обладает следующим интересным свойством. Пусть задан стационарный в широком смысле вероятностный процесс с выбо- рочными функциями x(t). Пусть, далее, Af — целое положительное число, tlf — любая совокупность W значений параметра t и ...,zn —любая совокупность W комплексных чисел. Тогда N N N Е (I S xtmzm |2) = Е ( 2 xtmzm 2 -4hZh) = ' m=l m=l k=i R N = 2 R(tm-tk)zmz*k. (6.67) m, Поскольку это выражение представляет собой среднее значение неотрицательной случайной величины, оно само неотрицательно, т. е. N 2 R(tm-tk)zmz£>0. (6.68) 7П, k—i В § 4.5 мы уже установили, что /?(-т) = /?*(т). (6.69) Итак, корреляционная функция любого стационарного в широком смысле процесса удовлетворяет условиям (6.68) и (6.69); можно показать1), что и обратно, любая непрерывная функция, удовле- творяющая этим двум условиям, является корреляционной функ- цией некоторого стационарного в широком смысле процесса. Функ- 9 Дуб (И, стр. 466). Следует отметить, что класс характеристических функций случайных величин в точности совпадает с классом нормированных корреляционных функций комплексных, вообще говоря, стационарных вероят- ностных процессов.
6.6. Спектральный анализ стационарных процессов 129 ции, удовлетворяющие условиям (6.68) и (6.69), называются неотрицательно определенными. Используя критерий неотрицательной определенности, нетрудно показать, что если 5(f) — любая интегрируемая неотрицательная функция, то ее преобразование Фурье является корреляционной функцией. Таким образом, на класс функций, которые могут быть спектральными плотностями мощности, не налагается ника- ких ограничений, кроме очевидных требований неотрицательности и интегрируемости (т. е. конечности мощности). Следует,, однако, отметить, что спектральная плотность действительного вероятно- стного процесса должна быть четной функцией частоты, что вытекает из равенства (6.63) и из того, что для действительного процесса 7?(т) = /?( —т). Небезынтересно показать, что преобразование Фурье любой корреляционной функции R (т) должно быть неотрицательным. В самом деле, если бы это было не так, то определение спек- тральной плотности мощности, выражаемое равенством (6.63), было бы физически бессмысленным. Вычисления, с помощью кото- рых мы докажем эту неотрицательность, окажутся в дальнейшей части этого параграфа полезными для другой цели. Как и в равен- стве (6.67), для произвольного Т > 0 имеем т Е [ | х (t) ехр (— 2njft) dt = о т т = \ /? (/ - s) ехр [ - 2л/ (/ - S) Л d^dt > 0. (6.70) О 6 Положим t — s~x\ тогда двойной интеграл (6.70) примет вид Т Т 0 (Т4-Т) /?(т)ехр( — 2TCjxf)dtdx + /?(т)ехр( — 2njxf)dt dx. о х . -то Выполняя интегрирование по tn деля все выражение на Т получаем т 7? (т) (Т — т) ехр (— 2itjxf) dx+ о о + Я (т) (Т + т) ехр (— 2л/т/) dx = Ут т = ^1 —-ЦД^/?(т)ехр( —2л/г/)йт== -т # оо = /?т(т)ехр ( — 2л/т/)г/т>0, (6.71) —ОО 9 Заказ № 57
130 Гл. 6. Спектральный анализ где /?т(т) = (‘ при |т[<7, при | х | > Т. о Но Rt (т) —> R (т) при Т —> оо и любом х (если функция R (т) абсолютно интегрируема), а интеграл (6.71) стремится к СО R (т) ехр (— 2ajxf) dx = S (f). —CO Так как аппроксимирующие интегралы неотрицательны, то неотри- цательным является и предел, т. е. S(f)>0. Если функция R(x) абсолютно интегрируема, так что ее пре- образование Фурье существует в строгом смысле, то, согласно так называемой лемме Римана —Лебега1), ОО limS(f) = lim R (т) ехр (— /сот) dx = 0, со = 2л/:. (6.72) /->оо f-+oo В этом случае 7?(т) не может быть периодической функцией, так как периодическая функция, отличная от нуля, не может быть абсолютно интегрируемой. Если 7?(т) можно записать в виде суммы периодической и интегрируемой частей, то S(f) будет состоять из суммы импульсных функций, отстоящих друг от друга на равные интервалы, и слагаемого, которое стремится к нулю, когда частота стремится к бесконечности. Оценка спектральной плотности и спектра. В эксперименталь- ных работах часто возникают задачи приближенного определения спектральной плотности или корреляционной функции вероятност- ного (предположительно стационарного) процесса, когда известны только некоторые выборочные значения этого процесса или неко- торые куски его выборочных функций. Это по существу задача статистической оценки. В каждом случае по экспериментальным данным требуется найти некоторую их функцию —т. е. случайную величину, —сходящуюся в том или ином смысле к истинным значениям S(f0) или 7?(т0), которые требуется найти. Не имея возможности адекватно рассмотреть здесь этот трудный вопрос2), мы, однако, получим один важный отрицательный результат. Часто используемый и, казалось бы, интуитивно «естественный» способ оценки спектральной плотности состоит в использовании функции, называемой периодограммой (эта функция будет опре- х) Титчмарш (II, § 1.8). 2) См. Гренандер (I) и Дуб (II, гл. X и гл. XI, § 7).
6.6. Спектральный анализ стационарных процессов 131 делена ниже). Тем не менее было установлено, что несмотря на привлекательность этого способа, периодограмма дает весьма сом- нительную оценку спектральной плотности, что мы сейчас и пока- жем. Если мы положим т ХТ (/) = х (t) ехр (/cd/) di, cd = 2л/, (6.73) то для любой заданной выборочной функции x(t) функция S(f, Л= |Хтг(/)|2 , (6.74) называемая периодограммой, даст разложение по частоте мощ- ности функции x(t) в интервале 0</<7\ Можно было бы пред- полагать, что если положить Т—>оо, то случайные величины S(/, Т) будут приближаться к спектральной плотности S(f). Однако в общем случае применение такой процедуры неоправ- данно, так как в широком классе примеров, в частности для дей- ствительных гауссовских вероятностных процессов, ее применение приводит к неудаче. Всегда верно, что limE[S(A T)] = S(f), (6.75) Т—>оо однако дисперсия S(f, Т) может не стремиться к нулю. Согласно (6.70) и (6.71), имеем E[S(f, Т)]=^ RT(r)exp(-2njfx)dT, (6.76) —ОО откуда вытекает (6.75). Далее, если процесс действительный, то т т т т E[S*(f, Т)] = ^Е[\ x(t)x(s)x(u)x(v)>; 0 0 0 0 X ехр [ — /cd (/ + и — s — у)] dt ds du dv\. (6.77) Можно показать1), что если процесс является к тому же гаус- совским, то E[x(t)x(s)*x(u)x(v)} = R(t — s)R(u — v)-\- + R(t-u)R(s-v) + R(t-v)R(s-u). (6.78) х) См. задачу 2 в гл. 8. 9*
132 Гл. 6. Спектральный анализ При этом равенство (6.77) принимает вид т т т т E[S*(f,T] = ±S \ \([R(t-S)R(U-v) + R(t-u)R(s-v) + 0 0 0 0 + R (t — v) R (s — w)] exp [ — /co (t + и — s — y)] dt ds du dv = т т = 2{E[S (f, 7)]}2 + yr | $ 5 R (/ - «) exp [/© (t + «)] dt du Г. о 6 (6.79) Следовательно, . E[S2(f,T)]>2(£[S(f,T)]}! и о2 [S (f, T)] = E [S2 (f, T)] - {E [S (f, T)]}2 > {E [S (f, T)]}2. (6.80) Ита к, при T —> оо для любого значения f, при котором S (f) > 0, дисперсия S(f, Т) к нулю не стремится. Это означает, что для всех f, при которых S (f) > 0, случайная величина S (/, Т) при Т оо не сходится (в среднем) к S (/). 6.7. Взаимные спектральные плотности Нам часто приходится рассматривать вероятностные процессы, являющиеся суммами двух вероятностных процессов. Предполо- жим, например, что z(i) = x(t) +y(ty, корреляционная функция этого вероятностного процесса равна Rz (/, t - т) = Е [(х, + yt) (xz*_T + «/?_,)] = = Rx(t,t-x) + Ry(t, t-x) + Rxy(t,t-x) + Ryx(t, t-x). Если процессы x(t) и y(t) стационарны в широком смысле и их взаимная корреляционная функция также стационарна, т. е. является функцией только т, то процесс z(t) будет обязательно также стационарным в широком смысле, причем (т) = Rx (т) + Ry (т) + Rxy (т) + Ryx (т) (6.81) И SAf) = sx(f)+sy(f)+ - оо оо + Rxy (г) ехр ( - /шг) dx + /?yx(r)exp(-/cot)dT. (6.82) — эо —эо Необходимо отметить, что суммарный процесс может быть ста- ционарным в широком смысле и, следовательно, обладать спектральной плотностью, даже если процессы x(t) и y(t) не являются стационарными (пусть, например, процессы u(t) и v(t) не- зависимы, стационарны и имеют нулевые средние значения и одинако-
6.8. Задачи 133 вые корреляционные функции; тогда x(f) = и (f) cos t и у (t) = v (/) sin t не являются процессами, стационарными в широком смысле; тем не менее процесс z (t) = х (t) + у (t) стационарен). Процессы x(t)viy(t) могут быть также стационарными в широком смысле, но не обладать стационарной взаимной корреляционной функцией и сумма их может не быть стационарным в широком смысле1) процессом. В таких случаях, конечно, равенства (6.81) и (6.82) не могут быть написаны. Если процессы x(t) и у(1) имеют стационарную взаимную корреляционную функцию Rxy(x), то мы назовем ее преобразова- ние Фурье Sxy(f) взаимной, спектральной плотностью. Итак, со $«„(/) = 5 ^У(т)ехР(-/®т)Л, ® = 2л/. (6.83) —СО • Тогда со Ях„(*) = 5 Sxy(/)eXP(/WT)dA (6.84) —со Поскольку Rxy{x) не обязательно является четной функцией, плотность Sxy(f) не обязательно действительна. Соотношение ^ху(т) = ^Уж( — т) Дает> если его применить к (6.83), 5xy(f) = S*x(f). (6.85) Равенства (6.82) и (6.85) позволяют приписать физический смысл действительной части взаимной спектральной плотности. Мы имеем - syx (/) + sxy (П = sz (f) - Sx (f) - Sy (f); следовательно, 281 [S x (f)] = 281 [Sxy («] = Sxy (f) + (f) = S2 (f) - Sx (f) - Sy (/), где символ 91 обозначает действительную часть. Иначе говоря, действительная часть от Sxy(f) или Syx(f) равна половине плот- ности мощности на частоте f, которая должна быть добавлена к плотностям мощности x(t) и y(t) получения плотности мощности их суммы. Если два стационарных процесса не коррели- рованы между собой, то их взаимная спектральная плотность равна на всех частотах нулю и спектральная плотность их суммы равна сумме спектральных плотностей этих процессов. 6.8. Задачи 1. Найти спектральную плотность (/) для функции, указанной в зада- че 16 гл.*4. ' 2. Показать, что если стационарный в широком смысле вероятностный процесс обладает периодической корреляционной функцией R (т), то для про- х) См., например, задачу 11.
134 Гл. 6. Спектральный анализ извольного t Е [ | xt—xt+T |2] = 0 (и, следовательно, с вероятностью единица Xt=Xt+T}. 3. Найти спектральную плотность S(f) для вероятностного процесса, указанного в задаче 21 гл. 4. 4. а) Показать, что для интегрального уравнения Т exp(-14-s|)f(s)ds = Xf(O, -т использованного в примере § 6.4, числа 2 и 0 не являются собственными зна- чениями. б) Найти собственные значения и собственные функции уравнения [Ь ехр (— а 1t—s|) f (s) ds=kf (t), a^t^b. a 51). Показать, что если co С P ( — CD2) exp (/(Of) (O = 2nf, —oo , где P и Q—полиномы соответственно n-го и m-го порядков относительно (—со2), причем n<m, то собственная функция ф (Z) и соответствующее соб- ственное значение % интегрального уравнения ь —s) q> (s) ds=Xq> (J), a должны удовлетворять однородному линейному дифференциальному уравнению 6. Пусть z (t) = x (t) у (t)f где x(t) и у (t) — выборочные функции независи- мых стационарных вероятностных процессов, для которых £[*4]==тж, E\yt}~my, причем корреляционные функции для x(t) — тх и y(t)— ту равны соответст- венно #х-тх (т)=ехр (—а | т J), Kv-mvW=exp(—&|т|). Найти корреляционную функцию и спектральную плотность z(t). 7. Пусть вероятностный процесс имеет выборочные функции х(/) = acos (2зт/£ф), где f и ф — независимые случайные величины, причем ф равномерно распре- делена в интервале 0^ф^2л, a f обладает симметричной плотностью рас- пределения вероятностей p(f). Показать, что процесс стационарен в широком х) См. Слепян (I, приложение 1).
6.8, Задачи 135 смысле, и выразить его спектральную плотность через р (f). Является ли этот процесс периодическим или нет? 8. а) Пусть #(/) = * (0 cos со0/, где соо — постоянная. Найти средние по времени корреляционную функцию (т) и спектральную плотность e7y(f), выразив их через ^?х(т). б) Пусть вероятностный процесс имеет выборочные функции у (t) = x (t) cos (©о<+8). где соо—постоянная, G— случайная величина, равномерно распределенная в интервале О<.0<:2л, a x(t)—независимый от 0 стационарный в широком смысле вероятностный процесс. Показать, что процесс у (t) стационарен в ши- роком смысле, и найти его корреляционную функцию и спектральную плот- ность, выразив их через корреляционную функцию и спектральную плотность процесса х (t). \ 9х). Пусть вероятностный процесс имеет выборочные функции у (0 = a cos [ coof—ф (0+G], где а и соо—постоянные, G—случайная величина, равномерно распределенная в интервале 0< 0<С2л, а ф(£)— не зависящий от 0 стационарный вероятност- ный процесс. Показать, что y(t) — стационарный в широком смысле процесс, имеющий корреляционную функцию (0=-2*^ [ехр (/®оО Е (expU [ф (G)—Ф (^)]})L 10. Пусть ф (t) в задаче 9 имеет вид ф (t) = b cos (cW+0'), где b и com— постоянные, а 0' — случайная величина, равномерно распределен- ная в интервале О<С0'<С2л. Используя решение задачи 9, вычислить спек- тральную плотность процесса у (t). Указание: использовать тождество оо ехр (/z cos 0) = JQ (z)-|- %inJn (z) cos nO. n=l И. Пусть процесс у (/) задан так же, как в задаче 8, б), и пусть w(t) = x(t)cos [((оо+ $)*+ 01- Это означает, что процесс у (t) гетеродинирован по частоте на величину д. Показать, что процесс w(t) стационарен в широком смысле, и найти его кор- реляционную функцию и спектральную плотность, выразив их через корреля- ционную функцию и спектральную плотность процесса х (t). Показать, что взаимная корреляционная функция процессов у (t) и w (t) нестационарна и что процесс y(t)-\-w(t) не является стационарным в широком смысле. Показать, что если гетеродинирование осуществляется со случайной фазой, т. е. если w (0 = X (0 cos [(соо+6) t+0+0'J, где 0' равномерно распределена в интервалеО <^0'<^2л и не зависит от 0 и х (/), то процесс y(t)-\-w(t) является стационарным в широком смысле. х) См. Миддльтон (III).
Глава 7 ДРОБОВОЙ ШУМ Эффективность электронных ламп в некоторой мере’ осла- бляется флуктуациями тока, обусловленными случайным характе- ром эмиссии электронов нагретым катодом. В настоящей главе мы будем изучать статистические свойства этих случайных флук- туаций, называемых дробовым шумом. В частности, мы рассмо- трим сперва дробовой шум в диоде, работающем в режиме насы- щения1), затем —в диоде, работающем не в режиме насыщения2), и, наконец, в многоэлектродных лампах, работающих не в режиме насыщения. Мы будем при этом преследовать две цели: 1) выяс- нить статистические свойства дробового шума, с тем чтобы позднее определить их влияние на параметры ламп, и 2) показать, как могут быть рассчитаны статистические свойства конкретного физического явления. Вторая цель не менее важна, чем первая. 7.1. Обзор некоторых вопросов электроники Пожалуй, целесообразно, прежде чем рассматривать статисти- ческие вопросы, сделать обзор некоторых из уравнений, описыва- ющих работу электронных ламп. Мы ограничимся так называе- мыми обычными приемно-усилительными лампами, в которых разности потенциалов на электродах имеют порядок нескольких сотен вольт, а физические размеры малы по сравнению с длина- ми волн рабочего диапазона частот. Применительно к таким лампам основные уравнения3), описывающие их работу, будучи выражены в рационализированной системе МКС, имеют вид Fm = /na (7.1) — соотношение, связывающее механическую силу Fm (в ньютонах), воздействующую на электрон массы пг (в килограммах), и обу- словленное ею ускорение электрона а (в метрах в секунду); Fe= — еЕ (7.2) х) В оригинале «а' temperature-limited diode» (буквально—«диод, ограни- ченный температурой»).—Прим, перев. 2) В оригинале «а space-charge-limited diode» (буквально—«диод, огра- ниченный пространственным зарядом»).—Прим, перев. 3) См. Хармэн (I, гл. 5 и 6) или Шпангенберг (I, гл. 8 и 16).
7.1. Некоторые вопросы электроники 137 V2y= 80 — соотношение, задающее силу Fe (электрическую), воздей- ствующую на электрон заряда е (в кулонах), находящийся в электрическом поле с напряженностью поля Е (в вольтах на метр); E=-W (7.3) — градиентное уравнение, связывающее напряженность электри- ческого поля и электрический потенциал V (в вольтах); (7.4) — уравнение Пуассона, которому удовлетворяет электрический потенциал; здесь q —плотность пространственного заряда (в ку- лонах на кубический метр), а е0 — диэлектрическая проницаемость свободного пространства (в фарадах на метр); наконец, J=- QV (7.5) — уравнение, связывающее плотность тока J (в амперах на квад- ратный метр) с плотностью заряда и его скоростью v (в метрах в секунду). Плоскопараллельный диод в режиме насыщения. Рассмотрим специальный случай плоскопараллельного диода в режиме насы- щения с расстоянием между катодом и анодом, равным d (в мет- рах), и разностью Vg, потенциалов между катодом и анодом. В диоде, работающем в режиме насыщения, разность потенциалов между катодом и анодом настолько велика, что все электроны, испускаемые катодом, летят к аноду с такими большими скоро- стями, что эффект пространственного заряда оказывается прене- брежимо малым; в этом случае уравнение Пуассона можно при- ближенно заменить уравнением Лапласа V2|Z = 0. (7.6) Предположим для удобства, что плоскость катода задается уравне- нием х = 0, а плоскость анода — уравнением х = d. Если пренебречь краевыми эффектами, то уравнение Лапласа принимает вид и имеет решение Напряженность электрического поля равна где 1 —единичный вектор в направлении +х. Приравнивая дей- ствующие на электрон механическую и электрическую силы,
138 Г л. 7, Дробовой шум получаем дифференциальное уравнение движения электрона в про- межутке между катодом и анодом диода в режиме насыщения: d2x _ еУа dt2 — md Скорость v и положение х электрона в момент времени t можно получить непосредственным интегрированием. Если считать, что благодаря режиму насыщения начальная скорость электрона мала по сравнению с его скоростью в момент попадания и если вылет электрона происходит в момент / = 0, то на анод, (7.7) (7-8) для про- Л “ md 2 ' Время пролета та (т. е. время, требуемое электрону хождения промежутка между катодом и анодом) можно найти, положив в равенстве (7.8) x = d и решив получившееся уравне- ние относительно t = xa: <7-9’ Теперь мы можем выразить скорость и положение электрона через найденное время пролета: и <711> где va = (2d/ra) — скорость электрона в момент попадания на анод. Импульс тока, наводимый в анодной цепи при пролете элек- трона через промежуток между катодом и анодом, можно опре- делить, вычислив заряд, привносимый на анод движущимся элек- троном, и, далее, рассмотрев производную по времени от величи- ны этого заряда. Заряд q, привносимый на анод, находится сле- дующим образом. Энергия [7, накопленная электроном в резуль- тате пролета промежутка с разностью потенциалов V, равна ц = еу = еу * . Эта энергия равна количеству работы W, которую необходимо совершить для привнесения на анод, находящийся под потенциа- лом Va, заряда q: Приравнивая эти энергии и решая полученное уравнение относи-
7.2. Распределение моментов вылета электронов 139 тельно д, находим ех Следовательно, импульс анодного тока равен ev 7 dt d (7.12) в течение времени пролета электрона и нулю до вылета электро- на из катода и после попадания его на анод. Таким образом, U0 = 2е t п . . „ — - при 0</<та, О при остальных t. Такой импульс тока изображен на фиг. 7.1. Фиг. 7.1. Импульс анодного тока в плоскопараллельном диоде, работающемв режиме насыщения. 7.2. Распределение вероятностей для моментов вылета электроновг) Для того чтобы изучать статистические свойства • дробового шума в электронных лампах, мы должны прежде всего найти вероятность Р (К, т) того, что в интервале времени длины т из катода вылетает в точности К электронов. В случае работы лампы в режиме насыщения представляется естественным предпо- ложить, что вероятность вылета электрона в заданном интервале времени не зависит от числа ранее вылетевших электронов и что при малых интервалах она пропорциональна длине интервала, т. е. при Дт—>0 />(1, Дт) = аДт, . (7.14) где а —пока что не определенная постоянная. Мы можем также предположить, что при малых Дт вероятность того, что за х) См. Феллер (I, § 17.2) и Дуб (II, гл. VIII, § 4).
140 Гл. 7. Дробовой шум время Дт вылетит более чем один электрон, пренебрежимо мала, т. е. что приближенно Р(0, Дт)'+Р(1, Дт) =1 (7.15) для малых Дт. Вероятность того, что за время т не вылетает ни один элек- трон, мы можем найти следующим образом. Рассмотрим интер- вал т + Дт и разобьем его на два подинтервала — один длины т и другой длины Дт. Поскольку вылет электрона в интервале времени Дт не зависит от числа электронов, вылетевших в интер- вале времени т, мы имеем Р (0, т 4- Дт) = Р (0, т) Р (0, Дт). Подставляя в это равенство выражение для Р (0, Дт), получаемое из (7.14) и (7.15), мы видим, что для малых Дт Р(0, т+Дт)-Р(0, т>_ _ (0 . При Ат—>0 это уравнение в конечных разностях превращается в дифференциальное уравнение вида ^М=-аР(0,т), (7.16) имеющее решение Р(0, т) = ехр( —ат), (7.17) причем граничное условие Р(0, 0)= limP(0, Дт)=1 (7.18) Дт-*0 вытекает из соотношений (7.14) и (7.15). Таким образом, мы нашли здесь вероятность как решение дифференциального урав- нения. Это важный методический прием. Рассмотрим теперь вероятность того, что К электронов выле- тают за время т+Дт. Снова мы можем разбить этот интервал на два подинтервала — один длины т и другой длины т + Дт. Если подинтервал Дт достаточно мал, то здесь имеются лишь две возможности: либо за время Дт происходит вылет одного элек- трона, либо не происходит вылета [ни одного электрона. Следо- вательно, для малых Дт Р(/С,т+Дт)=Р(/С-1,т; 1,Дт) + Р(К, т; 0, Дт). Так как снова вылет электрона за время Дт не зависит от числа электронов, вылетевших за время т, то Р(К, т+Дт) = Р(К-1, т)Р(1, Дт) + Р(/С, т)Р(0, Дт). Подставляя соответствующие выражения для Р (1, Дт) и Р (0, Дт),
7.2, Распределение моментов вылета электронов 141 находим, что при малых значениях Д-г Р (К, -г+Дт)-/ (К, т) + ар Х) = ар (%— 1, Т). ZXT Таким образом, переходя к пределу при Дт—>0, получаем диф- ференциальное уравнение ^-^~~ + аР(К, х) = аР(К—1, т), (7.19) представляющее собой рекуррентное соотношение, связывающее Р(К, т) и Р(К — 1, т). Поскольку Р(/С, 0) = 0, решение этого линейного дифференциального уравнения первого порядка равно1) Р (К, х) = аехр ( — ах) ехр (at) Р(К—1, t) dt. (7.20) . о Если мы теперь возьмем К = 1, то, используя найденный выше результат для Р(0, х), сможем получить Р(1,т). Этот результат можно, далее, использовать для нахождения с помощью равен- ства (7.20) вероятности Р(2, х). Продолжая этот процесс, позво- ляющий определить Р (К, х) по Р(К, — 1, т), находим, что Р (К, т) = («т)кехр(-ат) (7 21) для К = 0, 1,2,.... Таким образом, вероятность того, что в ин- тервале времени длины т вылетает К электронов, задается распре- делением Пуассона. Среднее число электронов, вылетающих в интервале времени длины т, равно Ех (К)=^К (~от) = ах, (7.22) к=о так как возможное число электронов, вылетающих за это время, меняется от нуля до бесконечности. Если мы определим п — = Ех(К)/х как среднее число электронов, вылетающих за секун- ду.2), то нетрудно видеть, что а = п; (7.23) следовательно, вероятность Р (К, т) может быть записана в виде Р (К, х) = (nT)ge^P(~nT). • (7.24) х) См., например, Курант (I, гл. 6, § 3.1). 2) Предположение о том, что а, а значит, и°п постоянны во времени» равносильно предположению о стационарности рассматриваемого вероятност- ного процесса.
142 Гл. 7. Дробовой шум Так как при пДт—>0 экспонента стремится к единице, то при К = 1 и малых иДт последнее равенство сводится приближённо к равенству Р(1, Дт) = иДт, (7.25) что согласуется с (7.14). Итак, вероятность того, что в очень малом промежутке времени вылетает один электрон, приблизи- тельно равна произведению среднего числа электронов, выле- тающих в одну секунду, на длину этого промежутка. Независимость моментов вылета. Предположим, что интервал (t, t + x) разделен моментами времени f = fm, где /п=1, 2, ..., М — 1, на М прилегающих друг к другу подинтервалов. Пусть tQ — t, tM~ t +т и ^т—1* Тогда м тп=1 Рассмотрим теперь вероятность Р (Кг, ...; /См, хм | К, т) того, что если в полном интервале времени длины т вылетает К элек- тронов, то в каждом из подинтервалов времени длины хт выле- тает Кт электронов, где м к= 2 кт. тп=1 Согласно определению условной вероятности, Р(2Q, V, ...; Км, *м | К, Т) = Р{К' х'К1р^^ Км> Так как вероятность вылета в последнем подинтервале времени (длины Хм) Км электронов не зависит от числаJ ранее вы- летевших электронов, мы можем написать Р (/С, т; /Ср Тр ... j Км, хм)= = Р (/С, т; /Сх, тх; ...; /См-i, ^м-1)Р (Км, ^м)- Продолжая эту процедуру далее, получаем м Р (К, т; К1, Тх; ...; Км, Тм) = П Р (Кт, тт). Ш=1 Используя этот результат, а также то, что число электронов, вылетевших в заданном интервале времени, имеет распределение
7.3. Средний ток диода в режиме насыщения 143 Пуассона, находим, что p(Ki, *i; •••; км, 1м\к, т) = Г ГТ (птт)к™ехр(—птт)1 /(лг)кехр( —пт)_ “ L И Кт1 J/ К! т=1 М К (7-26) Т Ат1 т=1 Предположим теперь, что N-^M из чисел Кт равны единице, а остальные — нулю, и те из подинтервалов, для которых Кт = 1, занумеруем индексами и, где n = l,...,JV. Здесь K = N, и мы хотим найти вероятность того, что если в интервале времени длины т вылетело N электронов, то в каждом из неперекрыва- ющихся подинтервалов длины тп, таких, что N 3 тп<т, п=1 вылетает один электрон. В этом случае, согласно равенству (7.26), N Р(/С1,т1; ...;/СМ)Тм|^,т) = ^П тп- (7.27) П=1 Можно показать1), что тот же результат получится, если рас- сматривать моменты вылета отдельных электронов как неза- висимые случайные величины, плотности распределения которых равны константам: [ i при £4-т, P(U= т (7.28) i 0 при других tn. По этой причине пуассоновский процесс иногда называют «чисто случайным» процессом. 7.3. Средний ток в диоде, работающем в режиме насыщения Полный ток, протекающий через электронную лампу, склады- вается из импульсов тока, возникающих при пролете через лампу отдельных электронов. В § 7.1 было отмечено/ что для диода, работающего в режиме насыщения, влияние пространственного заряда- пренебрежимо мало; поэтому взаимодействие между от- дельными электронами, пролетающими через лампу, здесь прак- тически отсутствует и полный ток равен просто сумме* импульсов *) См. задачу 2 настоящей главы.
144 , Гл. 7. Дробовой шум тока, вызываемых отдельными электронами, причем эти импульсы имеют одинаковую форму и получаются друг из друга переносами во времени, задаваемыми моментами вылета соответствующих электронов. Таким образом, если с некоторого диода, работающего в режиме насыщения, з < время ( —Т, +Т), много большее, чем время пролета одного электрона та, вылетает К электронов, то к 7(0=5 ie(i-h) при (7.29) k=i где ie (0 — импульс тока, создаваемый в анодной цепи электроном, вылетевшим в момент / = 0, а ^ — момент вылета k-ro в рассма- триваемом интервале времени электрона. Это равенство неверно для значений t, отстоящих меньше, чем на ха, от левой границы интервала; однако «концевыми» эффектами можно обычно прене- бречь, так как 2Т > ха. Осреднение по времени. Определим теперь временное среднее (/(/)) полного тока, протекающего через диод. Если за время (— Т, +Т) с диода вылетает К электронов, то, согласно равенству (7.29) и определению временного среднего, к +т (/(/))= lim 2^3 ie(t-th)dt. т^°° /1=1 -т Так как все импульсы тока имеют одинаковую форму и полу- чаются друг из друга переносом во времени, то +т +г 4(/ —<ь)Л = $ ie(t)dt = e, -т -т где е — заряд электрона. Следовательно, каждое из К слагаемых предыдущей суммы имеет одинаковую величину е, и мы получаем результат, который вряд ли является неожиданным: временное среднее полного тока диода равно произведению заряда электрона на среднее во времени число электронов, проходящих через диод в одну секунду, т. е. </(ф = е(п), (7.30) где (n)=limA. (7.31) Т->оо Статистическое осреднениех). Интересно найти теперь матема- тическое ожидание полного тока диода. Если мы будем рассматри- вать диод,- о котором шла речь выше, как один из членов ансамбля 1) Ср. Райс (I, §§ 1.2 и 1.3).
7.3. Средний ток, диода в режиме насыщения 145 одинаковых по своим физическим характеристикам ламп, работаю- щих в режиме насыщения, то, так как мы уже предположили статистическую стационарность рассматриваемой системы, форму тока в этом диоде можно трактовать как выборочную функцию эргодического ансамбля, состоящего из форм тока во всех диодах. Следовательно, выражение (7.30) для среднего по времени значе- ния тока диода с вероятностью единица равно математиче- скому ожиданию. Однако нас будет сейчас интересовать не столько сам результат, сколько метод, которым он может быть получен. Рассмотрим снова полный ток диода в интервале времени ( — Т, + Т). Поскольку отдельные электроны вылетают в различ- ные моменты th, число К электронов, вылетевших в течение этого времени, является случайной величиной. Мы можем вычислить поэтому математическое ожидание E(It) полного тока диода, осредняя выражение (7.29) относительно набора из К 4- 1 случай- ных величин, состоящего из К моментов вылета электронов th и самого К: ( -{-оо -{—со К E(It) =$•••$ [ S г‘е Ptti................tK.Kjdt,... dtKdK = —oo —oo k—i 4-00 4-00 к = V - $ [2 ...» tk\K)p(K)dt1...dtKdK. —co —oo k=i (7.32) BJ[§ 7.2 было отмечено, что моменты вылета электронов явля- ются независимыми и равномерно распределенными случайными величинами. Поэтому, используя равенство (7.28), получаем 4-00 к 4-Т +Т -оо -Т —Т 4-00 К 4-Т = $РИ)[2 2Г [iAt-^dt^dK. —со k=l —Т Как и прежде, все импульсы тока имеют ^одинаковую форму и интеграл от каждого из них равен е. Таким образом, все К слагаемых суммы в квадратных скобках имеют одинаковые значе- ния е/2Т и +оо £(/t) = -^- \Kp(K)dK. —СО Согласно результатам § 7.2, /С имеет распределение. Пуассона с математическим ожиданием п2Т, где п — среднее число Ю Заказ К. 57
146 Гл. 7. Дробовой шум электронов, вылетающих за одну секунду. Итак, полагая I = Е (Jt), имеем __ 1 — еп, (7.33) что является статистическим эквивалентом равенства (7.30). В дальнейшем в настоящей главе мы не раз еще воспользуемся процессом статистического осреднения по набору К + 1 случайных величин, состоящему из К моментов вылета tk и самого /<. 7.4. Спектральная плотность дробового шума диода, работающего в режиме насыщения Корреляционную функцию полного тока диода можно найтщ снова рассматривая ток, протекающий в интервале времени (-Т, +У), как сумму импульсов тока, вызываемых отдельными электронами, и производя операцию статистического осреднения так же, как в § 7.3. Таким образом, Н-ОО -4-00 К К /?г(т)= ... \ [2 [2х —оо —оо k=i j=l X р (?!....tK, К) dti ... dtK dK. (7.34) Как и прежде, (К + 1 )-мерную плотность совместного распределе- ния вероятностей можно записать, в силу независимости случай- ных величин К и th, в форме произведения: +» к К 4-Т 4-т /?г(т)= ^P(/<)dK[2 2 $$-••• 5 -оо Lfe=lJ=l-T -Т Здесь № слагаемых под знаком двойной суммы могут быть раз- биты на две группы: К членов, для которых k = /, и № — /С членов, для которых k Ф j. При k = / рассматриваемый /С-кратный инте- грал по переменным tk принимает для всех k вид 4-г 4-т +«> = $ /е(ОЛ(/ + т)Л, -Т — Т —оо поскольку все импульсы тока имеют одинаковую форму (полу- чаются друг из друга сдвигом во времени) и равны нулю вне интервала (— Т, + Т). При k #= j интеграл по tk принимает вид 4-т 4-т -т -т 4-т 4-т 1 Г 1 Г Р2 = ~2Tr J dtk “2ТГ Н" т М dtj = (2Т)2 '
7.4. Спектр шума диода в режиме насыщения 147 Подстановка этих результатов в выражение для /?/(т) дает Ri(т) = (Z) ie + + е*Е*Т(2™~К} J И* J —oo Поскольку К —дискретная случайная величина, имеющая распре- деление Пуассона, Е2т (К) = n 271 и £2т (№ - К) = 3 (К2~К)(п2Л^ехР(~п27-) = (п2Т)г. (7.35) к=о Таким образом, мы получаем в результате, что корреляционная функция полного тока диода равна Ri(x) = n ^ie(t)ie(t + x)dt + (en)2. (7.36) —оо Если мы теперь определим z(0 как флуктуацию полного тока диода относительно его среднего значения, т. е. как шумовой ток диода, _ :(0 = /(0-Л (7-37) то мы видим, что, поскольку I == e/i, корреляционная функция шумового тока равна _+с° /?.(?)== л \ ie(t) ie(t + x)dt. (7.38) —оо Ниже мы вычислим (г) для частного случая плоскопараллель- ного диода. Спектральная плотность. Спектральную плотность S- (f) шумо- вого тока диода можно найти, взяв преобразование Фурье от выра- жения (7.38). Таким образом, 4-00 4-00 Si (/) = п ехр (— /сот) dr ie (/) ie (t -\-r)dt, — CO —co где (о=2л/. Полагая т = /' — t, получаем —4-00 4-«> •$t (f) = п 1е (/) ехр (/со/) dt ie (Г) ехр (— jtot')dt'. —оо —со • Если мы теперь определим G (/) как преобразование Фурье от им- 10*
148 Гл. 7. Дробовой шум пульса тока гв(0, вызываемого отдельным электроном, 4-00 G (/) = ie (/) ехр (- jwt) dt, —оо то получим Sdf)~n\G(f)\*. (7.39) Таким образом, спектральная плотность полного тока равна Sz(f) = ^|G(f)|2 + (en)26(f). (7.40) где импульс на нулевой частоте обусловлен наличием постоянной (средней) составляющей полного тока. Фиг. 7.2. Спектральная плотность дробового шума в плоскопараллельном диоде, работающем в режиме насыщения. Во многих применениях электронных ламп рабочая частота мала по сравнению с величиной, обратной к времени пролета для используемой лампы. В этих случаях спектральную плотность шумового тока можно считать приблизительно равной ее значению на нулевой частоте1). Из определения G(f) следует, что G(O) = e. Таким образом, согласно выражению (7.39), приближенное выра- жение для спектральной плотности шумового тока диода в режиме насыщения в области низких частот имеет вид 5.(1) = пе2 = еТ. (7.41) Этот результат известен как формула Шоттки. х) См., например, фиг. 7.2.
7.5. Распределение шума диода в режиме насыщения 149 Плоскопараллельный диод. Применим теперь полученные нами результаты к случаю плоскопараллельного диода, работающего в режиме насыщения. В § 7.1 мы нашли, что импульс тока, вы- званный пролетом одного электрона в такой лампе, имеет вид треугольника и задается выражением (7.13). Подставляя это выра- жение в равенство (7.38), получаем выражение для корреляцион- ной функции шумового тока в такой лампе ( 4е7 ( . 3 | т | , 1 | т |3 /?£(т) = ЗТаС1 2t«T2t3 ПР« та<г<та> (742) О при других т. Взяв преобразование Фурье от У?; (т), получаем спектральную плот- ность шумового токах) = -cos<OTa-tt>T0sin®Ta)]( (7.43) где ю = 2л/. Этот результат изображен графически на фиг. 7.2. 7.5. Плотность распределения вероятностей для дробового шума диода в режиме насыщения2) Полный ток, протекающий через диод, работающий в режиме насыщения, является суммой статистически независимых импульсов тока, вызванных пролетом отдельных электронов; поэтому можно ожидать, исходя из проведенного выше рассмотрения центральной предельной теоремы, что распределение вероятностей полного тока будет при неограниченном увеличении числа пролетающих в лампе электронов стремиться к гауссовскому. Действительно, так как на один ампер среднего тока через лампу пролетает приблизи- тельно 6,25•1018 электронов в секунду, то мы вправе предполо- жить, что полный ток диода является гауссовским вероятностным процессом. Однако вместо того, чтобы применять непосредственно центральную предельную теорему, мы выведем общее выражение Для функции распределения полного тока и затем рассмотрим ее предельное поведение при неограниченном увеличении среднего числа пролетающих через лампу электронов. Общий вид. Как и прежде, удобно, представить полный ток, протекающий в интервале времени (-—Г, +Т), как функцию от К -f- 1 случайных величин tk и /<. Плотность распределения ’) Ср. Ракк (I, ч. III). 2) Ср. Райс (I, §§ 1.4, 1.6 н 3.11)
150 Гл. 7. Дробовой шум вероятностей^ полного тока р (It) можно найти, исходя из . услов- ных плотностей распределений вероятностей р (It [ К), вычисляемых в предположении, что в заданном интервале времени через лампу пролетело К электронов. Для этого нужно воспользоваться соот- ношением р(Л)~ S W. (7.44) к=о вытекающим из (3.20), (3.29а) и (3.336). Условная плотность рас- пределения вероятностей р (It | /С) может быть легко получена из соответствующей ей характеристической функции M<it । к) (ju), имеющей вид к M(i । К) (/«) = Е {ехр [ju 2 ie (t - ^)]}• k—i Моменты вылета электронов th являются независимыми случай- ными величинами, и, следовательно, х M(I | К) (/«) = П Е {ехр [juie (t - fe=l В силу равномерности распределения моментов вылета, +т Е {ехр [juie (t - /ft)]} = J ехр [juie (t - £„)] dth. -т Таким образом, все К сомножителей в произведении имеют одина- ковый вид, и мы можем написать, что Г 1 V .к M(it । к) (ju) = { 2Г \ ехР У ~ dx } • -т Соответствующая условная плотность распределения вероятностей равна 1 Г 1 V 1 к Р(Ь\К)=2^ j ехр( — jult) exp[/«ie(Z-T)]dT| du. —со — Т Подставляя этот результат в (7.44) и используя то, что К имеет распределение Пуассона, получаем, что _+т Н-оо оо .{и j ехр[/н/е(г —T)dT]JK Р (Л) — ехР п 2^)2 ^1 —оо fe=0
7.5. Распределение шума диода в режиме насыщения 151 Сумма по К в этом выражении представляет собой разложение в степенной ряд экспоненциальной функции, и, следовательно, 1 +с° —оо __ _+Т X ехр | — п 2Т п ехр [juie (t — т)] dr| du. -т Если мы теперь представим 2Т как интеграл по т от единицы, распространенный на интервал (— Т, + Т), то получим +со _+т = Схр(-/ы/()ехр(п {ехр[/ше(/-т)]- \}dx^du. -оо -Т (7.45) Для значений t, превышающих время пролета та, импульс тока ie(t) равен нулю. Следовательно, для |/ — т|>та и для всех t, отстоящих от концов заданного интервала больше чем на та, ехр 1=0. (7.46) Таким образом, интервал интегрирования в (7.45) можно расширить в обе стороны до бесконечности и заменить t — x на Г. Тогда -f-oo +оо Р(Л)=2}Г ехр(/«/,)ехр(и {ехр[/шв(Г)]- l}dt'^du, (7.47) — 00 —оо что и дает нам общее выражение для плотности распределения вербятностей полного тока диода в режиме насыщения. Заметим, что полученный результат не зависит от это согласуется с преж- ним нашим утверждением о том, что исследуемый процесс явля- ется статистически стационарным вероятностным процессом. Предельный вид. Выражение (7.47) не дает наглядного пред- ставления о зависимости р(Ц) от It; поэтому выясним предельное поведение этого выражения при неограниченном увеличении сред- него числа п электронов, пролетающих через лампу в одну секунду. Согласно равенству (7.33), среднее значение полного тока диода при п—> со неограниченно возрастает; из равенств (7.33) и (7.36) вытекает, что должна неограниченно возрастать также дисперсия о2 полного тока, ибо __+°° о2 = ^/(0)-72 = п (7.48) I оо
152 Гл. 7. Дробовой шум Чтобы избежать этих трудностей, вместо предельного поведения самого тока диода Ц рассмотрим предельное поведение соответ- ствующей нормированной случайной величины xt lt-i а (7.49) Нормированный ток диода имеет, каково бы ни было значе- ние п, равное нулю среднее значение и равное единице значение среднеквадратичного уклонения. Характеристическая функция нормированного тока диода равна ЛЦ(/гО = Е[ехр(/у-^р-)] = ехр Q, (7.50) где Mit (ju) — характеристическая функция полного тока, равная, согласно (7.47), 4-со M,((/u) = exp(n {ехр[/«/^(<')] — (7.51) —ОО Следовательно, МХ( (Ju) = ехр ( - + п {ехр [ /P<8q(f} ] - 1} dt' ) . (7.52) —ОО Разлагая подынтегральное выражение в степенной ряд и интегри- руя результат почленно, получаем __ I п $ (ехр[£^]-1}л'=^ 5 ‘е(П^'-$- $ il(t')dt'_ —оо — ОО —оо _ -f-оо _ 4-оо -V $ 5 ie(t')dt'+.... —оо —оо Подставляя этот результат в равенство (7.52) и используя полу- ченные ранее выражения для 1 ио2 как функций от п, находим, что = + —оо —оо Поскольку а имеет порядок (п)1/2, слагаемое суммы в квадратных скобках, содержащее vk, |имеет порядок (п)-^-2^2 при &>3. Таким образом, при и—>оовсе слагаемые, кроме первого, стре-
7.5. Распределение шума диода в режиме насыщения 153. мятся к нулю, и, следовательно, lim Мх (jv) = exp( (7.53> П->оо V z / Итак, при неограниченном увеличении среднего числа электронов, пролетающих через диод в секунду, характеристическая функция, а значит, и плотность распределения вероятностей нормированного* тока становятся гауссовскими. Совместные распределения вероятностей. Плотности различных, совместных распределений вероятностей, характеризующих стати- стические свойства тока, протекающего в диоде, работающем в режиме насыщения, можно найти путем анализа, аналогичного* приведенному выше при вычислении p(It). Например, для нахож- дения плотности совместного распределения вероятностей p(Iv /2)> случайных величин ./х = и /2 = Т\ мы можем выразить токи. [ (/) и /(^ + т) в виде сумм отдельных импульсов тока. Тогда,, предполагая, что в интервале времени (— Т, + Т) вылетает К элек- тронов, мы можем написать к /(0=2 0(7-^ 6=1 и к /(*+0=2 о (*+*-*&). ' 6=1 где, как и прежде, — + Т. Используя распределения веро- ятностей для моментов вылета, мы можем сначала найти выраже- ние для условной^ совместной характеристической функции, /И(/11/2| К) (/«,/+) = к к = Е{ехр [ ju 2 ie (t - tk) + iv 2 о (/ + т - ] } - 6=1 6=1 и затем найти соответствующую условную плотность совместного’ распределения вероятностей p(Jv /2| /С). Плотность совместного^ распределения вероятностей p(Iv /2) можно найти, далее, осред- нением р (/х, 121X) относительно К. Если рассмотреть предельное поведение полученного результата при п —>оо, то видно, что* Ц) стремится к двумерной гауссовской плотности распределе- ния, Аналогичным методом можно также показать, что все Af-мерные- плотности совместных распределений вероятностей при п ~> со становятся гауссовскими и, следовательно, ток диода будет предо- ставлять собой гауссовский процесс.
154 Гл. 7. Дробовой шум 7.6. Ток диода, работающего не в режиме насыщения Диод, работающий в системе насыщения, представляет извест- ный теоретический интерес; однако на практике чаще приходится иметь дело с лампами, ток которых ограничивается не эмиссион- ной способностью катода, а пространственным зарядом — облаком электронов, находящихся в пространстве между катодом и анодом. В настоящем параграфе мы выведем соотношение между током диода, работающего не в режиме насыщения, и напряжением, приложенным к лампе. В последующих параграфах мы изучим влияние пространственного заряда на дробовой шум. Как и преж- де, мы ограничимся изучением обычных приемно-усилительных .ламп, о которых мы говорили в § 7.1. Предположим снова для удобства, что мы имеем дело с плоско- параллельным. диодом, катод которого расположен в плоскости х=0, а анод —в плоскости x = напряжение будем считать равным нулю на катоде и равным Va на аноде. Плотностью заряда в пространстве между катодом и анодом мы теперь пренебрегать не будем; следовательно, электрический потенциал в этом про- странстве должен удовлетворять уравнению Пуассона d2V q dx2 ~~ е0 Плотность пространственного заряда в некоторой точке функцией плотности проходящего через лампу тока и электронов в этой точке. Скорость электрона v в данной точке пространства между катодом и анодом зависит от скорости v0 •его вылета из катода и потенциала в данной точке, так как закон сохранения энергии требует, чтобы = + (7.55) Нулевая скорость вылета1). Прежде чем рассматривать общий случай, в котором скорость вылета электронов может быть любой положительной величиной, рассмотрим случай, когда все электроны имеют нулевую скорость вылета. Физически такая ситуация не очень реальна; однако ее анализ содержит много элементов, присущих и более общему случаю, и вместе с тем он проще и поэтому позволяет выявить основные использу- емые идеи, не затемняя их деталями. Если скорость вылета каждого из электронов равна нулю, то в плоскости х = х' пространства между катодом и анодом все они, согласно равенству (7.55), имеют скорости »М=[^Т- (7.54) является скорости ’) Ср. Хармэн (I, § 5.1).
7.6. Ток диода не в режиме насыщения 155 Таким образом, при х = х' скорости всех электронов одинаковы и плотность заряда, согласно (7.5), равна J j f т \i/2 ® v ~\ 2еУ ) ’ следовательно, уравнение Пуассона можно записать в виде d*V J ( т V/2 /7 • <7-5б> Умножая обе части равенства (7.56) на 2dV/dx, интегрируя по х и учитывая, что У = 0 и dV/dx = Q при х=0, получаем Второе из использованных здесь условий* (dV/dx = 0) можно полу чить, продифференцировав равенство (7.55), что дает . dv dV fnv-r- = e-T-, dx dx и учтя, что v = 0 при х = 0. Извлекая, далее, квадратный корень из обеих частей равенства (7.57), интегрируя по х и решая полу- ченное уравнение относительно плотности тока, находим, что при V = Va и x = d _ 4е0 / 2е V/2 ~ 9 < т ) d2 (7.58) Этот результат известен как формула Чайльда — Ленгмюйра\ он по- казывает, что плотность тока пропорциональна приложенному напря- жению в степени 3/2. Поскольку мы имеем дело с плоскопараллельным диодом, полный ток равен просто произведению плотности тока на площадь анода. Случайно распределенные скорости вылета1). Случай нуле- вых скоростей вылета привлекает своей простотой; однако в реаль- ных термоэлектронных лампах ситуация оказывается сущест- венно более сложной. В таких диодах скорость вылета элек- трона может принимать любое положительное значение и является случайной величиной, имеющей распределение Максвелла или Рэлея, т. е. имеющей плотность распределения Р М = mvQ Z mv% \ п при 0<г'°’ 0 при других v0, (7.59) *) Ср. Ленгмюйр (I).
156 Гл. 7, Дробовой шум где k — постоянная Больцмана (1,38-10“23 джоулей на градус Кельвина), а Тс — температура катода (в градусах Кельвина)1)" Пространственный заряд в области между катодом и анодом обусловлен электронами, а заряд электрона отрицателен; поэтомуг согласно уравнению Пуассона (7.54), наклон графика распределе- ния потенциала в области между катодом и анодом должен воз- растать с удалением от катода. Если этот наклон положителен,, то соответствующее электрическое поле создает ускоряющую силуг действующую на электрон, и, следовательно, скорость электрона Фиг. 7.3. Распределение потенциала в плоскопарал- лельном диоде, работающем не в режиме насыщения. растет. Если! наклон отрицателен, то на электрон будет действо- вать тормозящая сила и скорость электрона будет падать. Таким образом, если поток электронов, попадающих на анод, ограничи- вается пространственным зарядом, то где-то между катодом и ано- дом должен располагаться минимум потенциала и график распре- деления потенциала должен иметь форму, изображенную на фиг. 7.3. При этом анода достигают только те электроны, скорость вылета которых оказывается достаточной для преодоления тормозящего действия поля между катодом и плоскостью минимума потенциала. Согласно равенству (7.55), скорость vm электрона в плоскости минимума потенциала равна = + . (7.60> где Vm — минимальный потенциал (являющийся отрицательным); следовательно, критическая скорость вылета vc (т. е. та наи- меньшая скорость вылета, при которой электрон еще может 9 9 Линдсей (I, гл. V, § 5) или Ван дер Зил (I, § 11.2).
7.6. Ток, диода не в режиме насыщения 157 достичь плоскости минимума потенциала) равна (7.61) Если у0>ус, т0 электрон пролетает на анод; если о0 < ис, то электрон возвращается к катоду. Поскольку при любом представляющем интерес значении тока катода ежесекундно вылетает очень большое число электронов, любое практически наблюденное распределение их скоростей будет, вероятно, лишь мало отличаться от распределения Максвелла1). «Следовательно, приращение анодного тока, вызванного электронами, скорость вылета которых лежит в пределах (у0; v0 + dv0), равна dJ (ц>) = JsP(Ц,) dv0 = ехр ( -dv0, (7.62) где js — ТОк насыщения, т. е. полное значение плотности тока эмиссии. Плотность тока J за плоскостью минимума потенциала равна, следовательно, '-Ч <7-63> % где нижний предел равен ц., ибо анодный ток образуют только те электроны, у которых vQ > vc. Для того чтобы суметь решить уравнение Пуассона (7.54), мы должны выразить плотность заряда в некоторой плоскости х через плотность тока на этой плоскости. Электронное облако, образующее пространственный заряд, состоит из электронов, имею- щих некоторое распределение скоростей. Приращение плотности пространственного заряда dq (ц>) в плоскости х, вызванное электро- нами, скорости вылета которых лежат в пределах (у0, уо+^о), равно . = (7.64) где v (vQ) — скорость в плоскости х электрона, вылетевшего из катода со скоростью с>0. Подставляя в это выражение значение (ц>)> определяемое равенством (7.62), получаем Р^шая уравнение (7.55) относительно v0 и подставляя найденное значение vQ в последнее равенство, а также заменяя в нем Js *) Ср. § 5.5 и, в частности, неравенство (5.32).
158 Гл. 7. Дробовой шум в соответствии с равенством (7.63), приходим к соотношению _ do (о \ _ j^Lexn Г I exo Г ~OTt,8(t,o) 1 v°dv<> «е Щ>) - kTe ехр kTc j ехр [ J 0 (Oe) • Поскольку V при данном х постоянно, из (7.55) следует, что v dv = о0^о> откуда - = w; ехР [ --YkT'm} ] ехр (^7") dv. (7.65). Для упрощения дальнейших вычислений введем нормированную потенциальную энергию r\=^(V^Vm) t7-GQ> с и нормированную скорость “ = (7-67> Тогда выражение для приращения плотности заряда в плоскости л\ вызванного электронами, скорости которых лежат в интервале (у, v + dv), можно переписать в виде - dQ = j( -S^-Y2 е” e~ui du. (7.68) X, Я/ c у Общая плотность заряда в плоскости х находится теперь интегри- рованием соотношения (7.68) по соответствующему интервалу скоростей. Предположим, что плоскость х расположена между плоскостью минимума потенциала и анодом; мы будем называть эту область пространства между электродами областью 0. В область 0 попа- дают лишь те электроны, скорость вылета которых превосходит критическое значение, т. е. те, для которых t/0 удовлетворяет нера- венствам — = —+ оо. Из (7.55) следует, что соответствующие неравенства для скоро- стей электронов в плоскости х имеют вид e(V-Vm)< —< 4-00, или, если использовать нормированную скорость, Д<^>-Л<И-< + оо. «2 Q Следовательно, полная плотность заряда в некоторой плоскости
7.6. Ток диода не в режиме насыщения 159 области Р равна Гч Входящий в это соотношение интеграл можно вычислить с по- мощью функции erf z = -^= e~u2du, (7.69> /л где erf(+оо) = 1. Выражение для может быть переписано в виде оо 'К'П '-“’''“I <2feTcy I у л J V л1 J J r О О - и, следовательно, -е₽ = Ч^-),/2е’1. (7.70> Предположим теперь, что плоскость х расположена между катодом и плоскостью наименьшего потенциала; эту область про- странства между электродами мы будем называть областью а. Здесь через плоскость х пролетают две группы электронов: элек- троны, движущиеся от катода к плоскости минимума потенциала, и электроны, движущиеся в обратном направлении — к катоду. Скорости в плоскости х электронов первой группы удовлетворяют неравенствам п mv2 I ° < -2- < + 0° ’ и, следовательно, О < и2 < + оо. Ко второй группе относятся электроны, обладающие скоростями^ достаточными для достижения плоскости х, но не достаточными для преодоления плоскости минимума потенциала. Для них и, следовательно, Поскольку плотности зарядов, вызванных обеими этими группами электронов, имеют одинаковые знаки, полная плотность заряда
d60 Г л. 7. Дробовой шум в плоскости х оказывается равной -еа=^(^-),/2е”[ $ e-^du+ . 4 ° о о Таким образом, используя (7.69), имеем -ea = j(^yMl+erf/nL (7.71) Подставим теперь найденные нами выражения для плотности ►пространственного заряда в уравнение Пуассона. Тогда = :(7-72) где положительный знак соответствует положению плоскости х в области а, а отрицательный знак —в области 0. Умножая обе части равенства (7.72) на 2dV/dx и интегрируя от хт до х, по- лучаем е’[1±ег№, Vm •поскольку dV/dx = Q при х = хт. Из определения т| следует, что d^=w-cdV> >м поэтому <7-73) Введем новую пространственную переменную <7-74> Тогда уравнение (7.73) можно переписать в виде л п = П ± erf ]/т)] dr} = 2^— 1 ± е1! erf ]/т| dt]. о 6 Второй интеграл может быть проинтегрирован по частям, и в результате мы получаем Й)'-* (7-75) •где ф (Т)) = е” - 1 ± (е» erf ~^= . (7.76)
7.6. Ток, диода не в режиме насыщения 161 Решением уравнения (7.75) является интеграл ч (”7) Задача сведена, таким образом, к квадратурам. К сожалению, вычисление интеграла (7.77) в конечном виде с помощью элемен- тарных функций невозможно, и здесь приходится прибегать к численному интегрированию. Результаты такого численного решения табулированы в работе Ленгмюйра (I). Если, однако, предположить, чтот] велико по сравнению с еди- ницей, то можно легко найти приближенное выражение для инте- грала (7.77). Можно показать, что в этом случае для значений х, соответствующих области 0, равенство (7.76) приводится прибли- женно к виду <Р„(П) = 2(4У-1 и равенство (7.77) переписывается приближенно в виде о Разлагая выражение в скобках в степенной ряд, получаем V 2 У п/ “ У т| ‘ ‘ Теперь подставляем этот ряд в наше выражение для gp и инте- грируем почленно. Получаем = j . (7.78) Соответствующее выражение для плотности тока через анодное напряжение может быть получено подстановкой сюда выражения для g (x = d) из равенства (7.74) и выражения для i] (I/ = I/a) из равенства (7.66) и последующим решением полученного урав- нения относительно J. Таким образом мы получаем, что Z_4ee/-2e\>/l(Ve-Vm),/M1 'ЗГ nkTc -|V2 1 а это соотношение в предположении т] > 1 сводится к равенству , 4е0/ 2e\V2(Va-Vm)3^ , (d-Xm^ • (7-80) Сравнивая этот результат с полученным ранее для случая ну- левых скоростей вылета, мы видим, что диод, работающий И Заказ № 57
162 Гл. 7. Дробовой шум не в режиме насыщения, при случайно распределенных скоростях вылета электронов из катода действует (в предположении, что анодное напряжение велико по сравнению с kTc/e) так, как если бы его катод был расположен в плоскости минимума потенциала, а скорости вылета всех электронов были бы равны нулю. 7,7 . Дробовой шум диода, работающего не в режиме насыщения Как и в случае режима насыщения, флуктуации в эмиссии электронов из нагретого катода вызывают в диоде, работающем не в режиме насыщения, флуктуации протекающего через лампу тока. Однако здесь даже в том предположении, что моменты вылета электронов являются независимыми случайными величинами, попадание электрона на анод зависит от ранее вылетевших элек- тронов. Дело в том, что, как уже было сказано в предыдущем параграфе, возможность попадания электрона на анод зависит от того, окажется ли его скорость вылета достаточной для про- хождения плоскости минимума потенциала; глубина же этого минимума зависит от ранее вылетевших электронов. Нетрудно установить качественно действие пространственного заряда на спектральную плотность дробового шума, если огра- ничиться рассмотрением частот, малых по сравнению с величиной, обратной к времени пролета электронов. Предположим, что эмис- сия электронов катодом мгновенно возросла. Добавочные элек- троны увеличат имеющийся пространственный заряд; это приведет к возрастанию глубины минимума потенциала и повышению кри- тического значения скорости электронов. Таким образом, хотя общее количество вылетающих электронов выросло, доля их, попадающая на анод, уменьшится. С другой стороны, если про- исходит мгновенное уменьшение эмиссии, то падает глубина минимума потенциала и доля электронов, достигающих анода, возрастает. Таким образом, ограничивающее действие простран- ственного заряда приводит к сглаживанию флуктуаций тока, и дробовой шум лампы, работающей не в режиме насыщения, оказывается меньше, чем при том же среднем значении тока у лампы, работающей в режиме насыщения. По существу дела сглаживание флуктуаций пространственным зарядом обусловлено тем же механизмом, который не позволяет току лампы достигнуть насыщения. Количественный расчет ограничивающего влияния простран- ственного заряда на низкочастотные составляющие спектральной плотности дробового шума является довольно сложным, и мы не будем его приводить здесь. Укажем лишь основные этапы такого расчета1). В предположении, что распределение скоростей х) См. Ракк (I) или Томпсон, Норт и Харрис (I, стр. 75—125, ч. II, «Диоды и триоды с отрицательной сеткой»).
7.7. Дродовой шум диода не в режиме насыщения 163 вылета электронов является распределением Максвелла, анализ, проведенный в предыдущем параграфе, позволяет найти плотность анодного тока. Предположим теперь, что происходит приращение эмиссии электронов с начальными скоростями в интервале (у и соответствующее приращение плотности тока эмис- сии 6/о(уо)- Тогда для отыскания нового значения плотности анод- ного тока тем же методом, что и в предыдущем параграфе, опре- деляется новая плотность пространственного заряда; эта новая плотность заряда подставляется в уравнение Пуассона, и решается это уравнение. Если приращение эмиссии достаточно мало, то диф- ференциальное уравнение, связывающее нормированную потен- циальную энергию т] и пространственную переменную будет отличаться от уравнения (7.78) только прибавлением к <р(ц) допол- нительного слагаемого. Здесь снова оказывается необходимым решение численными методами, хотя здесь можно также найти приближенное решение, пригодное при больших т]. При небольших приращениях эмиссии результирующее приращение плотности анод- ного тока 6/ будет пропорциональным приращению плотности тока эмиссии: 6J = у (о0) 6Jo (v0), где коэффициент пропорциональности у (vQ) является функцией от Фактическое распределение скоростей вылета электронов флук- туирует от момента к моменту вокруг распределения Мак- свелла, что вызывает флуктуации тока эмиссии. Основное пред- положение при исследовании дробового шума состоит в том, что ток эмиссии катода лампы ограничен температурой катода и что всякая фиксированная часть тока эмиссии также ограничена тем- пературой катода. Таким образом, спектральная плотность флук- туаций плотности тока эмиссии, обусловленных изменениями эмиссии электронов в фиксированном интервале скоростей (уо>^о + ^о), равна edJ^(vQ). Флуктуации плотности тока эмиссии д 4 (vo) вызывают флуктуации плотности анодного тока у (у0) 6Jo (t/0); поэтому спектральная плотность (f) результирующих флуктуаций плотности анодного тока равна 5dj(/) = Y2k4)^dJo(yo)- Полная спектральная плотность флуктуаций плотности анодного тока Sj (f) может быть найдена суммированием полученного резуль- тэта по всем интервалам изменения скоростей: ОО оо (/) = е у2 (о0) d Jo (v0) = е у2 (v0) Jsp (v0) dv„, О 6 где р (у0) — распределение скоростей, определяемое равенством! (7.59), a d,J задается равенством ^(7.62). Используя (7.63), 11*
164 Гл. 7. Дробовой шум мы можем переписать последнее выражение в виде оо (/) = eJ $ Y2 (»о) ехР ( - Р (»<>) <4- О Спектральная плотность флуктуаций анодного тока находится умножением этого результата на площадь анода. Итак, мы видим, что ограничивающее действие, оказываемое пространственным Фиг. 7.4. График зависимости коэффициента де- прессии и эффективной температуры от нормированной потенциальной энергии для диода, работающего не в режиме насыщения [график заимствован из книги Томпсона, Норта и Харриса (I) (фиг. 5, ч. II)]. зарядом на низкочастотные составляющие спектральной плотности флуктуаций анодного тока, можно оценить, умножив правую часть формулы Шоттки (7.41) на коэффициент депрессии Г2: ЗД/) = г/Г2, • (7.81) где Г2 определяется приведенным выше интегралом и удовлетво- ряет неравенствам 0 < Г2 < 1. Г рафик Г2 как функции от т] при- веден на фиг. 7.4. Этот график построен по результатам Норта,
7.8. Дробовой шум триодов и пентодов 165 предполагавшего, что ток диода далек от насыщения. Норт полу- чил следующую асимптотическую формулу для Г2: Г2_ 9(1-л/4) _9(l-n/4)Wc П “ e(Va-Vm) • Этот результат, также изображенный на фиг. 7.4, приближенно верен при значениях Г|, больших по сравнению с единицей, но достаточно малых для того, чтобы диод работал не в режиме на- сыщения. Асимптотическое выражение для Г2 можно также пред- ставить в виде Г2 = з(Д--%-)—, (7.83) где — динамическая проводимость диода;. согласно (7.80), (va-vm) • . (7-84) Подставляя выражение (7.83) в модифицированную формулу Шоттки (7.81), получаем Sl{f) = 2kTettgd, (7.85) где Теи = з(1~)тв = 0,644Тс. (7.86) Формула (7.86) дает асимптотическое выражение для Tei{\ график Tett/Tc как функции от т), также построенный по результатам Норта, представлен на фиг. 7.4. В § 9.4 мы покажем, что про- водимость g при температуре Т вызывает появление тока гаус- совского теплового шума со спектральной плотностью низкочастот- ных составляющих S(f) = 2kTg. Таким образом, с точки зрения образования шума диод, работа- ющий не в режиме насыщения, действует так же, как прово- димость gdt работающая при температуре, составляющей 0,644 от температуры катода диода. 7.8 Дробовой шум триодов и пентодов, работающих не в режиме насыщения Исчерпывающий анализ дробового и других видов шумов в многоэлектродных электронных лампах лежит за пределами настоящей книги. Читатель, интересующийся этим вопросом, может обратиться к другим источникам1). Здесь же мы рассмотрим лишь ’) Например, Ван дер Зил (I, гл. 5, 6, 14^и 15).
166 Гл. 7. Дробовой шум некоторые результаты, относящиеся к низкочастотным составля- ющим дробового шума в триодах и пентодах. Триод с большим |ы. Если пренебречь шумом, который возни- кает в цепи управляющей сетки при прохождении сквозь нее потока электронов, то достаточно обоснованный анализ низко- частотного дробового шума триода с большим р и отрицательной управляющей сеткой может быть проведен следующим образом. Предположим, что управляющая сетка совершенно не поглощает электронов и что все электроны вылетают с катода с нулевой начальной скоростью. Можно показать1), что в этих условиях плотность анодного тока плоскопараллельного триода с отрица- тельной сеткой равна I -15» С 2е "\1/2 [д(У«+УР/Ю13/г п 87ч ~ 9 < т ) d*, ’ ( ' где Vg — разность потенциалов катод-сетка, Vp — разность потен- циалов анод-сетка, р — коэффициент усиления и о — геометриче- ский коэффициент, имеющий вид 1+— Р \dcg) где dcg — расстояние между катодом и сеткой, a dcp — между като- дом и анодом. Для обычных приемно-усилительных ламп 0,5 < о < 1. Сравнение выражения (7.87) с аналогичным выражением для плоскопараллельного диода (7.58) показывает, что свойства триода могут быть выражены через свойства эквивалентного диода, в котором расстояние между катодом и анодом равно расстоянию между катодом и сеткой в триоде, а анодное напряжение задается равенством / Vv\ = G • <7-89) \ г* / Теперь мы можем оценить шумовые свойства триода, применяя полученные в предыдущем параграфе результаты к эквивалентному диоду. Так, например, согласно (7.85); спектральная плотность дробового шума, создаваемого анодным током, может быть запи- сана для низкочастотных составляющих в виде 5iT(f) = 2fe(0,644Tc)gre3, (7.90) *) См. Шпангелберг (Г, § 8.5).
7,8. Дробовой шум триодов и пентодов 167 где ^ — динамическая проводимость эквивалентного диода. Так как _ 1 дУа~ dVg\dVa) а ’ где gm — динамическая крутизна триода, то равенство (7.90) можно переписать в виде SiT(f) = 2k(±*^gm, (7.91) используя только параметры триода. Пентод1). Определим теперь спектральную плотность дробо- вого шума, создаваемого анодным током пентода. Мы будем исхо- дить из предположения, что напряжения на всех электродах по отношению к катоду поддерживаются постоянными и что управ- ляющая сетка имеет отрицательный потенциал, обеспечивающий полное отсутствие сеточного тока. При этом участок лампы от катода до экранной сетки работает, как триод не в режиме насыщения, и мы можем применить полученные выше для триода результаты к оценке дробового шума, создаваемого потоком электронов, образующим катодный ток пентода. Однако из-за рас- пределения катодного тока между экранной сеткой и анодом воз- никают дополнительные эффекты. Если экранная сетка достаточно мелка, то поглощение ею того или иного электрона не зависит от того, что происходит с другими электронами; случайный харак- тер распределения катодного тока между экранной сеткой и ано- дом порождает дополнительный шум, называемый шумом распре- деления. Для того чтобы исследовать шум распределения, удобнее всего представить катодный ток (до достижения им экранной сетки) как сумму импульсов тока, вызванных отдельными электронами, подобно тому, как мы это делали в §§ 7.3 и 7.4. Тогда, пред- полагая, что в интервале времени ( — Т, + Т) возникает К импуль- сов, мы можем написать, что катодный ток (7.92) k=i где моменты «вылета» tk соответствуют, .скажем, моментам про- хождения электронами плоскости минимума потенциала. Моменты tk можно предполагать распределенными равномерно, т. е. p(/ft) = f '27г При (7.93) I 0 при других tk‘, птп *19^’ Компсон, Норт и Харрис (I, ч. III, «Многоэлектродные лампы»,
168 Гл. 7. Дробовой шум однако, в силу влияния минимума потенциала, они не являются независимыми случайными л величинами. Поскольку поглощение экранной сеткой отдельных электронов происходит независимым образом, мы можем выразить анодный ток в виде Д,(0 = YYAt-h), (7.94) fc=l где Yk — независимые случайные величины, каждая из которых может принимать одно из двух значений: 1 с вероятностью р и О с вероятностью 1 — р. Поскольку Yk и ^ — независимые случайные величины, сред- нее значение анодного тока равно _ к к _ Ia = Е [ S Yki (t - th)J = pE [ 2 i(t - = pZc; (7.95) k=l k=l следовательно, P = ± и l-p = A, (7.96) * G 4 где /2(/) = 4(0 “ 4(0 — ток экранной сетки. Корреляционная функция анодного тока равна к к Ra (t) = Е [ 2 Yhi (t - th) I Yji (t + T - /,)] = fc=i 3=1 к к = E f 3 YkYji (t - tk) i (t + т - ^)], (7.97) k=l 3=1 где YkYj — математическое ожидание YhY}- В силу взаимной неза- висимости случайных величин Yk, YkYf = ( при k = /, при k ф ]\ (7.98) Подставляя этот результат в (7.97), получаем • к Ra(r) = pE\^ i(t-th)i(t+r-tk)] + k=l к к + Р2Е [ 2 .3 i (t - tk) + Т - /у)1, 3 = 1 откуда, прибавляя и вычитая первое слагаемое, умноженное на
7.8. Дробовой шум триодов и пентодов 169 р2, находим, что к /?aW = P(l -Р)^12 + /?=1 г К К п + Р2£ s .1 + • (7.99} >-А=и=1 J Поскольку все импульсы тока имеют (приблизительно) одинаковую форму, к Е [ S 1 Ф + т - U ] = L fc=l 4-ЭО к -J-T = 5 pWdK'Z ± \ i(t-tk)i(t + r-tk)dtk = -со k=i -Т 4-00 = п i(t)i(i + x)dt, (7.100) —ОО где п = К/2Т — среднее число электронов, пересекающих в одну секунду плоскость минимума потенциала. Таким образом, по- скольку второе слагаемое в равенстве (7.99) есть просто умно- женная на р2 корреляционная функция катодного тока /?с(т)г корреляционная функция анодного тока равна _+°° яа (т) = Р (1 - р) П i + T)d/ + p2/?c(T). (7.101) —оо t Спектральную плотность анодного тока можно теперь полу- чить, применив преобразование Фурье к равенству (7.101). Расчет, аналогичный проведенному в разделе § 7.4, относящемся к спек- тральной плотности, показывает, что для низких частот инте- грал Фурье от первого слагаемого выражения (7.101) прибли- женно равен р(1 — р) е1с. Поскольку катодный ток ограничивается пространственным зарядом, спектральная плотность дробового шума катодного тока для низких частот равна приблизительно е!сГ2. Таким образом, используя (7.96), получаем выражение для спектральной плотности анодного тока в области низких частот: Sa (/) = е7с + ( Ь V [еГсГ2 + /2 д ())], где импульсное слагаемое обусловлено средним значением ка- тодного тока. Следовательно, доля низкочастотной спектральной плотности анодного тока, связанная с образованием дробового
170 Гл. 7. Дробовой шум шума, равна Sa'(f) = e/a Гг + гГ2] > (7-Ю2) что может быть переписано в виде Sa,(f) = e7a ГГ2+ ^(1 - Г2)1 . (7.103) L 1 Q -J Поскольку 0 < Г2 < 1 и /2 + /аГ2 < /с, из равенств (7.102) и (7.103) следует, что eTa^<Saf(f)<eTa9 (7.104) т. е. при том же среднем значении анодного тока у пентода, работающего не в режиме насыщения, шум, возникающий в анод- ной цепи, больше, чем у диода, работающего в том же режиме, но меньше, чем у диода, работающего в режиме насыщения. Полученные выше результаты основаны на предположении, что напряжение на экранной сетке относительно катода поддер- живается постоянным. Если это условие не выполняется, то дол- жен быть добавлен поправочный член, учитывающий корреля- цию между шумовыми токами анода и экранной сетки. 7.9. Задачи I1). Предположим, что моменты вылета электронов tn являются не- зависимыми случайными величинами и что, ?2^ятность вылета электрона в малом интервале времени Дт равна аДТ 1, а вероятность вылета в этом интервале более чем одного электрона равна нулю. Вывести равенство (7.17), разделив интервал (0, т) на М подинтервалов Дт = т/Л4, найдя вероят- ность того, что в некотором интервале не вылетает ни один электрон, и затем положив М —> оо. 2. Вывести равенство (7.27) в предположении, что моменты вылета электронов являются независимыми случайными величинами с плотностями распределения вероятностей 2^ т 0 Р(*п) = при t при других tn. (7.105) 3. Предположим, что импульс тока, вызванный пролетом электрона в диоде, работающем в режиме насыщения, имеет форму ае at 0 при 0 при t (7.106) Какова корелляционная функция и- спектральная плотность дробового шума =*того диода? ‘) Ср. Райс (I, § 1 1)
7.9. Задачи 171 4. Вероятностный процесс х (/) является линейной суперпозицией идентич- ных импульсов i(t — tk)> гДе +оо i(t)dt = O. —оо Моменты вылета статистически независимы и имеют равномерную плот- ность распределения вероятностей, задаваемую равенством (7.105). Вероят- ность того, что в интервале времени длины т вылетает К электронов, задает- ся распределением Пуассона [см. равенство (7.24)]. Новый вероятностный процесс у (/) определяется следующим образом: |/(0 = х(0х(/+6), ' (7.107) где б фиксировано. Показать, что = (т)+^ (6)4-7?ж(6+т)/?я(6-т). (7.108) 5. Предположим, что плоскопараллельный диод с максвелловским распре- делением скоростей вылета электронов из катода работает при анодном напря- жении Уа, существенно отрицательном по отношению к катоду, так что плоскость минимума потенциала в пространстве между катодом и анодом совпадает с анодом. Показать, что анодный ток 1и равен /а=Ае.хрГ-^У (7.109) где Ц — ток насыщения; показать также, что коэффициент депрессии равен единице и поэтому низкочастотная спектральная плотность флуктуаций анод- ного тока равна Si(f)^e7a = 2*^-^^d, (7.110) где gd~dla]d\/а— проводимость диода. 6. Предположим, что электрон, поступающий в электронный умножитель, выбивает п вторичных электронов с вероятностью рп и что момент поступле- ния первичного электрона имеет равномерную плотность распределения вероят- ностей, определяемую равенством (7.105). Показать, что гДе /0 и — соответственно выходной и входной токи. Показать, далее, что спектральная плотность флуктуаций выходного тока в области низких частот равна S0(f) = o2 (n) eli+^Si (/), где Si (f) — спектральная плотность флуктуаций входного тока в области низких частот.
Г лава 8 ГАУССОВСКИЙ ПРОЦЕСС В гл. 5 было показано, что распределение вероятностей суммы независимых случайных величин при неограниченном увеличении числа слагаемых стремится к гауссовскому. В гл. 7 мы устано- вили, что дробовой шум электронной лампы является гауссов- ским процессом; ниже, в гл. 9, мы увидим, что гауссовским процессом является также шум, порождаемый тепловым движе- нием электронов в сопротивлении. Таким образом, гауссовские случайные величины и гауссовские вероятностные процессы явля- ются особенно важными и заслуживают специального изучения. В этой главе мы исследуем некоторые из их свойств. 8.1. Гауссовские случайные величины Действительная случайная величина х, имеющая плотность распределения вероятностей <8J) изображенную на фиг. 8.1, называется гауссовской случайной величиной] ее характеристическая функция равна Mx(jv) = e-^* 2. (8.2) Соответствующая функция распределения1) имеет вид х P(x<X) = ^=\e-^dx. (8.3) —ОО Для больших значений X справедливо следующее асимптоти- ческое разложение 2) для Р(х<Х): р—-X2/ 2 р 1 1 о (8-4> 9 Обширные таблицы функций р(х) и 2Р (х < X) — 1 для гауссовских величин изданы Национальным бюро стандартов (I). 2) Ср. Двайт (I, равенство 586).
8.1, Гауссовские случайные величины 17а Поскольку приведенная выше гауссовская плотность является четной функцией от х, момент и-го порядка 4-00 Е(хп) = -^= ( xne-^2dx V2n J — ОО для нечетных значений п равен нулю: Е(хп) = О (при п нечетном). (8.5а) Фиг. 8.1. Гауссовские функция распределениям плот- ность распределения. При четном п>2 £(хп)= 1-3-5 ... (n—1), (8.56) в чем нетрудно убедиться прямым вычислением соответствующего интеграла1) или же последовательным дифференцированием гаус- совской характеристической функции. В частности, Е (х) = 0 и (8.6) а2(х) = £(х2) = 1. Рассмотрим новую случайную величину у = ах + т, (8.7) где х — гауссовская случайная величина, рассмотренная выше. *) См., например, Крамер (I, § 10.5) или Двайт [I, формула (861.7)]. |См. также Гнеденко (I, § 29). — Прим, ред.]'
174 Гл. 8. Гауссовский процесс Из равенств (8.6) и (8.7) следует, что Е(у) = т и . (8.8) a2G/) = or2. Плотность, распределения вероятностей величины у находим, ис- пользуя равенство (3.43): = <8-9> Соответствующая характеристическая функция равна му (М = ехР [ ivm - . (8. Ю) Случайная величина у является гауссовской случайной величиной со средним значением tn и дисперсией о2. Центральный момент n-го порядка случайной величины у равен И„ = £[(1/-т)«] = о”£(хп). Поэтому, согласно равенству (8.5), р/г = 0 при нечетном п (8.11а) и |1гг= 1 - 3-5 ... (n— 1)огп при четном п >2. (8.116) 8.2. Двумерное распределение Пусть х± и х2 — независимые гауссовские случайные величины с нулевыми средними значениями и дисперсиями соответственно о* и о2. Согласно равенствам (3.40) и (8.9), плотность совмест- ного распределения вероятностей этих случайных величин р(хр Х2) = 2Л01(Г2 еХРС ~2о?~ (8-12> Рассмотрим теперь две случайные величины yt и у2, получаю- щиеся из %! и х2 с помощью поворота: у. = х2 cos 6 — х2 sin 6, 1 х z (8 13\ y2 = x1sin6 4- x2cosO. ' * 7 Средние значения величин уг и у2 равны нулю, а дисперсии Р-20 = Е (У1) = cos2 0 + о« sin2 0, р02 = Е (у1) — of sin2 9 4 <j2 cos2 9. ‘ Ковариация Pu = E (ууу.,) = (о2 - о2) sin 9 cos 9, (8.15) вообще говоря, не равна нулю.
8.2. Двумерное распределение 175 Плотности совместного распределения вероятностей величин уг и у2 можно теперь получить, исходя из плотности совмест- ного распределения величин хх и’ х2. Решая уравнения (8.13) относительно хх и х2, получаем = У1cos 0 + У2 sin х2 = — х/хsin6Н- z/2cos 6, т. е. преобразование, обратное к повороту, является также пово- ротом. Якобиан этого преобразования cos 0 —sin 9 sin 9 cos 9 и, следовательно, ^^-У2) = -2^ в соответствии с равенствами (3.54) и (8.12)„ Г _ (</iCOs6+t/2sin 6)2 Р L 2g? (—1/1 sin 94-1/2 cos 0)2 2al Этот результат может быть выражен через моменты второго по- рядка величин i/j и у2: Р (У1, У г) =-----5-----тг ехр Г 1 . (8.16) 2л (Р20М-02—Р-11) 2 2(.и2оРо2—Р11) J 7 О случайных величинах у± и у2 говорят, что они имеют двумер- ную гауссовскую плотность распределения вероятностей. Таким образом, пару случайных величин уг и t/2, имеющих двумерную гауссовскую плотность распределения вероятностей (8.16), с по- мощью поворота системы координат можно преобразовать в пару независимых гауссовских случайных величин. Совместную характеристическую функцию величин уг и у± также можно получить, исходя из характеристической функции величин и х2: » м (Р1. /У2) = ехР [ -Т+ 2Нп°1°2 + Р02^2) ] • (8.17} Общие формулы. Случайные V _ #1 1 Г 20 являются нормированными, так величины i У2 = -^- Р-022 как £(Г1) = 0 = Е(Г2), о2(У1)=1=о2(У2). (8.18> (8.19>
176 Гл. 8. Гауссовский процесс В соответствии с равенством (8.18) их плотность совместного распределения вероятностей равна . • ” <у- ир I - 1 '8-20> где р — коэффициент корреляции величин и У2. Равенство (8.20) дает общий вид плотности совместных распределений ве- роятностей двух гауссовских нормированных случайных величин. Как следует из равенства (8.19), соответствующая характеристи- ческая функция равна М (/Ч,/Ч) = ехР [ -y(ui + 2eyiy2+ ф] (8-21) В общем случае гауссовская плотность совместного распреде- ления вероятностей двух действительных случайных величин yt и у2, имеющих средние значения т1 и т2, дисперсии и о2 и коэффициент корреляции q, равна _Yn Г (.yi-mj (уг-т2)+ о\(у2-т2у 1 p{t) ___________________________2^(!-с2)__________________1. 2 ‘ 2naia2 (1-q2)1/!! (8.22) Соответствующая совместная характеристическая функция М(ivi’ Ю = ехР [/ (mA + т2у2) - у №>1 + (8-28) Зависимость и независимость. Пусть Yr и У2 — нормированные гауссовские случайные величины. Условную плотность распреде- ления вероятностей величины Y2 при заданном YA можно получить, разделив выражение (8.20) на р(Кх); в результате найдем, что [ -га-’] • <8-24) Таким образом, условная плотность распределения вероятностей величины Y2 при заданном У\ является гауссовской величиной со средним значением рУ^ и дисперсией 1 — р2. „ Предположим, что Yx и Y2 некоррелированы, т. е. что р = 0. Тогда из (8.20) следует, что ИЛ, У2) = ^ехр( -Л+П^р^р^). (8.25) Итак, мы видим, что если две нормированные гауссовские слу- чайные величины некоррелированы, то они также и независимы. Отсюда следует, что если две любые гауссовские случайные величины некоррелированы, то они независимы.
8.2. Двумерное распределение 177 Линейные преобразования1). Имея дело с многомерными слу- чайными величинами, часто оказывается удобным пользоваться матричными обозначениями2). .Пусть, например, у — матрица-стол- бец, образованная двумя случайными величинами уг и г/2, у =[;;]; (8.26) a v — матрица-столбец с элементами v1 и и2, V =[;;]; (8.27) транспонируя эту матрицу, получаем матрицу-строку v': V' = [Vj V2]. Тогда, так как v'y = t»i!/i + v2y2, то мы можем выразить характеристическую функцию величин ух и у2 в виде М (М> М) = М (Л) = Е [ехр (/v'y)]. (8.28) В частности, если и у2 — гауссовские случайные величины, то в соответствии с равенством (8.23) мы можем написать, что М (/v) = exp(/m'v —у v'Av), (8.29) где m — матрица-столбец, составленный из средних значений, ">=[£]• (8.30) а Л —матрица ковариаций, Л= Га| °!?®!- (8.31) L aj.a2Q J Предположим теперь, что случайные величины уг и у2 имеют нулевые средние значения и что при помощи линейного преобра- зования они преобразуются в случайные величины zx и ?2: zi = апУ1+адг> z2 = a21yt + а22у2. *) См. Крамер (I, § 22.6 и 24.4) и Курант и Гильберт (I, гл. I). [См. также Смирнов (I, т. III, ч. I). — Прим, ред.} 2) См., например, Гилдебранд (I, гл. I). [См. также Смирнов (I, т. III, ч. I) — Прим, ред.} 12 Заказ № 57 (8.32)
178 Гл, 8. Гауссовский процесс В матричной форме это преобразование можно записать так: z = Ау, (8.33) где А — матрица преобразования, т. е. , А = И» 01121 , (8.34) L а21 a22 J az — матрица-столбец с элементами Zj и z2. Так как уг и у2 имеют нулевые средние значения, то как для zlt так и для z2 имеем £(z1) = 0 = £(z2). Дисперсии величин zx и z2 и их ковариации равны о2 (zx) = а^о2 + 2a11a12a1a2Q - a2 (z2) == a&f + + а22сг22, (8.35) £ (^1^2)-= ^11^21^1 "Ь (^11^22 ^21^12) ^1^2@ 4" ^12^22^2* Непосредственное вычисление показывает, что в этом случае матрицу ковариаций ц величин zr и z2 можно выразить через А равенством р = АЛА'. (8.36) Из равенства (8.28) вытекает, что характеристическая функция величин zr и z2 может быть записана в виде Mz (ju) = Е [ехр (ju'z)], что в соответствии с (8.33) можно переписать так: Мг (/u) = Е [ехр (/и'Ау)] = = Е [ехр (/w'y)] = Му (jw'), где мы положили w = A'u. Если ух и у2—гауссовские случайные величины с нулевыми сред- ними значениями, то, согласно (8.29), их характеристическая функция равна му (/w) = exp( — yw'Aw^ . Из определения w и равенства (8.36) следует, что w'Aw = u'AAA'u = u'p,u. (8.38) Из последнего результата и из равенства (8.37) вытекает, что характеристическая функция величин и г2 равна М2 (ju) = ехр ( — у и'ри . (8.39)
8.3. Многомерное распределение 179 Это выражение представляет собой характеристическую функцию пары гауссовских случайных величин с матрицей ковариаций ц. Итак, мы показали, что линейным преобразованием пары гаус- совских случайных величин является снова лара гауссовских слу- чайных величин. Равенство (8.16) является частным случаем этого общего результата. 8.3. Многомерное распределение *) Многомернай плотность совместного .распределения вероят- ностей N нормированных гауссовских действительных случайных величин Уп, по определению, равна W N ехР £ 2 | Q | 2 2 I J p(Yx,:..,Y^ =----------------, (8.40) 1 ’ (2л)^/21 q |/2 v 7 где IQ Inm — алгебраическое дополнение элемента Qnm в детерми- нанте | q | корреляционной матрицы Он 012 • • • Qizv 0 21 q22 . • • -Qni QN2 • • • Qwv (8.41) в которой ^nm-E{YnYm) и Qnn=l. (8.42) Соответствующая совместная гауссовская характеристическая функция равна N N м r(jv1....jvK) = ехр ( - у 2 5 QnmVnVm ) ; п=1 т=1 она может быть записана также в матричной форме: AM/v) = exp(-y v'qv) , где v — матрица-столбец ’ vi ~ vi v = - . (8.43) (8.44) (8.45) 0 См. Крамер (I, гл. 24). 12*
180 Гл. 8. Гауссовский процесс Плотность совместного распределения вероятностей N гаус- совских действительных случайных величин уп, имеющих средние значения тп и дисперсии сг^, может быть получена из соотноше- ния (8.40); она равна N N ехР £ 2 j Д | У1 21 ' Л J / \ n=l т= 1 Р[У1' • • •> Ун)~ (2n)N'2\A.\^ (8.46) где | A |nm — алгебраическое дополнение элемента Кпт в детерми- нанте | Л | матрицы ковариаций Ml М2 • • • - - Л = Mi ^*22 * * • ^*2V (8.47) _ %7Vl Mv2 • • • в которой ^пт = Е [(У/i ^Лг) (У~ (8.48) Соответствующая многомерная гауссовская характеристическая функция имеет вид N N N Му(/У1, ...,/yv) = exp(j2 «Л-у2 (8-49) п=1 п=1 т=1 Она может быть записана также в матричной форме Му (/v) = ехр jm'v — у v'Av (8.50) где гл —матрица средних значений: (8.51) - - Следует отметить, что равенство (8.29) является частнцм слу- чаем равенства (8.50). Предположим теперь, что W нормированных гауссовских слу- чайных величин Yn некоррелированы, т. е. что ( 1 при п = т, 0 при пфт. (8’52)
(8.55) 8.4. Гауссовский вероятностный процесс 181 Тогда плотность совместного распределения вероятностей вели- чин Yn, согласно (8.40), принимает вид N ехр(~т 2 Y^) n р0\......yN)=---------—= П р^- <8-53> п=1 Итак, если N гауссовских случайных величин некоррелированы, то они независимы. Предположим, далее, что N гауссовских случайных величин уп с нулевыми средними значениями преобразуются в N случайных величин гп посредством линейного преобразования: Zi = «и Ух + «12 У 2 + • • • + а1^Ую ^2 = «21 У1 + «22 У2 “Ь * * * “b «2NJ/n» (g 54) ZN — аН1У1 Н" аХ2У2 + • • • + а№*Уя- Пусть А —матрица этого преобразования: «11 «12 • • • «1N Д =_ «21 «22 • • * «2№ «т aN2 ... aNN_ Мы можем написать z = Ay, (8.56) где z — матрица-столбец с элементами zn, а у — матрица-столбец с элементами уп. Непосредственным вычислением можно показать, что, как и в двумерном случае, матрица ковариаций у, величин zn связана с матрицей ковариаций Л величин уп равенством р = АЛА'. (8.57) Действия с матрицами, с помощью которых в двумерном случае было показано, что величины, получаемые линейным преобразова- нием, также являются гауссовскими, без каких-либо изменений выполнимы и в многомерном случае. Следовательно, zn также являются гауссовскими случайными величинами. Итак, линейное преобразование гауссовских случайных величин приводит снова к гауссовским случайным величинам. 8.4. Гауссовский вероятностный процесс Вероятностный процесс называется гауссовским, если для любого конечного множества моментов времени tn случайные величины xn~xtn имеет гауссовскую плотность совместного распределения
182 Гл. 8. Гауссовский процесс вероятностей. Если рассматриваемый процесс является действи- тельным, то в соответствии с равенством (8.46) плотность сов- местного распределения вероятностей N случайных величин хп равна p(xv ...,xN) = N N exp £---2 । д | 2 I A |nm (*n mn) (xm mm) J - --------------------------------------------•- <8'58’ где mn = E (xn)== E (xtn), (8.59) a Л — матрица ковариаций, состоящая из элементов Кгт = & [(-^n ^n) (^т ““ ^т)1 ?т) (8.60) Если рассматриваемый процесс является стационарным в широком смысле, то Rx (tn, tm) = Rx (tn—tm) и mn = rnm = m. При этом кова- риации и плотности совместного распределения становятся функ- циями только разности моментов времени tn—-tm, а не самих tn и tm. Следовательно, стационарный в широком смысле, гаус- совский вероятностный процесс стационарен также, и в узком смысле. Если данный процесс является комплексным, то N комплекс- ных случайных величин %п %1п %п ]Уп> где действительные величины хп и уп должны иметь 2Л/-мерную гауссовскую совместную плотность распределения вероятностей. Линейные преобразования. Пусть вероятностный процесс с вы- борочными функциями x(t) является действительным гауссовским вероятностным процессом, и пусть интеграл ъ y=^x(t)a (?) dt, (8.61) а где я (/) —непрерывная действительная функция от t, существует в смысле, указанном в § 4.7. Покажем, что случайная величина у является действительной гауссовской случайной величиной. Разобьем интервал интегрирования на N подинтер- валов < t < tn, п == 1, ..., Af, где tQ = а и = b, и рассмотрим сумму Ух — 3 x(tn)a(tn)Mn, (8.62) П=1
8.4. Гауссовский вероятностный процесс 183 где Д/п = tn — tn^. Математическое ожидание этой суммы равно N Е (Уы) = 3 Е (xtn) а (^п) п=1 Если существует математическое ожидание величины у, т. е. если ъ Е (у) = Е (xt) a(t)dt < + оо, (8.63) а и если среднее значение вероятностного процесса Е (х() является непрерывной функцией от t, то1) lim E{yN) = E{y), (8.64) ZV->oo где все Д£п при N —> оо стремятся к нулю. Среднее значение квад- рата аппроксимирующей суммы равно N N E(yti) = 2 3 E{xinxtm')a(tn)a{tm)Mn^tm. n=l т=1 Если существует среднее значение квадрата величины у, т. е. если ь ь E(t/2)=^ E(xtxs)a(t)a(s)dtds < + оо, (8.65) а а и если корреляционная] функция E(xtxs) является непрерывной функцией от t и s, то lim£(^)==W). ’ (8.66) 2V->oo Таким' образом, из (8.64) и (8.66) следует, что lim о2(yN) = о2(у). (8.67) 7V->oo Мы можем теперь показать, что yN сходится в среднем к у. Рассмотрим выражение Е[(у - №)2] = Etf) - 2Е (yyN) + Е (y*N). (8.68). Мы можем представить Е (уу$) в виде N Ъ Е (УУх) = 2 [ Е (XtXtn) а dt^a (tn) Д/’*' п=1 а В силу непрерывности Е (xtxtn) по tn, непрерывным по tn является х) Курант (I, ч. I).
184 Гл. 8. Гауссовский процесс и выражение в квадратных скобках. Следовательно, согласно (8.65), ь ъ lim Е (уу$) = a (s) Е (xt xs) а (/) dtds = E (у2). (8.69) 7V->oo J J a a Подставляя (8.66) и (8.69) в (8.68), находим, что lim E[(y-yx)2] = 0. (8.70) jV->oo Итак, сумма (8.62) в среднем, а значит и по вероятности, схо- дится к у. Из результатов § 4.6, далее, следует, что функции распределения вероятностей суммы (8.62) сходятся к функции рас- пределения величины у. Остается найти вид функции распределе- ния величины у. Равенство (8.62) определяет yN как линейную комбинацию совокупности гауссовских случайных величин. Следовательно, аппроксимирующая сумма yN также является гауссовской случай- ной величиной, характеристическая функция которой в соответст- вии с (8.10) равна MyN (JO) = ехр [ jvE (ук) - °СТ-(ад ] . Из (8.64) и (8.67) следует, что предельная форма этой характе- ристической функции также является гауссовской: ^im Л4Уд, (jv) = ехр [ jvE (у) - ] . (8.71) Так как мы показали, что функции распределения аппроксимирую- щих сумм сходятся к функции распределения величины у, и так как предельная характеристическая функция для величин у# непре- рывна по v при v = 0, то отсюда следует, что1) Hm Му (jv) = M (jv) (8.72) 7V->oo и, значит, в соответствии с (8.71) у является действительной гауссовской случайной величиной. Если вероятностный процесс с выборочными функциями x(t) является комплексным гауссовским вероятностным процессом, то для доказательства того, что определяемая выражением (8.61) случайная величина у будет комплексной гауссовской случайной величиной, необходимо применить приведенные выше соображения по отдельности к действительной и мнимой частям х (/). При выполнении подходящих условий интегрируемости можно также показать, что если вероятностный процесс с выборочными Крамер (I, § 10.4). [См. также Гнеденко (I, § 37). — Прим, ред.]
8.4. Гауссовский вероятностный процесс 185 функциями x(t) является гауссовским и если интеграл 4-00 !/(/)= х(т) b(t, x)dx, (8.73) — ОО где b (t, т) — непрерывная функция от t и т, существует, то вероят- ностный процесс, имеющий выборочные функции y(t)t также является гауссовским. Ортогональные разложения. Пусть х (/) — выборочная функция стационарного гауссовского вероятностного процесса. Тогда, в соот- ветствии с результатами § 6.4 и предыдущего раздела, мы можем разложить этот процесс в интервале а < t < b в ряд Фурье 4-00 Х(О= 2 хпе™0*, = (8.74) П=—ОО где коэффициенты ь xn = -^ra\x(t)e~^dt (8.75) а — комплексные гауссовские случайные величины. Поскольку в пре- деле при (6 —а)—»оо эти коэффициенты становятся некоррели- рованными, они становятся также независимыми случайными величинами. Из результатов § 6.4 следует также, что гауссовский вероят- ностный процесс с выборочными функциями x(t) независимо от того, стационарен он или нет, может быть представлен в интер- вале [а, 6] обобщенным рядом Фурье *(0=S<WPn(0, (8.76) п где | ап |2 и фп (/) — соответственно собственные значения и соб- ственные функции интегрального уравнения 7? (t, s) <р (s) ds = Хф (t), (8.77) а а коэффициенты ь х(1 = -^-\х(Оф*(ОЛ (8.78) а являются некоррелированными (и, следовательно, независимыми)/ гауссовскими случайными величинами.
186 Гл. 8. Гауссовский процесс 8.5. Узкополосный гауссовский вероятностный процесс1) Вероятностный процесс называют узкополосным вероятностным процессом, если ширина полосы Af той области частот, где спек- тральная плотность имеет значительную величину, мала по срав- нению со средней частотой fc этой области. Типичная спектраль- ная плотность узкополосного процесса показана на фиг. 8.2. Если faff) Ki Фиг, 8.2. Спектральная плотность узкополосного процесса. посмотреть выборочную функцию такого процесса на экране осцил- лографа, то она будет иметь вид синусоиды с медленно меняю- щимися огибающей (амплитудой) и фазой. Это значит, что выбо- рочная функция узкополосного случайного процесса может быть -представлена в виде х (/) = cos [о)с/ +ф (0], (8.79) где fc = — средняя частота полосы частот процесса, а оги- бающая V (<) и фаза ф (t) — медленно меняющиеся функции времени. Формально возможность такой записи не ограничена случаем узко- полосного процесса; однако понятие огибающей полезно лишь тогда, когда изменения V (/) и ф (t) происходят медленно по сравне- нию с изменениями coscoc/. Распределения вероятностей огибающей и фазы. Выясним теперь некоторые статистические свойства огибающей и фазы узкополосного стационарного гауссовского вероятностного про- цесса. Для этого удобно представить заданный процесс в виде ряда Фурье в интервале 0 < t < Т: °° х (0 — 2 (xcn cos + xs« s’n (8.80) n=l где со о = 2 л/Т, т 2 С хсп = у \ х (0 cos n-G>ot dt (8.81а) о *) Ср. Райс (I, § 3.7). [См. также Бунимович (I, гл. 4). — Прим, ред.] *
8.5. Узкополосный гауссовский процесс 187 т 2 Г xsn \x(t)s\nn<aotdt. о (8.816) Из результатов § 6.4 и предыдущего параграфа следует, что эти коэффициенты являются гауссовскими случайными величинами и становятся некоррелированными при неограниченном увеличении интервала времени. Среднюю частоту узкой спектральной полосы можно ввести в рассмотрение, записав па0 в (8.80) в виде (п®0 — ®с) + <ос, где <вс = 2nfc, и разложив синусоидальные и коси- нусоидальные множители. Тогда мы получим равенство х (0 = хс (0 cos ~ х$ (0 sin (8.82) где, согласно нашему определению, ХС (0 = s lxcn cos (ncoo - <ос) t + xsn sin (П£йо - coc) (8.83a) n=l 14 Xs (0 = 3 sin («®0 - ®c) t — x*n cos (/MOo — ®c) (8.836) п==1 Из равенств (8.79) и (8.82) вытекает, что *c(0 = V(0 cos<p(0, (8.84a) и, следовательно, x,(f) = V(/)sinq>(0 (8.846) 14 И(0 = [хс2(0 + 4(0]1/2 (8.85a) <p(/) = arctg [ sj[ 1 , L AC J (8.856) где 0 < V (t) и 0 < <p (/) < 2л. Так как в (8.83) не обращаются в нуль только те члены, для которых значения nf0 лежат в заданной узкой спектральной полосе, то все частотные составляющие выбо- рочных функций xc(t) и xs(t) лежат внутри полосы ширины Д/ с центром в нулевой частоте. Следовательно, в аналогичной области частот расположены и все частотные составляющие огибающей и фазы. Случайные величины xct и xst, задающие возможные значения соответственно xc(t) и xe(t), являются суммами гауссовских слу- чайных величин и поэтому сами являются гауссовскими случайными величинами. Их средние значения равны нулю: E(xJ = 0-E(xJ, (8.86)
188 Гл. 8. Гауссовский процесс поскольку нулю равно среднее значение исходного процесса. Сред- нее значение квадрата величины xct, согласно (8.83а), равно ОО оо Е(хЪ) = 2 2 [^(Wcm) COS (/MOo-^cXeOS^O— + n=l m=l + E (xmxim) cos (n©0 - coc)/ sin (/n©0 - ac)t + + E (xsnxcm) si n (n©0 — ac)t cos (ma0 - a>c)t + + E (xsnxsm) sin (n©0 - “eV sin (m«0 - ©<.)/]. Используя предельные свойства коэффициентов (равенство (6.31)), получаем, что при Т —> оо оо Е (x?t) = lim У Е (х%п) [cos2 (и©0 — a>£)t + sin2 (ncoo — <oc)Z] = T—>oo , n=l оо = 2 Sx(f)dt = E(xf),' о где Sx (f) — спектральная плотность гауссовского вероятностного процесса. Аналогично можно показать, что Е(хЦ) = Е(х*), откуда, используя равенство (8.86), находим, что a2(xci) = o2(xsl) = a2, (8.87) где сгх = о (х(). Ковариация величин xet и xst равна E(xctxst) = 2 S [E(xmxcm)cos(no0-<ac)tsin(m(i>0-(oe)t- n=l m=l - E (x^) cos (п<в0 - ©C)Z cos (zn©0 - ajt + + E (xsnxcm) sin (n®0 - ac)t sin (mcoo — ©<.)/ - - E (xsnxsm) sin (na0 - <oe)t cos (/n©0 - ©<.)/], и при T —> co ОО E (xctxst) = lim 2 E (Xcn) [cos (n©0 — ©c)/ sin (ncoo — ac)t — T-+co n= 1 — sin (ncoo — (dc)t COS (ncoo — (Dc)/]. Следовательно, E(xctxst) = 0. (8.88) Таким образом, xct и xst — независимые гауссовские случайные величины с нулевыми средними значениями и с дисперсиями о*.
8.5. Узкополосный гауссовский процесс 189 Согласно (8.12), их плотность совместного распределения вероят- ностей равна (8.89) 0(х х 1 ехр/ х^+х^ P\xct’xst) 2ла*ехр( 2а| Исходя из плотности совместного распределения величин xcf и Asf, можно теперь найти плотность совместного распределения вероятностей огибающей и фазы, т. е. случайных величин Vt и ф(. Согласно (8.84), якобиан преобразования от xct и xst к Vt и ф( равен Vt I 2^eXP( О P(VP Ф,) = Поэтому из равенств (3.54) и (8.89) следует, что V* \ при Vt>Q и 0<фг<2л, ) при других Vt и Фг Плотность распределения величины Vt можно найти, проинтегри- ровав найденный результат по ф( в пределах от 0 до 2л; она сказывается равной1) V( 4 ехр V? \ адг] при Vt>(\ при других Vt. P(Vt) = (8.91) О Фиг. 8.3. Плотность распределения Рэлея. Эту плотность называют плотностью распределения Рэлея-, ее график изображен на фиг. 8.3. Плотность распределения величины ф. х) Ср. задачу 13 из гл. 3.
190 Гауссовский процесс может быть найдена интегрированием выражения (8.90) по Vt г): , ч при 0<<р. <2л, р(ф() = ] 2я (8.92) 0 при других <р(. Следовательно, случайный фазовый угол имеет равномерное рас- пределение. Из равенств (8.90), (8.91) и (8.92) следует, что Р(У{>Ф() = Р(^)Р(Ф«). и, значит, Vt и являются независимыми случайными величи- нами. Однако, как мы покажем ниже, вероятностные процессы, задающие огибающую и фазу и имеющие своими выборочными функциями соответственно V (/) и ф(/), не являются независимыми вероятностными процессами. Совместные плотности. Исходя из плотности совместного рас- пределения случайных величин xcl = xcf, xsl = xs<, хс2 = Хс(^-Т} и xs2 = xs(i-T), найдем теперь плотности совместного распределения величин Vi = Vt и V2 = Vt-т, а также фх = фе и ф2 = ф*_т. Из равенств (8.83) следует, что величины хс1, хс2, xsl, xs2 являются гауссовскими; для задания их совместной плотности распределения остается только найти их ковариации. Из равенства«(8.87) следует, в частности, что о2 (*С1) = Р2 (*si) = о2 (хс2) = о2 (х,2) = ст! (8.93) и, согласно (8.88), Е (xcixsi)= 0 = е (^c2xs2). (8.94) Ковариация величин хс1 и хс2 равна (Т) = 3 3 [£ (ХспХст) COS (лсоо - <£>c)t cos (m<o0 - ac)(t - r) + n=l m=l + E (xcnxsm) cos (n<oo - ac)t sin (m©0 - <oc)(f - x) + + E (xsnxcm) sin (ncoo - <dc)t cos (mcoo - toc)(/ - x) + + E (xsnxsm) sin (ncoo - ©cy sin (/ncoo — <dc)(t - x)]; это выражение при Г —>оо с учетом (6.31) приводится к виду оо7 /?с(т)= lim S Etx^cosfno^-ajr. Т-*<х> n=i Следовательно, оо /?с(т) = 2 $Sx(f) cos 2л (f-fc)rdf. ' (8.95) о 1 1 )Ср. задачу 13 из гл. 3.
8.5. Узкополосный гауссовский процесс 191 Аналогично можно показать, что .₽e(0 = £(xslxs2) = 2 JSx(f)cos2n(f-fc)Td/ = J?c(T) (8.96> 0 и что Rcs СО = Е (хахм) = -Е (xslx<!2) = 2 \ Sx(f) sin 2л (f- fc)тdf. (8.97> Ковариационная матрица случайных величин ха, хл, хс2, xti имеет тогда вид ’ Ох 0 #е(0 Res СО" 0 Ох -tfcs(O ^с(0 (8.98> А = ^с(О -^сз(0 Ох 0 _Rcs (0 *с(0 0 о2 Детерминант этой матрицы равен | Л | = [о‘ - R* (т) - № (т)]2, (8.99> а алгебраические дополнения- ми = Л22 = Л33 = А44 = сг£ | Л | Л = Л21 = Лол = Лло = О, 12 21 34 43 4/ (8.100> Л13 = Л31 = Л24 = Л42=-Яс(т)|Л|1/2, Лм = А41 = — Л23 = Л82 = Т?с8 (т) | Л | /2. Таким образом, из равенства (8.46) следует, что совместная плот- ность распределения величин хс1, xsl, хс2 и хз2 равна' Р(ХС1, Xsl> Хс2> Л'з2) = = еХ₽ { - ЩТ* [СТ* + + + ~ %RC (О (хлхся "Ь 2T?CS (т) (xclxg2 xslxc2)]| , (8.101 )• где |Л| задается равенством (8.99). Согласно (8.84), якобиан преобразования от хЛ, xal, хс2, xs2. к <Р1» V2, <р2 равен /| = ^У2,
192 Гл. 8. Гауссовский процесс и поэтому из (3.54) и (8.101) вытекает, что Р(УпФ1. V2, Ф2) = - V1Vzlz ехр{---1-ггЛоЖ + У22)- 4л2 | Л |1/2 2 | Л |1/а = . —2/?с(т) VxV2cos (ф2—фх)—27?cs(r)lZxV2sin^2 —фх)]| (8.102) при Vlt V2>0 и 0<фХ) ф2<2л, . 0 [ при других Vlt V2, фх и ф2. Плотность совместного распределения вероятностей величин |/х и V2 можно теперь найти интегрированием этого результата по фх и ф2. Поскольку экспонента в (8.102) является периодической функ- цией от ф2, мы получаем (полагая а = ф2 — фх — arc tg (Rcs (t)/Rc (т)]), что 2Л 2Л 5^Ф1 X о о X ехр | [/?с (т) cos (ф2 - фх) + Rcs (т) sin (ф2 - фх)]} = 2Л 2Л 2 1/ х 1 С , 1 С 1 VjV»[Rl(T)+l?«(T)]1/2 1 . =ИФ1\ ех₽ 1 ~ ЛХ; C0S afda = 0 0 11 _ , (ViVolKhTl+tfcsCr)]1/2} °1 |лр/2 Г где /0 (z) — модифицированная функция Бесселя первого рода нуле- вого порядка1). Таким образом, плотность совместного распреде- ления вероятностей величин Vx и |/2 равна P{Vlt V2) = V1V2 j /ViV2[^(t)+Rc8s(t)]1/21 | Л |1/2 0 I I Л |1/2 / X exp [-4^] при!/,, V!>0, <8J03> 0 при других Vlf V2, где | A | задается равенством (8.99). Плотность совместного распределения вероятностей величин фг и <р2 можно найти интегрированием p(Vlf фг, 1/2, Фг) по и ^22)* х) См., например, Магнус и Оберхеттингер (I, гл. Ill, § I 5) или Ватсон <1, § 3.7 и 3.71). 2) Ср. Макдональд (I).
8.5. Узкополосный гауссовский процесс 193 Вводя обозначение ₽ = cos (ф2 - фх) + sin (ф2 - фх), (8.104) получаем из (8.102), что , ч 1 Глт/ fi, ,/ Г <*UV?+Vi-21W)1 Р(Ф1> Фа)“ 4яаjЛ11/а \ V1V2 еХР L " 2ГЛ|^ JdVi при 0<Фх, ф2<2я. Для того чтобы облегчить вычисление этого двойного интеграла, введем новые переменные у и z посредством соотношений IЛ |У» 1/е22, (8.105) VI №. Модуль якобиана преобразования от V, и Vs к у и z равен _ I А Г7* гг2 причем областью изменения у будет полупрямая (0, + оо), а областью изменения г —вся прямая ( —оо, +оо). После неко- торых преобразований получаем оо +°о Р (<Р1, Фа) = \ exp(-z/ch2z)dzj уеЩу = Х 0 -со 1/ 00 = ^o(y)y^vdy> где Ко (у) — модифицированная функция Ганкеля первого порядка1). Как известно2), формула оо $ е~луК0 (у) dy О * 13 arc cos а (1 —а2)1/2 х) См., например, Магнус и Оберхеттингер (I, гл. Ill, §§ 1 и 5) или Ватсон (L §§ 3.7 и 6.22). §2)j См., например, Магнус и Оберхеттингер (I» гл. III, § 7) или Ватсон 13 Заказ № 57
194 Гл. 8. Гауссовский процесс справедлива при а>—1. Следовательно, равенство J ЪХУ & ц __________Р2)1/2 справедливо при 0 < 1. Дифференцируя по 0, получаем f (u)du =__________-___ Р(л —arccos0) 3^ ^О\У)аУ- (1—02) -Г (1_08)»/4 ’ Таким образом, плотность совместного распределения величин cpj и ф2 равна Р(<Ръ Ф2) = | Л |1/а Г(1 — 0а)1/а+0(л—arccos 0) 4ла<т* [ (1_02)’/2 при 0 <фь ф2<2л, О при других <р1, <р2> (8.106) где |Л| определяется равенством (8.99), а 0 - равенством (8.104). Вычисление выражений (8.102), (8.103) и (8.106), например, при <р1 = ф2 показывает, что P(Vi, Ф1( У2, Ф2) =А Р(У1г У2)р(Фх, Ф2). (8.107) Таким образом, огибающая и фаза вероятностного -процесса не являются независимыми процессами. 8.6. Сумма синусоидального сигнала и узкополосного гауссовского вероятностного процесса1) В заключение этой главы выведем выражения для плотности распределения вероятностей огибающей и фазового угла суммы синусоидального сигнала и узкополосного гауссовского вероят- ностного процесса. Пусть x(t) — выборочная функция стационарного узкополосного гауссовского вероятностного процесса, и пусть z/(0 = Pcos(©c/ + 4i) + x(/), (8.108) где Р — постоянная, а случайная величина ф равномерно распре- делена в интервале (0,2л) и независима с гауссовским веро- ятностным процессом. Используя равенство (8.82), мы можем написать у (0 = Хс (0 cos сос( - Xs (0 sin <act, (8.109) х) Ср. Райс (I, § 3.10) и Миддльтон (И, § 5).
8.6. Сумма синусоидального сигнала и гауссовского процесса 195 где Xc(t) = Pcosq + xc(t), (8.110) X,(0 = PsM+x,(O. Если мы представим y(t) при помощи огибающей и фазы, y(t) = V{t) cos [<V + <p(0]» (8.111) то тогда Xc(0 = V(0cos<p(0, (8.112) Xe(0 = V(Osin<p(0; следовательно, V (0 = РВД +XI (0]‘/2- (8.ИЗ) Случайные величины хс1 и xst являются, как и в § 8.5, не- зависимыми гауссовскими случайными величинами с нулевыми средними значениями и дисперсией о£. Следовательно, плотность совместного распределения величин Xct, Xat и ф равна С]:рГ (Хе-Рсозф)* 1 Р 2о2- P(Xct, Xgi, ф) = 2^- (2лах)1/2 ехр (Х8 — Р sin гр)2 2п2 (2лсгх)'/2 X?4-Xi-|-P2—2P (Xc cos Ф+Xs sin ф) 2<j2 при 0<ф<2л. Значит, плотность совместного распределения величин Vt, Ф( и ф есть P(Vb <pf, ф) = V, Г V2+P2—2PVt cos(<p—ф)1 lit2©2 [ 2g£ ] при Vt>0 и 0<ф(,ф<2л, (8.H4) 0 при других Vt, (₽t и ф. Интегрируя это выражение по <р( и ф, мы можем найти плотность распределения величины Vt. При Vt>0 , W2 I П2Ч 2Л 2Л“* /’('Zi) = -^-exp 5 exp(^cos0)dO« о —' где 0 = ф — ф. Поскольку экспонента в подинтегральном выраже- нии является периодической функцией от 0, мы можем инте- грировать по 6 в интервале (0,2л); тогда для плотности распре- 13*
196 Гл. 8. Гауссовский процесс деления суммы синусоидального сигнала и узкополосного гауссов- ского вероятностного процесса получим равенство P(Vf) = Vt ( V*+P*\ /PVA 4exp( 2в*~ПрИ V‘>0, О при других Vt. (8.115) При P = Q этот результат сводится к выражению (8.91). При больших значениях аргумента имеет место следующее асимптотическое разложение для модифицированной функции Бесселя1): 7о(х) = (глх^С1 +8^ + T28F + •••)• (8.П6) Следовательно, при PVt > о» и У( > О получаем приближенную формулу’ Таким образом, если амплитуда Р синусоидального сигнала велика по сравнению с orx, a Vt близко к Р, то плотность распределения вероятностей огибающей суммарного процесса приближенно является гауссовской. Плотность совместного распределения фазовых углов (pf и~ф может быть получена из совместной плотности величин Vt, cpf и ф интегрированием по Vt. Итак, согласно равенству (8.114), р(ъ> ф) 1 4л2о2 оо V(exp о у2_|_р2_2PVt COS (ф— -ф) 2а2 dVt, откуда находим, дополняя до квадрата суммы, что / 1 / Р2sin2б\ С ,, _ Р = 4^ехр (----------2^) И' еХр (Kt — Р cos 0)21 24 dVt, где 6 = ср, — ф. Отсюда, полагая и = (Vt — Р cos 0)/ох, получаем Р(<Pt> ФУ = 4^2ехР(~Р‘2р2~) 5 u^(-^)du + 4 ' — Р cos 6/ах Р cos О 4л2ох P2sin20\ f — 2о2 ) J е PQ 2 Jdu' ' -р cos е/<тх х) Двайт [I, равенство (814.1)].
8.7. Задачи 197 Первый интеграл преобразуется к виду ехр (— Р* 2 cos2 0/2а£). Под- интегральная функция во втором интеграле является четной, и поэтому ехр (—P2/2ai) 4я» - + Р cos 0/ах , Р cos 0 / P2sin26\ С / —и2 \ * /о 11оч + Ж7ех₽(----------\ expQ-^-Jdu, (8.118) где 0 = ф, —ф и 0<<р() ф<2л. Входящий сюда интеграл равен функции распределения гауссовской случайной величины, умно- женной на (2л)1/2. Если амплитуда синусоидального сигнала равна нулю, то равенство (8.118) сводится к Р (Фо Ф) = 4^5 при Р = 0, (8.119) чего и следовало ожидать. Используя равенство (8.4), мы можем получить, исходя из . (8.118), приближенную формулу для плотности совместного рас- пределения вероятностей фазовых углов и ф: <8J20> (23TJ ах -J при Pcos((p/ — ф) > ох, где 0<фр ф<2л. В этом и предыдущем параграфах нашей целью был вывод некоторых важных статистических свойств узкополосного гаус- совского вероятностного процесса. Дальнейшие результаты можно найти в технической литературе, в частности в работах Райса1). 8.7. Задачи 1. Пусть х и у—независимые гауссовские случайные величины со сред- ними значениями тх и ту и дисперсиями а* и а% соответственно. Пусть, далее, z = x+y. а) Определить характеристическую функцию величины г. б) Определить плотность распределения вероятностей величины г. 2. Пусть х19 х2, х3 и х4—действительные случайные величины с гаус- совской плотностью совместного распределения и равными нулю средними значениями. Показать, что2) £ (х1х2х3х4) = £ (xjX2) Е (х3х4)Д-Е (х^ Е (х2х4)+Е (х4х4) Е (х2х3). (8.121) х) См. Райс (I и II). 2) Ср. задачу 4 из гл. 7.
198 Гл. 8. Гауссовский процесс 3. Пусть x(t)— выборочная функция стационарного действительного гаус- совского вероятностного процесса с нулевым средним значением. Пусть новый случайный процесс задается выборочными функциями {/(0=^(0. Показать, что Rv(t) = ^(0)+2Rx(t). (8.122) 4. Пусть х—гауссовская случайная величина с нулевым средним значе- нием и равной единице дисперсией. Пусть новая случайная величина у опре- деляется следующим образом: при х = х0 {х0 с вероятностью 1/2, — х0 с вероятностью 1/2. а) Определить плотность совместного распределения величин х и у. б) Определить плотность распределения одной величины у. Заметим, что, хотя как х, так и у—гауссовские случайные величины, плот- ность совместного распределения величин х и у не является гауссовской. 5. Вывести равенство (8.17). 6. Пусть случайные величины xi и х2 имеют гауссовскую плотность совместного распределения. Показать, что если случайные величины yt и у2 получаются из величин хг и х2 в результате поворота относительно точки [Z? (xj), Е (х2)] и если угол поворота <р выбран так, чтобы tg2q>=—, (8.123) Р-20 Р02 то величины уг и у2 будут независимыми гауссовскими случайными величинами. 7. Пусть корреляционная функция стационарного гауссовского вероятно- стного процесса с выборочными функциями x(t) разлагается в интервале [ --у . +-у ] в ряд Фурье 4-00 R (т)= 2 “0=-^ • п=—со Пусть, далее, независимые гауссовские случайные величины хп(п=—оо, ... ..., —1, 0, -ph •••, +°°) имеют равные нулю средние значения и равные единице дисперсии; рассмотрим вероятностный процесс с выборочными функциями 4-00 1/(0 = 2 ьпхпе3гил^, <оо=-^- • П=—оо где Ьп — комплексные постоянные. Показать1), что если I |2==ап» то при O^t^.T/2 вероятностный процесс с выборочными функциями y(t) имеет такие же многомерные плотности распределения, как и процесс с вы- борочными функциями x(t). х) Ср. Рут и Питчер (I, теорема 2).
8.7. Задачи 199 8. Пусть Vt—огибающая стационарного узкополосного вещественного гауссовского вероятностного процесса. Показать, что E(Vt) = Q^y/2ox ~ (8.124) И a2(V() = (2—(8.125) где Ох—дисперсия гауссовского вероятностного процесса. 9. Пусть х (t) — выборочная функция стационарного узкополосного дей- ствительного гауссовского вероятностного процесса. Рассмотрим новый вероят- ностный процесс, определяемый выборочными функциями y(t) = x(t) cos (0^, где /0 = соо/2зт (мало по сравнению со средней частотой исходного процесса /с, но велико по сравнению с шириной спектра исходного процесса. Если записать х (0 = V (/) cos [<х>с*Н-ф (0], то можно назвать Уъ (0 c°s [(®С—®о) н-ф (01 выборочными функциями «нижней боковой полосы» нового процесса и V (fl У и (0=—cos [(WC + <00) /4-ф (/)] выборочными функциями «верхней боковой полосы» нового процесса. а) Показать, что вероятностные процессы, соответствующие как нижней, так и верхней боковой полосе, являются стационарными вероятностными про- цессами, хотя сумма их не стационарна. б) Показать, что вероятностные процессы, соответствующие нижней и верх- ней боковой полосе, не являются независимыми. 10. Пусть X (/) = ХС (0 COS (dct — Xs (t) Sin (£)ct — выборочная функция стационарного узкополосного действительного гаус- совского вероятностного процесса, причем /с=сос/2л; —средняя частота спектраль- ной полосы. а) Показать, что Rx (*) = Rc (*) cos ®cx—Rcs (т) sin сост, (8.126) где Rc = Е \.xctxc (/-т)1 и Res ('г)= E [Vs (i--T)J • б) Показать, далее, что, положив (Т) = [К2 (т)+Я28 (т)]1/2 (8.127а) И о (т) = arc tg Г 4^-1 , (8.1276) где Я6(0) = Яс(0) и 0(0) = 0,
200 Гл. 8. Гауссовский процесс мы можем написать Rx (т)=/^ (t) cos [сост + 0 (?)]♦ (8.128) в) Показать, что если Sx (f) является при f > 0 четной функцией относи- тельно fc, то tfcs(T) = 0, 0(т) = О, К5(т) = /?с(т) и, следовательно, Rx (X) = Rc (т) cos «ст. (8.129) 11. Пусть спектральная плотность вероятностного процесса, рассмотренного в задаче 10, имеет вид где a<fc. а) Вычислить Rc(x). б) Вычислить Rcs (т)« 12. Пусть х (t)— выборочная функция стационарного узкополосного дей- ствительного гауссовского вероятностного процесса. Определим ох и X (т) равенством оо = sx(f)exp[/(f-fc)T]df=^+/^^, (8.130) J их где ах предполагается действительным и неотрицательным* Показать, что корреляционная функция огибающей узкополосного процесса имеет видг) Rv(T) = a|[2£(at)-(l-4)K(Gt)]=^-al2F1(-4. (8.131) где К и Е—полные эллиптические интегралы соответственно первого и второго рода, а 2^1 — гипергеометрическая функция* 2). 13. Пусть выборочные функции вероятностного процесса, рассмотренного в задаче 12, выражаются в виде х(0 = У (01/(0. где V (0—огибающая, а у (0 = cos [<М+<р (0]. Показать, что корреляционная функция модулированной по фазе несущей y(t) заданного узкополосного процесса определяется равенством 3) п/ч г £(at)-(l-a*)K(at) п г Ry (т) — [--------go---------J C0S (T)l:= /11 х =-82-2Л (^т, у ; 2; jcos[<ocT+X(T)J. (8.132) 14. Пусть V (t) и <р (t)—соответственно огибающая и выборочной функции стационарного узкополосного действительного гауссовского процесса. Показать, вычислив выражения (8.102), (8.103) и (8.106) при ф2 = Фь что P(Vi> Ф1, V2, <p2)¥=p(Vn V2)p(<Pi, ф2) и что, следовательно, пары случайных величин (Ух, У2) и (фи Ф2) не являютс независимыми. х) Ср. Прайс (II) или Миддльтон (II, §§ 6 и 7)* 2) Ср. Магнус и Оберхеттингер (I, гл. II, § 1). 3) Ср. Прайс (II).
Глава 9 ЛИНЕЙНЫЕ СИСТЕМЫ L \ В предыдущих главах мы ввели понятия случайной величины и вероятностного процесса и рассмотрели некоторые из их ста- тистических свойств. В оставшихся главах этой книги мы исполь- зуем развитые выше идеи для исследования результатов про- хождения вероятностных процессов через системы различных видов. Так, например, в этой и двух последующих главах мы проведем такие исследования* применительно к линейным системам; в частности, в настоящей главе мы рассмотрим основные понятия теории линейных систем, в следующей главе изучим вопросы, относящиеся к шумам в усилителях, и, наконец, в гл. 11 рас- смотрим задачу оптимизации линейной системы. 9.1. Элементы теории линейных систем Предполагается, что читатель в общем знаком с методами анализа линейных систем1). Тем не менее мы приведем здесь обзор некоторых элементов этой теории. - Функция передачи системы. Предположим, что, как показано на фиг. 9.1, x(t) и (/(^ — соответственно воздействие на линей- ную систему с фиксированными параметрами и отклик ее2). Говоря, Линейная система x(t)------------- с фиксированными ---------► y(t) 7 параметрами Фиг. 9.1. Линейная система. А что система имеет фиксированные параметры, мы подразумеваем, что если воздействие х(/) вызывает отклик y(t), то воздействие *(/ + ?) вызывает отклик у(М т). Называя систему линейной, мы подразумеваем, что если воздействие xi(t) вызывает отклик4 Уг(О> то воздействие —х (t} == а^ (t) "Т“ а2х2 (/) ^Например, в Том виде, как они изложены в книгах Боде (I), Гий- мена (1) или Джеймса, Николса и Филлипса (I). ) В оригинале input и output.—Прим, перев.
202 Гл. 9. Линейные системы вызывает отклик 1/(0 = «11/1(0 +«2^2 (0- Примером такой системы может служить всякое устройство, описываемое системой линейных дифференциальных уравнений с постоянными коэффициентами. Если на вход линейной системы с фиксированными парамет- рами в течение неограниченно долгого времени подавалось воз- действие х(/) = е7(й/, где со — действительное число, и если спустя это неограниченное время отклик существует, то он имеет ту же форму, т. е. у (/) = Ае™*, где А не зависит от t. В самом деле предположим, что воздей- ствие вида exp(/W), имеющее место, начиная с / = —-со, создает на выходе вполне определенный отклик z/(/), который называется стационарным откликом системы. Тогда, если система обладает фиксированными параметрами, воздействие х (t +1') = (*+*') = / вызывает отклик y(t~\-t'). Так как tf не зависит от t и система линейна, то воздействие ехр (jat') ехр (j<nt) вызывает отклик ехр (fot') у (t). Следовательно, y(t + t')=e^'y(t). Положив t — О, получаем, что У (t') = у (0) <+>'' есть отклик системы на воздействие ехр(/®Г), и мы доказали наше утверждение при А = у (0). Если теперь воздействие имеет комплексную' амплитуду X (/®), т. е. если лг(0 = Х(/ю)^, (9.1) то отклик имеет вид у (t) = АХ (j®) eie>t, что мы можем записать в виде #(0 = У (/©)<?*»'. (9.2) Отношение А комплексных амплитуд отклика у (Г) и воздействия x(t) является функцией от®, и мы будем обозначать его через итак, ,9-3)
9.1. Элементы теории линейных систем 203 Функция Н (j®) называется функцией передачи для данной линей- ной системы с фиксированными параметрами. Следует отметить, что в линейной системе с фиксированными параметрами может не .существовать вполне определенного отклика, если на нее подается в течение неограниченно долгого времени воздействие вида ехр примером может служить £С-контур без потерь с резонансной частотой о. Это обстоятельство связано с понятием устойчивости, которое мы обсудим кратко несколько ниже.. Предположим, что воздействие является периодической функ- цией времени, имеющей сходящийся ряд Фурье. Тогда мы можем написать 4-00 x(f) = У а (/пю0) ехр (/п©0/), (9.4) п=—оо где — основной период, а комплексные коэффициенты а(/псоо) опре- деляются формулой То/2 а(/пш0) = ^- \ x(t)exp( —jntoot)dt. (9.6) -IW2 Из (9.3) следует, что уп (/) = Y (jntoQ) ехр (/п(о00 = а (рсоо) Н (jna>Q) ехр (/псоо/) есть отклик системы на компоненту воздействия хп (0 = а (/исоо) ехр (/псоо/). В силу линейности системы, полный отклик на воздействие x(t) равен сумме компонент отклика yn(t). Таким образом, 4-00 y(t) = 3 а(.]па0)Н (/п®о)ехр(/га®оО . (9.7) п=—оо представляет собой стационарный отклик линейной системы с фик- сированными параметрами на воздействие в форме периодической функции (9.4). Пусть теперь воздействие является нестационарным и как функция времени имеет преобразование Фурье. Полученный нами выше результат для случая ряда Фурьё можно эвристически распространить на этот случай следующим образом. Предположим, что мы заменили нестационарное воздействие x(t) периодическим: х (/) = 2 а (М®о) ехР (я®</)> п=—со где коэффициенты а(/п®0) определяются по х(0 при помощи
204 Гл. 9. Линейные системы равенства (9.6). Соответствующий периодический отклик, согласно (9.7), будет иметь вид 4-00 «/(/)= 2 а(/п©о)Я(/п®о)ехр(/п®о0- П=—ОО Умножая и деля оба выражения на TQ и учитывая, что соо является приращением для пш0, получаем 4-00 х(0 = ^ S ^oa(/«®0)exp(jn©oO А(«“о) П=—ОО и y(t) = 2 Т<>а н ехР (W) д («®о)« П——СО Если мы теперь положим То—> оо (и п—>оо, а со0^>0 так, чтобы m(oo = cd), то из (9.6) будет следовать, что 4-00 lim Toa(jn(oo)= x(t)e-i&t dt = X(jG)), (9.8) Т°^°° _JOO где X (/со) — преобразование Фурье нестационарного воздействия, и, следовательно, 4~00 lim х(Л = Д- X (/©) eJ<0< dco = х (/) (9.9) т»-0О 2п Л и 4-00 lim y(t) = y(t) = ±A X(»Не**d®. (9.10) To-^oo J — оо Таким образом, отклик системы выражается преобразованием Фурье от У(/®) = Х(/®)Я(/®), (9.11) т. е. преобразование Фурье отклика линейной системы с фикси- рованными параметрами на нестационарное воздействие равно произведению преобразования Фурье этого воздействия на функ- цию передачи системы [в предположении, что интеграл (9.10) схо- дится]. Отклик на единичный импульс. В теории линейных систем особую роль играет нестационарное воздействие в форме еди- ничного импульса х(/)=^6(0. (9.12)
9.1. Элементы теории линейных систем 205 Как показано в приложении I, преобразование ’ Фурье от такой функции для всех и равно единице: Х(/а>)=1. ’ (9.13) Преобразование Фурье от соответствующего отклика, согласно (9.П), равно Y (/©) = 1 • Н (/а>) = Н (jot), (9.14) и, следовательно, сам отклик, согласно (9.10), равен —ОО Итак, отклик на единичный импульс линейной системы с фикси- рованными параметрами выражается преобразованием Фурье от функции передачи системы Н (j<o); наоборот, /г(0е-«Л. (9.16) —ОО Если отклик на единичный импульс при отрицательных значе- ниях t равен нулю, т. е. если h (t) = 0 при t<0, (9.17) то соответствующая линейная система называется физически осу- ществимой. Свертка. Отклик линейной системы с фиксированными пара- метрами на нестационарное воздействие можно выразить через отклик системы на единичный импульс, подставляя в (9.10) выраже- ние (9.16) для функции передачи. При этом мы получаем y(t) = h{x)drO- — ОО —оо Интеграл по со представляет собой обратное преобразование Фурье от Х(/со), вычисленное при t — x (т. е. воздействие в момент £ — т). Следовательно, 4-00 . У(0= h(x)x(t — x)'dx. (9.18) —оо С другой стороны, выражая Х(/©) в (9.10) через х(Г) или просто делая замену переменных в (9.18), получаем 4-00 y(t)= ‘х (т) h (t — т) dx. (9.19)
206 Гл. 9. Линейные системы Эти интегралы, называемые свертками, показывают, что линей- ную систему 0 фиксированными параметрами можно охарактери- зовать интегральным оператором. При этом отклик системы выра- жается как среднее от воздействия за истекшее время, взятое с весом, равным отклику системы на единичный импульс; поэтому отклик на единичный импульс иногда называют весовой функцией соответствующей линейной системы. Поскольку в физически осуществимой линейной ’ системе отклик на единичный импульс при отрицательных значениях аргу- мента равен нулю, мы можем в равенстве (9.18) заменить беско- нечный нижний предел интегрирования нулем: оо у (t) = h (т) х (t — т) dr. Если мы, далее, предположим, что воздействие было равно нулю до момента t = — а (как это показано на фиг. 9.2), то верхний предел +оо можно заменить на /Ч-a. Таким образом, отклик физически осуществимой линейной системы на воздействие, возни- кающее в момент t— — а, запишется в виде t±a y(t)= Л(т)х(^-т)йт. (9.20) о Дальнейшие рассуждения, быть может, помогут приобрести некоторую интуицию в обращении со свертками. Рассмотрим отклик физически осуществимой линейной системы в некоторый
9.1. Элементы теории линейных систем 207 . фиксированный момент времени > — а. Пусть воздействие х (t) в интервале ( — а, /х) аппроксимировано совокупностью N непе- рекрывающихся прямоугольных импульсов ширины Дт (фиг. 9.2), причем У Дт = /х + а. Так как система линейна, то отклик ее в момент равен сумме откликов, вызванных N предшествующими прямоугольными импульсами. Рассмотрим теперь отклик в момент tlt вызванный одним импульсом, поданным на вход в более ранний момент —«Дт, где n^.N. При Дт—>0 ширина входного импульса стремится к нулю (аМ—> оо) и вызванный этим импульсом отклик прибли- жается к отклику, который имел бы место от единичного импульса, поданного на вход в тот же момент времени и равного по площади заданному прямоугольному импульсу, т. е. равного по площади х(^ —пДт) Дт. Отклик системы в момент tt на единичный импульс, поданный в момент —«Дт, равен Л(мДт); следовательно, отклик в момент на рассматриваемый прямоугольный импульс равен приближенно h (пДт) х (1г — пДт) Дт. Значит, общий отклик в момент tY равен приближенно N У^1)— S Л (»Дт) х (Zx — пДт) Дт. П=1 Если-мы теперь положим Дт—>0 (и и—> оо так, чтобы пДт=т), то получим fl+a А(т)х(^ — x)dx, S что при / = совпадает с равенством (9.20). Линейная система с фиксированными параметрами называется устойчивой, если всякое воздействие на систему, являющееся ограниченной функцией времени, вызывает отклик, также являю- щийся ограниченной функцией времени. Условия, которые надо наложить на отклик на единичный импульс, чтобы обеспечить устойчивость, можно получить следующим образом. Из равен- ства (9.18) вытекает, что , +00 4 +00 !И01 = | 5 Л(т)х(<-т)л|< IЛ(т)||x(f-r)|dr. —оо —оо Если воздействие ограничено, то существует положительная кон- станта А, такая, что для всех t ' | х (/) | А <С —оо.
208 Гл. 9. Линейные системы Следовательно, при таком воздействии для всех t 1И01 |й(т)Ит. —оо Таким образом, если отклик на единичный импульс абсолютно интегрируем, т. е. если +» \ | h (т) | dr < + оо, —ОО то отклик системы на. ограниченное воздействие ограничен и система устойчива. С другой стороны, можно показать1), что если функция h(t) не интегрируема, то система неустойчива. Часто оказывается полезным расширить введенное нами опре- деление функции передачи системы и рассматривать ее как функ- цию комплексного переменного р = а + /со. Пусть Н (р) опреде- ляется комплексным преобразованием Фурье Н (р) = f h (0 dt (9.21) —оо в той области плоскости р, где этот интеграл существует. При а = 0 равенство (9.21) сводится к ранее выписанному выраже- нию (9.16) для функции передачи системы. Если, в частности, система физически осуществима и устойчива, т. е. если функ- ция h(t) равна 0 при £<0 и интегрируема, то интеграл (9.21) сходится равномерно при всех а>0. Следовательно, для всех р, у которых а>0, функция Н (р) оказывается равномерно ограни- ченной (т. е. |Я(р)|< А = const для всех а>0). Обычными прие- мами можно показать2), что при тех же условиях Н(р) является на самом деле аналитической функцией для всех р, у которых а > 0. Таким образом, ни на оси /со, ни в правой полуплоскости плоскости р функция Н (р) не может иметь полюсов. Можно доказать и обрат- ное утверждение: если Н (р) является при всех р, у которых а>0, ограниченной аналитической функцией и если Н (/со) удовлетворяет соответствующему условию, определяющему ее поведение при больших со, то преобразование Фурье от Н (р) будет функцией от t, обращающейся в нуль при t < 0; иными словами, преобразование Фурье от Н(р) будет откликом физически осуществимой системы на импульсное воздействие. Действительно, если Н (ja) интегри- х) Джеймс, Николс и Филлипс (I, §§ 2.8 и 5.3). 2) Титчмарш (I, гл. II).
9.1. Элементы теории линейных систем 209 руема в квадрате вдоль оси /со, то для некоторой функции А(/) оо (где сходимость интеграла понимается в смысле сходимости в среднем)1). Более подробное рассмотрение свойств Н(р) как функции комплексного переменного читатель может найти в дру- гих книгах2). Мы в дальнейшем, как правило, будем рассматри- вать только устойчивые линейные системы. i Вычисление функций передачи многополюсников. В некоторых из дальнейших построений нам окажется необходимым рассматривать линейные системы с несколькими входами. Поэтому мы приведем здесь некоторые соотношения, связывающие воздействия и отклик устойчивой линейной системы с N входами и одним выходом. В силу линейности системы, мы можем представить ее отклик y(t) как сумму слагаемых yn(t): N (9.22) n=i где yn{t) есть часть отклика, обусловленная n-м воздействием xn(t)- иными словами, y(t) равен yn(f), если все воздействия, кроме n-го, равны нулю. Теперь задача сводится к нахождению yn{t) при заданном xn(t~). Предположим, что воздействие на n-м входе является сину- соидальной функцией времени Хп (/©) ехр (/Ы), а воздействия на всех остальных входах равны нулю. Тогда мы можем определить функцию передачи системы Яп(/со), описывающую связь между выходом и n-ым входом, <9-23> где Yn (/cd) — комплексная амплитуда возникающего отклика. Мы можем также определить отклик на единичный импульс hn (t) как преобразование Фурье от 4-00 (9.24) — ОО Функция hn(t) представляет собой отклик системы при подаче единичного импульса на n-й s вход и отсутствии воздействий на остальных входах. х) Палей и Винер (I, теорема VIII, стр. 11). 2) См. Джеймс, Николс и Филлипс (I, гл. 2) и Боде (I, гл. VII). Мате- матическое изучение комплексных преобразований Фурье см. у Палея и Вине- ра (I), особенно во введении и в § 8. 14 Заказ № 57
210 Гл. 9. Линейные системы Интересен тот частный случай, когда рассматриваемая система является 1)-полюсником, изображенным на фиг. 9.3. Нам желательно выразить функции передачи Нп через более привыч- Фиг. 9.3. (2W + 2) -полюсник. ные величины импедансов и проводимостей схемы. Предполагая воздействие синусоидальным, мы можем написать = и гп(0 = /пеЧ где Vn и 1п в общем случае являются комплексными функциями частоты. Соотношения между токами и напряжениями на 7V+1 парах зажимов могут быть выражены системой N+ 1 уравнений1): Л> = УыУо + Z/01K1+ • • • Л = УкУо + УиУ1 + • • • + УгуУ/у, (д 25) In = УысУ о + Vni^i + .. • + yNN^N* где коэффициенты ynk — так называемые переходные проводимости короткого замыкания. Если мы обратим в нуль все входные напряжения, кроме Vk (т. е. закоротим все .входы, кроме &-го), то уравнения (9.25) примут вид Л = УгъУ lN~yNkVk‘ Тогда, решая их относительно проводимостей ynk, получим <9-26> Итак, проводимость ynk равна отношению комплексной амплитуды х) Ср. Гиймен (I, т. I, гл. 4).
9.1. Элементы теории линейных систем 211 тока короткого замыкания в n-й паре зажимов к комплексной амплитуде напряжения, приложенного к k-й паре зажимов (когда все прочие пары зажимов замкнуты); отсюда и происходит назва- ние «переходная проводимость короткого замыкания». Если для всех значений п и k Упк = Укп> (9.27) то говорят, что многополюсник удовлетворяет условию взаим- ности. На данном этапе удобно ввести для нашего многополюсника, рассматриваемого со стороны выходных зажимов, эквивалентную схему Тевенена. Такая эквива- лентная схема, изображенная на фиг. 9.4, состоит из генерато- ра, напряжение которого равно напряжению холостого хода на вы- ходе исходного многополюсника, и включенного последовательно импеданса Zo, равного импедансу исходного многополюсника со ^то- роны выхода при всех короткозамкнутых входах. Из такого опре- деления выходного импеданса и равенств (9.25) вытекает, что 'о ~ УосУо ~ ^0 vo . -------------------—£ Фиг. 9.4. Эквивалентная схема Тевенена. и, следовательно, Z-------— ° 1/00 ’ (9.28) т. е. выходной импеданс равен величине, обратной к проводи- мости короткого замыкания со стороны выходной пары зажимов. Определим теперь выходное напряжение холостого хода, обу- словленное входными напряжениями Ух, У2, ..., Vjy. Замыкая накоротко выходные зажимы, имеем, согласно эквивалентной схеме Тевенена, V0(XX)= -7^(K3)Z0= —. Выходной ток короткого замыкания /0(КЗ), протекающий под действием заданной системы входных напряжений, находится из первого из уравнений (9.25): \ N /0(КЗ)= 2 П=1 Таким образом, выходное напряжение холостого хода Уо (XX) 14*
212 Гл. 9. Линейные системы можно выразить через входные напряжения с помощью равенств v'.<xx)^(- Из определения функций передачи системы Hn(ja) тогда следует, что N VO(XX)= 2 Hnwvn. n=i Сравнивая между собой последние два выражения, видим, что функции передачи можно следующим образом выразить через переходные проводимости короткого замыкания: Яп(/(о)в—J2-. (9.29) Уоо Мы используем эти результаты позже при изучении теплового шума в линейных цепях. 9.2. Случайные воздействия Соотношения между воздействиями и откликами, рассмотрен- ные в предыдущем параграфе, выражают отклик линейной системы с фиксированными параметрами на воздействие, являющееся известной функцией времени. Пусть теперь воздействие на систему является выборочной функцией некоторого вероятностного про- цесса. Если мы знаем, какой именно функцией времени является заданная выборочная функция, то мы можем непосредственно применить результаты § 9.1. Чаще, однако, все, что известно об выборочной функции, задающей воздействие на систему, — это лишь свойства соответствующего вероятностного процесса. Так, например, может быть известно лишь то, что воздействие является выборочной функцией гауссовского вероятностного процесса с заданными средним значением и корреляционной функцией. Встает вопрос о том, применимы ли результаты предыдущего параграфа в таком случае. Предположим, что воздействие на устойчивую линейную систему с фиксированными параметрами является выборочной функцией ограниченного вероятностного процесса. Так как для такого процесса ограничены все выборочные функции, то из опре- деления устойчивости следует, что определяющий свертку y(t)= h(r)x(t-x)dx (9.30) —ОО интеграл сходится для каждой выборочной функции и, следова- тельно, дает соотношение между выборочными функциями на
9.3. Корреляционная функция и спектр отклика 213 входе и на выходе системы. Из фактов, приведенных в § 4.7, вытекает также более общее предложение, в силу которого интеграл (9.30) сходится для всех выборочных функций, за исклю- чением некоторой совокупности их, имеющей вероятность нуль, если |А(/-т)|£[|х(т)|]Лт < оо. (9.31) —оо Поскольку рассматриваемая система предполагается устойчивой, последнее условие удовлетворяется, если fiflxrl) ограничено для всех т. В частности, если вероятностный процесс на входе системы стационарен или стационарен в широкдм смысле и имеет первый момент, то Е (| хх |)*= const и условие, о котором идет речь, удов- летворяется. Следует попутно отметить, что, согласно неравенству Шварца, Е(|х|)</Ё([Ж (9-32) так что если х (t) — выборочная функция стационарного вероят- ностного процесса с конечным моментом второго порядка, то интеграл (9.30) сходится для всех выборочных функций, за исклю- чением совокупности их, имеющей вероятность нуль. При этом, если процесс на входе системы стационарен, то Е^у^ — h(x)E\x(t— x)}dx = mx h(x)dx. (9.33) —оо —оо 9.3. Корреляционная функция и спектр отклика Пусть воздействие, подаваемое на вход устойчивой линейной системы с фиксированными параметрами, является выборочной функцией x(t) заданного вероятностного процесса, а у (/) —соот- ветствующая выборочная функция вероятностного процесса на выходе системы. Корреляционная функция выходного процесса, по определению, равна ^2) ~ е (1/(Хуг2). Поскольку система устойчива, yt можно выразить с помощью свертки (9.30) через xt. Таким образом, мы можем написать выражение 4-00 +°о Ry (*i> Q = Е [ ^h(a)xtL_ada h(₽)х(*_₽ , — ОО Х —оо которое после перемены порядка осреднения и интегрирования
214 Гл. 9. Линейные системы принимает вид -f-oo 4~°° ЯУ(*1Л) = 5 ft(a)da 5 —оо —оо ИЛИ ЗД, k)= 5 Л(а)Йа S Л(₽)^х(^-а, ^-₽Х (9.34) — ОО —оо Итак, корреляционная функция отклика устойчивой линейной системы равна двукратной свертке корреляционной функции воз- действия с откликом системы на единичный импульс. Если вероятностный процесс на входе системы стационарен в широком смысле, то *2-0) = Яс(* + ₽-а)» где т = /х —/2. В этом случае корреляционная функция отклика принимает вид 4-00 н-оо Я„(т) = h(a)da Л(₽)Яж(т+0-а)<ф. (9.35) —со —оо Моменты времени tr и /2 входят в (9.35) только в виде их раз- ности т. Этот результат вместе с равенством (9.33) показывает, что если вероятностный процесс на входе системы стационарен в широком смысле, то таков же и вероятностный процесс на ее выходе. Спектральная плотность отклика Sy (f) определяется равенством +оо Sv(f) = $ Rv{r)e-^dx, —ОО где (о = 2л/\ Следовательно, согласно (9.35), 4-00 4-00 4-00 Sy(f) = Л (a) da A(P)d0 (3 —- a) —оо —оо —оо Вводя новую переменную у = т + Р —а, получаем Sy(f)— h (а) е~^а da h (Р) е+^Р dp Rx (у) е~^ dy. —ОО —оо —оо Входящие сюда интегралы можно выразить через функцию передачи системы и спектральную плотность воздействия. Таким образом, Sy (f) = Н Ц2ПГ) Н* (j2nf) Sx (f) = | H (/2«f) P Sx (/). (9.36)
9.3. Корреляционная функция и спектр отклика 215 Итак, спектральная плотность отклика ’ устойчивой линейной системы на стационарный в широком смысле вероятностный про- цесс равна произведению квадрата модуля функции передачи системы на спектральную плотность воздействия. Системы со многими входами. Рассмотрим теперь устойчивую линейную систему с фиксированными параметрами, имеющую N входов, на которые подаются воздействия хп(£), и один выход, отклик на котором есть у(/). В § 9.1 мы показали, что, в силу линейности, такая система подчиняется принципу суперпозиции и отклик ее может быть выражен в виде N у(Г)= 3 уМ п=1 где уп(0 совпадает с y(f) при равенстве нулю всех воздействий, кроме n-го. Мы там показали .также, что можно определить функцию передачи Нп (/<о) и отклики на импульсное воздействие /гп(/), связывающие yn(t) и xn(t). Из определения hn(t) следует, что yn(t) можно выразить через xn(t) с помощью свертки 4-00 УпЦ) = 5 hn^)xn{t-x)dx. —СО Таким образом, полный отклик системы может быть, выражен через воздействия на все ее входы с помощью равенства N t,°° !/(/) = 3 \ An(T)xn(<-T)dr. -оо Если воздействия, подаваемые на различные входы системы, являются выборочными функциями вероятностных процессов, то корреляционную функцию отклика системы можно найти тем же путем, что и в рассмотренном выше случае одного входа и одного выхода. Таким образом, мы получаем N N 4-со Mi^)=2 2 5 h^da 5 (9.37) n=l m=l — oo —co где Rnm — взаимная корреляционная функция процессов на п-ом и m-ом входах: Rnm (/г t ) = Е (Хп> i Хщ, t')- Если процессы, подаваемые на различные входы, не коррелированы между собой и имеют равные, нулю математические ожидания, то I при п = /п* о при пФт,
216 Гл. 9. Линейные системы где 7?п — корреляционная функция процесса, подаваемого на п-й вход. Корреляционная функция^ отклика системы в этом случае имеет вид N -Н» • +оо *„&Л) = 2 $ hn(a)da Лп(₽)/?п(^-а, f2-₽)d₽. (9.38) = 1 —оо —оо Если вероятностные процессы, подаваемые на все входы, ста- ционарны в широком смысле, то ^пт t )= ^пт t )• Положим т = ^ —/2; тогда корреляционная функция отклика системы принимает вид N N Ч-оо 4-оо /?„W=2 2 $ М₽)Япт(*+₽-аМ₽. (9.39) n=l т=1 —оо —оо если процессы на различных входах коррелированы между собой, и N +оо +оо Ry (*)=2 5hn (а) da 5hn (₽) (т+р _а) (9-40) П=1 —оо —оо если они не коррелированы и имеют равные нулю математические ожидания. Соответствующие спектральные плотности отклика можно найти, вычислив преобразования Фурье от полученных нами выражений. Так, если Snm — взаимная спектральная плотность воздействий на n-м и m-м входах, то при наличии корреляции между воздействиями на различных входах n SJ(f)=2 Hn(i2nf)H-m(j2nf)Snm(f), (9.41) п—1 т=1 а при отсутствии корреляции и равных нулю математических ожиданиях воздействий N SV(D= 2 \Hn(j2xn\*Sn(j) (9.42) n=l (где Sn (f) — спектральная плотность воздействия на n-ом входе). Особый интерес представляет тот частный случай, когда рас- сматривается устойчивая линейная система с фиксированными параметрами, представляющая собой 2(7V+1)-полюсник, изобра- женный на фиг. 9.3. В § 9.1 мы показали, что функцию пере- дачи такого многополюсника можно выразить через различные переходные проводимости короткого замыкания при помощи
9.4. Тепловой шум 217 соотношений Яп(/2я/)=— Z/oo Подставляя эти соотношения в (9.41) и (9.42), получаем, что в случае коррелированных воздействий N N 5о(/) = 2 2 (9.43) П=1 тп=1 а в случае некоррелированных воздействий с нулевыми математи- ческими ожиданиями N |^|2Sn(/). " I Уоо I n=l (9.44) 9.4. Тепловой шум1) Случайный характер теплового движения свободных электро- нов в сопротивлении приводит к появлению на его зажимах флуктуирующего напряжения. Эти флуктуации называются тепло- вым шумом. Так как полное шумовое напряжение складывается из очень большого числа импульсов, обусловленных движением отдельных электронов, то, в силу центральной предельной теоремы, естественно ожидать, что общее шумовое напряжение является гауссовским процессом. Можно, конечно, показать, что это дей- ствительно так. Также можно показать, что длительность отдель- ных импульсов напряжения чрезвычайно мала и поэтому спектраль- ную плотность шумового напряжения можно считать практически постоянной, т. е., как и в случае дробового шума, приближенно 5оп(/) = М°)- <9-45) При исследовании теплового шума в электрических цепях часто оказывается удобным представить генерирующее шум сопро- тивление с помощью эквивалентной схемы Тевенена, состоящей из последовательно соединенных генератора шумового напряжения и нешумящего сопротивления, или с помощью эквивалентной схемы, состоящей из параллельно соединенных генератора шумо- вого тока и нешумящей проводимости. Эти эквивалентные схемы изображены на фиг. 9.5. Значение спектральной плотности шумового напряжения, соот- ветствующее нулевой частоте, можно найти, изучая состояние теплового равновесия системы, составленной из параллельно См. Лоусон и Уленбек (1, §§ 4.1 — 4.5).
218 Гл. 9. Линейные системы соединенных генерирующего шум сопротивления и индуктивности без потерь. Такая система и эквивалентная ей схема показаны на фиг. 9.6. /?- источник шума Несиумяще? Фиг. 9.5. Сопротивление, являющееся источником шума, и эквивалентная схема. Нешумящее Фиг. 9.6. Схема, состоящая из сопротивления и индуктивности. Согласно теореме равнораспределения статистической меха- ники1), среднее значение свободной энергии в токе, обтекающем замкнутый контур, должно быть равно feT/2, где k — постоянная Больцмана, а Т — температура системы в градусах Кельвина. Следовательно, f CjT-)=t£(i'2) = -TL- (9.46) Среднеквадратичное значение тока можно вычислить по его спек- тральной плотности: оо Е^)= St(f)df. —оо Определяя как функцию передачи системы, связывающую ток в контуре и шумовое напряжение, имеем н (j2nf) = R+j2nfL , и, следовательно, согласно (9.36) и (9.45), So (0) S, m н (П=• х) См. Валлей и Уоллман (I, стр. 515—519) или Ван дер Зил (I, § 11.2).
9.4. Тепловой шум 219 Таким образом, среднеквадратичное значение тока равно - Em-S (0)7 “I s’-w J R*+(2afL)* ~ 2RL ' —CO Подставляя этот результат в (9.46) и решая получающееся урав- нение относительно SVn(0), находим: SVn(0) = 2kTR. (9.47) Следовательно, спектральная плотность эквивалентного генератора шумового тока, изображенного на фиг. 9.5, равна1) Sin(f) = 2kTg (9.48) Естественно встает вопрос о частотах, при которых спектральную плотность теплового шума нельзя уже считать постоянной2). Однако несомненно, что частота эта лежит далеко за пределами того диапазона частот, в котором физически реальное сопротивление можно трактовать как элемент с сосредоточёнными постоянными. Тепловой шум в линейных цепях. Найдем теперь спектраль- ную плотность шумового напряжения, развиваемого на паре зажи- мов линейной электрической цепи с потерями. Предположим сна- чала, что потери в рассматриваемой цепи обусловлены наличием в ней N сопротивлений. Пусть величина и температура n-го сопро- тивления равны соответственно 7?п и Тп. Выше мы говорили, что шумящее сопротивление можно заменить нешумящим сопро- тивлением и соединенным с ним последовательно источником шумового напряжения. Рассматриваемую цепь можно, следова- тельно, трактовать как 2(N-f- 1)-полюсник, на входы которого включены источники шумовых напряжений N сопротивлений. За исключением этих N сопротивлений, в цепи отсутствуют источ- ники потерь; схематическое изображение такой цепи дано на фиг. 9.7. Шумовые напряжения, генерируемые различными сопротивле- ниями, статистически независимы; поэтому спектральная плотность на выходе, согласно (9.44), равна N П=1 где переходная проводимость короткого замыкания уОп связывает выходные зажимы и зажимы n-го источника шумового напряже- ния, a Sn (f) — спектральная плотность n-го источника шумового 1) Эти результаты впервые были получены Найквистом. См. Найквист (I). а) См. Лоусон и Уленбек (I, § 4.5).
220 Гл. 9. Линейные системы напряжения. Согласно равенству (9.47), Sn(f) = 2*Tnfln. Следовательно, спектральная плотность шумового напряжения на выходе цепи может быть записана в виде N So (f) = 2k^ |-^|2Tn/?n. (9.49) П==1 Этот результат иногда называют теоремой Вильямсаг). Если Фиг. 9.7. Схема с потерями, содержащая W сопро- тивлений. температура всех сопротивлений в цепи одинакова и равна Т, то выражение (9.49) упрощается и -принимает вид N S0(f) = 2kT2 (9.50) - " I #оо I n=l Если, кроме того, цепь с потерями удовлетворяет условию взаим- ности, по крайней мере в том смысле, что для всех п Уоп = УпО> то спектральная плотность шумового напряжения на выходе ока- зывается равной S0J(/) = 2ЛТ7?О (/), (9.51) где 2?0 (f) — действительная часть импеданса цепи со стороны выход- ных зажимов. Этот результат обычно называется обобщенной !) Вильямс (I).
9.4. Тепловой шум 221 теоремой Найквиста\ при соответствующем определении понятия «сопротивление» он может быть распространен на линейные дисси- пативные системы в самом общем смысле этого слова1), напри- мер на броуновское движение, на флуктуации давления газа и т. п. Для доказательства обобщенной теоремы Найквиста предполо- жим, что мы можем замкнуть накоротко все идеализированные источники шумового напряжения vn и приложить синусоидаль- ное напряжение к выходным зажимам цепи. Комплексная ампли- туда тока /п, протекающего через сопротивление 7?п, связана с комплексной амплитудой приложенного напряжения Vo равен- ством I п ~ Уп^У О* В этих условиях средняя мощность Рп9 рассеиваемая на сопротив- лении /?п, равна Pn = ||/n|2/?n = ykno|a/?»|Vo|2. Полная средняя мощность, рассеиваемая во всей цепи с потерями, равна сумме средних мощностей, рассеиваемых на N сопротив- лениях: N knoMn. n=i Эту полную среднюю мощность можно выразить также через величины, относящиеся к выходным зажимам: где Э1 обозначает действительную часть, а 7?0 — действительная часть выходного импеданса zQ цепи с потерями. Сравнивая два последних выражения, находим, что N N Яо = |го|2Е кпо|2Яя = 3 |£°|2Яп- (9.52) п=1 П=1 Если Упо = Уоп Для всех п, то N > ^о=Е|т-ПГ^п. (9.53) л " I #00 I П=1 Подставляя последнее равенство в (9.50), получаем обобщенную теорему Найквиста (9.51). *) Каллен и Уэлтон (I).
222 Гл. 9. Линейные системы 9.5. Распределения вероятностей отклика В настоящей главе мы ставим себе задачу определения свойств вероятностного процесса на выходе линейной системы при воз- буждении ее вероятностным процессом на входе. До сих пор мы ограничивались в основном задачей отыскания корреляционной функции отклика по заданным корреляционной функции воздей- ствия и отклику системы на импульсное воздействие. Мы рассмо- трели также задачу нахождения спектра отклика по заданным спектру воздействия и функции передачи системы, эквивалентную в применении к системам с фиксированными параметрами, возбуж- даемым стационарными процессами, предыдущей задаче. Мы виде- ли, что обе эти задачи можно решить, по крайней мере в прин- ципе, если систему можно описать интегральным оператором типа (9.18). Если вероятностный процесс на входе является гауссовским, то, как было показано в § 8.4, вероятностный про- цесс на выходе также является гауссовским; следовательно, зная математическое ожидание и корреляционную функцию выходного процесса, можно в явной форме написать n-мерные плотности рас- пределений вероятностей выходного процесса1). Если процесс на входе не является гауссовским, то распределение вероятностей процесса на выходе, вообще говоря, не определяется его кор- реляционной функцией и математическим ожиданием. Поскольку это так, естественно встает вопрос о том, что можно предложить для отыскания распределения вероятностей процесса на выходе линейной системы при возбуждении ее нега- уссовским вероятностным процессом. Сказать по этому поводу можно лишь очень мало. По-видимому, кроме грубого метода вычисления всех моментов, не существует общего метода оты- скания даже одномерного распределения вероятностей вероят- ностного процесса на выходе. Это, конечно, очень неутешительно^ так как, во-первых, не все распределения задаются их момен- тами и, во-вторых, обычно практически невозможно выразить все моменты в удобной для вычислений форме. Однако есть несколько примеров задач такого типа, которые решены приме- нительно к тем или иным конкретным устройствам; в большинстве таких примеров вероятностный процесс на входе хотя и не являет- ся гауссовским, но представляют собой некоторый нелинейный функционал или класс функционалов от гауссовских процессов 2); таковы, например, огибающая, абсолютное значение или квадрат гауссовского процесса. Квадратичный детектор и видеоусилитель. Важным и интерес- ным примером служит расчет распределения вероятностей в мо7 х) См. Ванг и Уленбек (I, §§ 10 и 11). 2) См. Зигерт (I, стр. 12—25).
9.5. Распределения вербятностей отклика 223 мент t на выходе системы, состоящей из фильтра промежуточной частоты, квадратичного детектора и фильтра видеочастоты, на вход которого подается белый гауссовский шум или сумма сигнала и белого гауссовского шума. Этот пример был впервые рассмотрен Кацем и Зигертом х), и затем их результаты были усилены другими авторами2). Мы будем в основном следовать изложению Эмерсона 2). Прежде всего заметим, что, конечно, это один из тех примеров, когда на вход линейной системы подается не гауссовский процесс. В самом деле, хотя воздействие на входе фильтра промежуточной частоты является гауссовским процессом и отклик этого фильтра также является гауссовским, но зато воздействие на входе фильтра видеочастоты не является гауссовским, так как это есть отклик Фиг. 9.8. Линейная система с негауссовским воздействием на входе. /—фильтр промежуточной частоты; //—квадратичный детектор; ///—фильтр видеочастоты. детектора, являющийся квадратом гауссовского процесса. Труд- ность задачи обусловлена наличием фильтра видеочастоты, ибо распределение вероятностей на выходе квадратичного детектора в момент t может быть вычислено непосредственно (см. §§ 3.6 и 12.2). Фильтр промежуточной частоты введен в задачу по двум причинам: из соображений технической правдоподобности и из соображений математической целесообразности. При постановке задачи можно было бы исходить из стационарного гауссовского процесса на входе квадратичного детектора, однако для того, чтобы строго обосновать некоторые этапы расчета (который мы ' здесь не приводим), необходимо наложить некоторые ограничения на природу процесса на входе. В частности, достаточным является условие, чтобы процесс на входе обладал спектром, равным квад- рату функции передачи физически осуществимого устойчивого фильтра (т. е. таким спектром, какой получается при прохожде- нии белого гауссовского шума через фильтр промежуточной ча- стоты). Пусть /^(/ш) и Н2 (/со) — функции передачи соответственно фильтров промежуточной частоты и видеочастоты, a hA (/) *) Кац и Зигерт (I). 2) См. Эмерсон (I) и Мейер и Миддльтон (I).
224 Гл. 9. Линейные системы и Л2(/) —их отклики на импульсные воздействия (фиг. 9.8). Пусть, далее, t/0 (0 — воздействие на входе фильтра промежуточной часто- ты, (t) — отклик на выходе этого фильтра, a — отклик на выходе фильтра видеочастоты. Предполагая, что оба фильтра * устойчивы, мы можем написать 4-оо v1(t)= /i1(Z — s)y0(s)ds, ,(9.54) —оо 4-00 4*оо vi (0 = — s) hi G — w) vo (s) vo (u) ds du (9.55) —oo —oo и 4-oo v2 (t) = h2 (t — r) vl (t) dr. (9.56) —CO Следовательно, (0 = 4-00 4-00 4-00 = h2(t — r)h1(r — s)h1('t — u)v0(s)v0(u)dsdudr. (9.57) — OO —oo —oo Полагая or = Z —т, v = t — и и ц = s, приводим выражение (9.57) к виду 4-оо 4-00 t»2(/) = § A(p., v)v0(t — р.)г»0(/ — v)dpdv, (9.58) —OO —oo где 4-oo Л(н, v)= 5 a)^i (v — a) ^2 (a) (9.59) —oo Основная идея решения состоит в разложении входных сиг- нала и шума в ряд по ортогональным функциям, выбранным таким образом, чтобы отклик в момент t мог быть записан в виде ряда независимых случайных величин. Как мы покажем ниже, это можно сделать, если выбрать в качестве системы ортогональных функций ортогональную систему собственных функций интегрального урав- нения 4-оо Л (Щ v) ф (v) dv = %ф (|л)8 —оо (9.60) Из равенства (9.59) мы видим, что функция Л(р, v) симме- трична относительно |х и v. Можно также показать, что если
9.5. Распределения вероятностей отклика 225 h^t) интегрируема в квадрате, а Л2(/) абсолютно интегрируема, то 4-оо 4-00 Л2(р, v)dpdv < + СО. (9.61) ' —оо —оо при} этих условиях уравнение (9.60) имеет дискретную систему собственных значений и функций 2). Если, далее, /г2(/)>0 для всех t, то функция Л(р, v) является неотрицательно определенной; условие неотрицательной определенности функции Л(р, v)2) эквива- лентно условию неотрицательности правой части равенства (9.58), т. е. неотрицательности v2(f). Поскольку, однако, w2(/)>0, из (9.56) следует, что &,(/)> 0 при Л2(0>03). Теперь из теоремы Мерсера г) вытекает, что Л(Ц, V) = S Чфй (н) Фй (V), (9.62) k где и tpfe — собственные значения и ортонормированные собствен- ные функции уравнения (9.60). Подставляя (9.62) в (9.58), получаем +оо М0 = 2 Ч [ 5 °о(*-н)фй (н)ф]2. (9.63) k —со Предположим теперь, что входное воздействие состоит из сиг- нала, задаваемого функцией s(t), и выборочной функции п (/) белого гауссовского шума t»o(0 = s(O + n(O. (9.64) Если мы положим 4-00 Sfe(O= 5 s (z ~ н) Фй (и) Ф —-оо (9.65) и ' 4-00 «й(^ = J л(*-н)Фй(нЖ —оо (9.66) то отклик на выходе фильтра видеочастоты может быть пред- ставлен в форме f2(0 = 3^[sft(0+«ft(0]2. k (9.67) х) См. приложение 2, § 2.2. 2) См. приложение 2, § 2.1. 3) Заметим, что мы доказали только достаточность неравенства Л2 (/) > О Для неотрицательности Л (р, v); необходимость не была доказана. 1 5 Заказ № 57
226 Гл. 9. Линейные системы Пусть v2 — случайная величина, задаваемая значением v2(t) в мо- мент t, nk — случайная величина, задаваемая значением nfe(Z), и sfe —значение sk(t). Каждая из величин nk будет гауссовской случайной величиной, так как она является интегралом от гаус- совского процесса. Следовательно, каждая из величин sk + nk является гауссовской случайной величиной со средним значе- нием sk. Далее, все величины sk + nk взаимно независимы и имеют дисперсию Sn, так как 4-оо 4-оо Е(П]Пк)=-- E[n(t — u)n(t — и)] <р;-(u) <pfe (и) du du = — ОО —оо 4-оо 4-оо Sn6 (u — и) фу (u) <pft (и) du dv = — 00 —oo Sn при k = j, О при k=£jt (9.68) где Sn — спектральная плотность шума на входе, a 6(u — v) — импульсная функция. Таким образом, главная часть решения задачи о нахождении одномерного распределения вероятностей отклика системы уже проведена. Равенство (9.67) задает v2 как сумму квадратов неза- висимых гауссовских случайных величин, и, следовательно, характеристическая функция величины v2 может быть найдена пря- мым вычислением. Однако, после того как характеристическая функция получена, остается еще трудность в отыскании плотности распределения величины v2, т. е. в вычислении преобразования Фурье от характеристической функции. Характеристическая функция величины v2 имеет вид (/z) = Е {ехр [jz S Xft(Sfc + «ft)2]} = k = П£ <eXP l/zXh <Sk + nb)2]}- k Поскольку осреднение производится по распределению вероятно- стей гауссовской случайной величины nk, ” 4-°° / 2 w=П 5ехр [/z%ft (Sft+dtlk- (9-69) Интегралы можно вычислить путем дополнения до полных квад- ратов, что дает Л/f /• \ ТТ Ksk/^^n) ^iz^kSn/(l - П--------------------------- (9.70)
9.5. Распределения вероятностей отклика 227 Если воздействие на систему состоит только из шума, то sft = 0 и равенство (9.70) принимает вид = • (9.71) Квадратичный детектор, выделяющий огибающую. Прежде чем идти дальше, вернемся несколько назад и-рассмотрим задачу, лишь слегка отличающуюся от той, которой мы только что занимались. А именно, пусть теперь на выходе фильтра промежуточной часто- ты помещается не обычный квадратичный детектор, а квадратич- ный детектор, выделяющий огибающую1). Иными словами, если воздействие на входе детектора (/) может быть записано в виде узкополосного процесса со средней угловой частотой <оо, vi (О = Vx (i) cos aot - Vv (0 sin <aot, (9.72) то действие детектора будет заключаться в преобразовании этого воздействия в Vx(t) + Vy(t). Детектор, действующий таким обра- зом, можно интерпретировать двумя способами: во-первых, можно считать, что он образует огибающую иД/) и затем возводит ее в квадрат; во-вторых, поскольку (0 = | [V2* (0+VI (0]+у № (Оcos 2<М - vl (0 cos 2<М] + + vx(t) vy (0sin2©0/, можно считать, что в таком детекторе воздействие аД/) возво- дится в квадрат и затем высокочастотные составляющие полностью отфильтровываются (в том, конечно, предположении, что Vx(t) и Vy (t) не содержат высокочастотных составляющих). Вводя вместо квадратичного детектора квадратичный детектор, выделяющий огибающую, мы, строго говоря, допускаем существование физи- чески не осуществимого фильтра. Однако обычно, когда полоса видеочастотz обрезается гораздо ниже промежуточной частоты, фильтрация практически осуществима и замена квадратичного де- тектирования квадратичным детектированием, выделяющим оги- бающую, лишь незначительно изменяет задачу. Так как в настоящем параграфе мы предполагаем, что воз- действие на входе детектора имеет узкий спектр, то мы можем также считать, что полоса пропускания фильтра промежуточной частоты и ширина полосы сигнала в усилителе промежуточной частоты малы по сравнению с соо. Далее, поскольку на воздействие vi (/) на выходе усилителя промежуточной частоты влияет только та часть спектра белого шума, которая совпадает с полосой пропу- скания полосового фильтра промежуточной частоты, мы можем *) Эта задача была впервые изучена Кацем и Зигертом. 15*
228 Г л. 9. Линейные системы предположить, что шум на входе является не белым, а узкополос- ным, причем спектр его в некоторой окрестности и0 — постоянный. В этих предположениях действие усилителя промежуточной часто- ты, точно описываемое равенством (9.54), может быть приближенно описано с помощью эквивалентного фильтра низких частот. Такое приближение оказывается полезным здесь, а также при многих других обстоятельствах, когда узкополосные сигналы пропуска- ются через узкополосные фильтры. Для того чтобы ввести такую узкополосную эквивалентную схему, мы запишем входной сигнал в форме синусоиды: s (t) = а (/) cos (£>Qt — b (t) sin cooZ, (9.73) где a (t) и b (t) 'обладают, лишь частотными составляющими, ле- жащими в узкой (по сравнению с <оо) полосе около нулевой часто- ты. Шум на входе мы можем представить в виде п (0 — х (t) cos aQi — у (t) sin ®0/, (9.74) где x(t) и t/(Z) — выборочные функции независимых стационарных гауссовских процессов, каждый из которых имеет постоянную спектральную плотность Sn/2 в узкой по сравнению с и0 полосе частот около нулевой частоты и спектральную плотность, равную нулю, вне этой полосы. Можно проверить непосредственно, что процесс n(t) является стационарным и имеет спектральную плот- ность Sn/2 в узких полосах около частот — соо и +<оо. Вводя комплексные амплитуды se(0 = aW+/^(/), (9.75) мы можем выразить сигнал и шум на входе в виде s(O = 9t[se(O^‘] п(/) = Я[Ле(/)еЛ>о<]. Тогда выражение для воздействия на входе детектора (9.54) при нимает вид +<» t»i (/) = \ (t — и) [s (м) + п («)] du — —оо 4-00 = | (t - и) [se (и) + пе («)] du ]- = —оо 4-00 = 9? { е’Шо! /гх (t — и) е,<0° <и-г) [se (и) + п, (и)] du } ч (9.76)
9,5. Распределения вероятностей отклика 229 Поскольку 4-со M0 = 2Н Hdi<^da, —00 мы имеем +оо th - «) е_’“0 (‘-u) = 2Г 7/1 +е’а (<-u) d<0‘ —00 Подставляя этот результат в (9.76), получаем, что МО = 84^(0***], где -f-оо 4-оо У« (О = 2^ S Is* <“> + П« 5 Н1 + е’“(<-U) —СО —оо Таким образом, узкополосные функции Vx(t) и Vv(t) в (9.72) мо- гут быть представлены как соответственно действительная и мни- мая части Ve (ty. vx(t)^[ve(t)] и (0 = 3 [MOL Чтобы найти Vx(t) и Vv(Z), мы должны теперь использовать вы- ражения для действительной и мнимой частей интеграла со Н1 [j (и + <оо)] е3® (,-u> da. — СО Так как Н* (/<о) = Нг (— /со), то +<» Я { $ #! [/ (ш + %)] е™ «-“) d<o} = —оо 4-со = у Vя» [i(<tt + “в)] + Я1 [/ (® " (<_U> dfi> (9-77а) — со И 4-00 S { 5 Н11/ (® + ®о)] eie> ’ = —оо 4-оо = ^^Я1^<а> + а>о^“Я1[/(“~®о)]}е3’<В('-и)Й®- (9-77б> —оо Далее, Нг (/©) — функция передачи узкополосного фильтра со сред- ней частотой пропускания <в0. Если эта функция приблизительно
230 Гл. 9. Линейные системы симметрична в полосе около <в0 и вносит пренебрежимо малые фазовые сдвиги, то при частотах, близких к (о = 0, два слагае- мых в подинтегральном выражении (9.776) почти взаимно уничто- жаются. Поэтому в правой части равенства (9.76) мы можем пре- небречь мнимой частью функции /гх(£ —w)exp[ —/<в0(/ —ы)], ибо, как мы только что видели, составляющие частот, близких к нулю, пренебрежимо малы, а высокочастотные составляющие (в окрест- ностях ± 2а>0) исчезают, если учесть, что se (t) + пе (/) имеют толь- ко низкочастотные составляющие. Итак, вводя обозначения Hie (/®) = 4 [/ <® + ®о)] + Hi И (® “ ®о)]}> ОО Л1в = 2Г 5 Hle do> = COS (9-78) —ОО мы можем приближенно записать выражение (9.76) в виде 4-00 01 (0 = 91 { hle (t —.и) [s. (и) + пе («)] du j = —оо 4-оо = { ^le G — и) 1а («) + х (°)] cos ®(/ — —ОО 4-оо — { — «) Iй («) 4 У(«)] sina>ot. (9.79) —ОО Этот результат по форме совпадает с выражением (9.72), если по- ложить + со Vx(0 = 5 hle(t-u)[a(u) + x(u)]du —СО и 4-00 vy (О = J hle (t - и) \b (и) + у («)] du. (9.80) —оо Заметим, что как Vx(t), так и Vy(O по форме совпадают с сигна- лом на входе фильтра видеочастоты в случае детектирования квад- ратичным детектором. Поскольку фильтр видеочастоты линеен, отклик его v2(t) может быть представлен в виде суммы двух откли- ков, как и в равенстве (9.67). Более того, поскольку х{и) и у (и) — независимые процессы, Vx(t) и Vy(t) также являются независи- мыми процессами и слагаемые у2(0, обусловленные не за-
9.5. Распределения вероятностей отклика 231 висят от слагаемых, обусловленных Vy(f). Из этих соображений следует, что в случае квадратичного детектирования, выделяюще- го огибающую, отклик фильтра видеочастоты равен (0 = 3 {К (0+xk (OF+(0 + yh (ОН, (9.81) где ^ — собственные значения интегрального уравнения +оо • M(u, o)ip(t»)dt> = pp(«), (9.8z) — ОО 4-00 М(и, о)= /г1е(и—а)й1в(о —o)/i2(a)dcr, (9.83) —оо и где 4-00 «ft(/) = a(t — u)^k(u)duf —оо 4-°° М0 = 5 b(t — u)tyh(u)du, —ОО 4-00 'Лк(0= х(/ — «)1|>Л (и) du, —ОО 4-00 М0 = 5 У (z ““) 'Ч’ь (ы) du> (9-84) — ОО а («) — ортонормированные собственные функции того же инте- грального уравнения. Согласно нашим предположениям относи- тельно x(t) и y(t), величины xk и yk при всех k являются гаус- совскими случайными величинами, удовлетворяющими соотношениям ^(xft) = £(«/ft) = 0, С {УкУ1) = Е (.xkXj) = при k = j, О при k Ф /, £(xfet/;) = O при всех k и /. (9f.85) Так как величина v2, определяемая соотношением (9.81), в точности совпадает с суммой двух независимых случайных величин, опре- деляемых равенством (9.67), fo характеристическую функцию
232 Гл. 9. Линейные системы величины v2 можно найти сразу из (9.70): ЛЦ(/г)=П k exph-/wd 1—/zpftSn (9.86) Если воздействие на систему состоит только из шума, то последнее выражение принимает вид ".,(/»)=П Р-87> k Распределения отклика. Итак, мы получили выражения для характеристической функции случайной величины v2 на выходе системы для детекторов обоих типов. Получить в удобной для применений форме преобразования Фурье от этих выражений, т. е. плотности распределений вероятностей отклика системы, затруд- нительно. Одно из этих преобразований Фурье—от выражения (9.87) —может быть проинтегрировано путем вычисления вычетов, если все собственные значения простые, т. е. имеют кратность 1. Мы имеем Р - 2л е 3 * 2 П 1 —jzpkSn dz' —оо k (9.88} Пусть, как мы это предполагали ранее, /г2(/)>0, т. е. выходное напряжение неотрицательно; тогда все положительны, все полюсы подинтегрального выражения в (9.88) расположены в нижней полуплоскости плоскости г в точках zfe = — //HfcSn и интеграл (9.88) можно вычислить, замкнув контур в нижней полуплоскости1). При этом р (v2) оказывается равной умноженной на j сумме вычетов в полюсах, которые нетрудно вычислить, если все собственные значения |xfe различны. Таким образом, Hi Р (f2)= У-------п-----!----- при п2>0, I lj (1 — к^=1 о при других У2. (9.89} Обычно имеется бесконечное количество собственных значений |хк и соответственно бесконечное число полюсов, так что приведен- ный расчет остается чисто формальным. Эмерсон2) для ряда примеров приближенно вычислил распре- х) См., например, Кац и Зигерт (I). 2) Эмерсон (I).
9.5. Распределения вероятностей отклика 233 деление вероятностей на выходе, используя характеристическую функцию, заданную в форме (9.70). Его метод /состоит в том, что log [MV2 (jz)] разлагается в степенной ряд и затем с помощью коэффициентов ряда получается асимптотическое разложение для плотности распределения. Мы отсылаем читателя к этой статье для ознакомления с подробностями расчета, а также в связи с во- просами математического обоснования. Некоторые из результатов Фиг. 9.9. Плотность распределения вероятностей нормирован- ного отклика фильтра видеочастоты на воздействие в форме суммы синусоидального сигнала и белого гауссовского шума при отношении сигнал/шум на входе детектора, равном единице [фиг. 4 из работы Эмерсона (I)]. Эмерсона, относящиеся к случаю, когда на вход системы подается сумма полезного сигнала и белого гауссовского шума, т. 'е. к тому случаю, когда v0 (/) = A cos (dot + n(t), изображены на фиг. 9.9. Расчеты Эмерсона выполнены в предпо- ложении, что функции передачи фильтров как промежуточно? частоты, ~ отклики скими и так и видеочастоты являются гауссовскимих). при этом на импульсное воздействие также оказываются гауссов- имеют вид (/) ~ 2 (2л&х)1/2 ехр £ — (2л &J2 j cos cd0^ *) Строго говоря, такие функции передачи системы физически не осуще- ствимы [см. Уоллман (х)]. Однако ими довольно хорошо аппроксимируете» цепочка одинаково настроенных простых контуров.
234 Гл. 9. Линейные системы 41 h2 (0 = (2лЬ2)щ ехр [ - (2л&2)2 4] > (9-90) где Ьг и 62 — параметры, определяющие ширину полосы пропуска- ния, а ш0 —средняя частота полосы пропускания фильтра проме- жуточной частоты. Параметр у. на фиг. 9.9 представляет собой отношение полос пропускания поэтому большие значения у «соответствуют широкополосному фильтру промежуточной частоты и узкополосному фильтру видеочастоты. При этих расчетах пре- небрегалось наличием высокочастотных составляющих на выходе детектора для всех кривых, кроме кривой у = 0. Таким образом, кривая у = в относится к квадратичному детектору, выделяющему огибающую без дополнительной фильтрации, а кривая у = 0 — .к квадратичному детектору без фильтра видеочастоты. Решение этой задачи для одноконтурного фильтра промежу- точной частоты и простого фильтра низких видеочастот, а также рассмотрение предельных случаев (&i/&2) 0 и (bjbj) —> оо чита- тель может найти в работе Каца и Зигерта. В этой работе показано, что в последнем случае плотность вероятностей на выходе стремится к гауссовской. Пример 9.5.1. В качестве конкретного примера применения изложенной выше теории рассмотрим следующий. Белый гауссовский шум пропускается сначала через одноконтурную резонансную цепь с полосой пропускания малой относительной ширины, а затем через квадратичный детектор, выделяющий огибающую; после детектора происходит интегрирование. Каково распределе- ние вероятностей на выходе интегратора через время 7? Прежде всего покажем, что интегральное уравнение (9.82) можно преобра- зовать так, чтобы в него входили не Л1е (/), а непосредственно корреляционные функции Vx (t) и Vy(t) [см. равенство (9.72)]. Это можно сделать всегда, когда воздействием на входе является только шум. В самом деле, если мы положим со g(a)= Й1е (о—<T)i|>(o)dts (9.91) —ОО то уравнение (9.82) примет вид со hie(u—a)ft2(a)g(a)da=p.i|>(|i). • (9.92) —CO Умножая на hle (и — s) и интегрируя по и, получаем оо оо ла(а) [ hle(u — a)Ale(u —s)du J g (a) da — pg (s). —co — oo Выражение в квадратных скобках представляет собой корреляционные функ- ции Vx(t) и Vy(t) (которые равны друг другу) для случая, когда на вход фильтра промежуточной частоты подается белый шум. Поэтому мы можем
9,6. Задачи 235 написать оо fi2(a)Rie(o—s}g(o)da=g{s). (9.93) — ОО Собственные функции уравнений (9.93) и (9.82) связаны между собой равен- ством (9.91); собственные значения обоих уравнений одинаковы. Возвращаясь к нашему конкретному примеру, мы можем считать, что отклик одноконтурного фильтра промежуточной частоты приблизительно сов- падает с откликом сдвинутого по частоте RC-фильтра. Поэтому мы имеем приближенно Я1е(т)=е-в|*1. (9.94) Весовая функция второго фильтра h2 (/) определяется равенством ( 1 при А2(/) = 1 п . (9.95) , 2 k (0 при других t. Следовательно, уравнение (9.93) принимает вид Т ехр(—а|<т—s |)g(o) da = pg(s). (9.96) о Собственные значения этого уравнения могут быть получены из результатов примера 6.4.1 путем замены переменных в рассматриваемом там интегральном уравнении. Они равны >>>.=4(1^). где bk—решение уравнения . . ГЬаТХ , или (9-98) Эти значения будучи подставлены в (9.87) и (9.89), дают характеристиче- ские функции и плотность распределения вероятностей на выходе интегратора. Из равенства (9.91) следует, что Sn=l. 9.6. Задачи 1. Пусть x(t) и у (/) — соответственно воздействие на входе и отклик линейной системы с фиксированными параметрами. Показать, что если система устойчива и воздействие на входе имеет конечную энергию, т. е. если | h(x) |Мт<+оо —оо И 4-00 | х (0 |2 dt < +°°, —оо то отклик также имеет конечную энергию.
236 Гл. 9. Линейные системы 2. Пусть x(t) и y(t)— выборочные функции вероятностных процессов соот- ветственно на входе и выходе устойчивой линейной системы с фиксированными параметрами. Предположим, что процесс на входе стационарен. Показать, что 4-00 Rxy W= a)da. (9.99) —оо Предположим, далее, что спектральная плотность процесса на входе постоянна, т. е. что для всех f Sx(f) = Sx(O). Показать, что в этом случае ^у« = 5х(0)Л(т). (9.100) 3. Рассмотрим линейную систему с фиксированными~параметрами, изобра- женную на фиг. 9.10: Фиг. 9.10. Линейная система. а) Определить ее отклик на импульсное воздействие. б) Найти для нее функцию передачи. в) Определить, устойчива ли эта система. 4. Эффективная ширина полосы шума В^ устойчивой линейной системы с фиксированными параметрами определяется равенством 4-00 j | Я (/2л/) pdf В*=^ТЙ---------15---’ <9101> I #max I где | Ятах |—максимальное значение | И (j2nf) |, Найти Вх для системы, указанной в задаче 3. 5. Определить эффективную ширину полосы шума для цепи, изображенной на фиг. 9.11. 6. Предположим, что воздействие на входе цепи, изображенной на фиг. 9.11, складывается из выборочной функции стационарного вероятностного процесса с постоянной спектральной плотностью So и последовательности прямоугольных им- пульсов постоянной амплитуды. Длитель- ность импульсов равна б, а минимальный интервал между импульсами равен Т, причем б <С Т. Отношение сигнал/шум на выходе системы определяется как отношение мак- симальной амплитуды сигнала на вы- ходе к среднеквадратичному значению шума на выходе. а) Вывести соотношение, связывающее отношение сигнал/шум на выходе с длительностью импульсов и эффективной шириной полосы шума. с >— -A/V\ R - 0 с • 6 Фиг. 9.11. RC-фильтр низких частот.
9.6. Задачи 237 б) Определить, в каком соотношении должны находиться длительность импульсов на входе и эффективная ширина полосы шума для получения на выходе максимального отношения сигнал/шум. 7. Сопротивление /?, имеющее температуру Г, шунтируется конденсатором С. а) Найти спектральную плотность шумового напряжения на зажимах кон- денсатора С. б) Найти среднеквадратичное значение шумового напряжения на зажимах С. 8. Рассмотрим согласующую цепь без потерь, к выходным зажимам кото- рой подключено сопротивление R (фиг. 9.12). а) Найти функцию передачи системы, связывающую и2 с б) Найти действительную часть импеданса со стороны выходных зажимов. в) Пусть температура сопротивления R равна Т. Непосредственным под- счетом для данного конкретного случая показать, что спектральную плотность выходного напряжения и2 можно найти, исходя как из функции передачи, так и из действительной части выходного им- педанса. 9х). Предположим, что в момент R / = 0 ко входу устойчивого фильтра низких частот прикладывается воздей- ствие, задаваемое выборочной функцией х (/) стационарного в широком смысле Фиг. 9.12. Согласующая схема без вероятностного процесса. Пусть Rx(x)— потерь, корреляционная функция процесса на вхо- де, a h(t)—отклик фильтра низких частот на импульсное воздействие. Пусть, далее, отклик М(1) на выходе фильтра наблюдается в момент t=T. Тогда т М(Т)=^ h(t')x(T — t')dt'. (9.102) о Схема без потерь Удобно определить новый отклик h (t, Т) фильтра на импульсное воздействие при помощи равенства h(t, Т) = { h(t) при 0<Z<T, 0 при других t9 (9.103) Таким образом, новый отклик учитывает как взвешивание, осуществляемое фильтром, так и момент наблюдения. а) Пусть Мт—случайная величина, описывающая возможные значения М(Т). Показать, что Ч-ОО Е (MT) = mx h(t, T)dt (9.104) —со и, следовательно, Е (Мт)=тхН (0, Т), (9.105) где mx = E(x), а И (J2n.f, Т)—функция передачи системы,- соответствующей h(t, Г). б) Пусть Rh(x)= h(t, T)h(t-\-x, T)dt. (9.106) —ОО х) См. Давенпорт, Джонсон и Мйддльтон (I).
238 Гл. 9. Линейные системы Показать, что i 4-оо • Rh(x)= |W(/2nf, T)\3e-i2nfx df (9.107) ’ и, следовательно, 7?л(т) можно представлять себе как корреляционную функ- л цию отклика, наблюдаемого на выходе фильтра низких частот при подаче j на вход его процесса с постоянной и равной единице спектральной плот- | ностью. в) Показать, что 4-°о | в2(МТ) = Rh(r)R^x)dx (9.108) I —ОО ' и, следовательно, । 4-00 ? о2(Мт) = |Я(/2«А T)\2S^f)df, (9.109) I —оо где g (/) = %(/)—/пх, a S^(f)—спектральная плотность процесса g (/). 10. В условиях задачи 9: а) Показать, что при Т 0 приближенно g(MT) _ Ох Е(Мт) тх ' б) Показать, что при Т оо приближенно о(Л1т) _ [Sg(O)B.v]l/e Е (Мт) тх (9.110) (9.111) где B/v—эффективная ширина полосы шума фильтра низких частот (при Т оо). 11. Выполнить указанное интегрирование выражения (9.69) и получить в результате равенство (9.70). 12. Плотность распределения вероятностей отклика квадратичного детек- тора можно определить как предельный случай Л2 (/) = б (/)^в результатах, полученных в § 9.5, хотя проще найти ее непосредственно. а) Полагая (0 = ^(0 и принимая во внимание однозначность разложе- ния Л (pt, v), получаемого по теореме Мерсера, показать, что уравнение (9.60) имеет только одно собственное значение X. Затем выразить характеристиче- скую функцию выходного напряжения через это Л. б) Показать, что если воздействием на входе является только шум, то плотность распределения вероятностей отклика равна - р(»2) ( --itr) (2nSnXv2)1/2 (9.112) 13. Решить задачу 12 для квадратичного детектора огибающей. Срав- нить плотность распределения вероятностей отклика с полученной в пре- дыдущей задаче. 14. а) Показать, что логарифм \ogM (jz) характеристической функции 2 величины v2, определяемый равенством (9.70), может быть разложен в ряд по степеням z, такой, что 1) он сходится при |z |< , где —
9.6. Задачи 239* наибольшее собственное значение, и 2) /n-й коэффициент содержит и Sfe. только в виде 2^ к и £^2, т=1, 2, к б) Показать, что то же самое имеет место, если Mv^(jz) определяется* равенством (9.86), с той лишь разницей, что сумма 2 y™sk заменяется здесь k суммой «=И........ к 15. Исходя из результатов задачи 14 и приложения 2, показать, что* m-й коэффициент степенного ряда для Mv^(Jz) может быть выражен черев- (и, и) du —оо Н +оо -В» Л<т)(н, v)s(t—u)s(t—v)dudv. —оо —оо Таким образом, можно написать выражение для Л4Ф (jz), не вычисляя в явной форме собственных значений и собственных функций»
Глава 10 ШУМФАКТОР В большинстве систем связи и передачи данных оказывается необходимым на том, или ином этапе усиливать мощность сигнала с помощью линейных усилителей. В силу различных причин, отклик на выходе такого усилителя не является точной копией входного воздействия; частотные характеристики усилителя вносят опреде- ленные искажения в форму сигнала, и всякий раз, когда возникает собственный шум усилителя, он приводит к случайным возмуще- ниям на выходе. Основной аппарат, нужный для изучения этого, явления, был введен нами в предыдущей главе. Во многих практически интересных случаях неразумно требо- вать от усилителя чего-либо иного, кроме усиления подаваемого на вход воздействия (которое может состоять из полезного сигнала и шума) с возможно меньшими искажениями. В таких случаях встает вопрос о том, как найти простую характеристику качества работы усилителя, отражающую влияние его собственных шумов. Как было установлено на практике, полезным критерием качества является так называемый шумфактор усилителя. В этой главе мы определим шумфактор усилителя1) и изучим некоторые его свойства. Мы хотим ввести это понятие и отметить несколько выводов, которые можно сделать при его использова- нии. Читатель, желающий исчерпывающе изучить данный вопрос, может обратиться к другим источникам’2). 10.1. Определения Нашей задачей является изучение влияния шума, возникающего в усилителе, на систему, состоящую из усилителя, источника сигнала, подаваемогб на усилитель, и подключенной к нему на- грузки. Основные элементы такой системы показаны нафиг. 10.1. Здесь es и Zs представляют собой эквивалентное по Тевенену х) Хотя мы всюду в дальнейшем будем употреблять термин усилитель, все вводимые Понятия и получаемые результаты будут применимы к любой линейной системе. 2) Например, Валлей и Уоллман (I, гл. 12—14) или Ван дер Зил (I, гл. 3,7,9 и 10).
10.1. Определения 241 напряжение холостого хода источника и его внутреннее сопро- тивление, Zv — входное сопротивление усилителя (при разомкнутых выходных зажимах), е0 и Zo — эквивалентное по Тевенену на- пряжение и внутреннее сопротивление усилителя со стороны его выхода и ZL—сопротивление подключенной к усилителю нагрузки. Различные источники собственного шума усилителя представляются системой генераторов шумового тока /Л; все прочие элементы усилителя предполагаются нешумящими. Предполагается, что как источник, так и комбинация источника и * усилителя являются устойчивыми линейными системами. Фиг. 10.1. Усилитель и связанные с ним элементы. Номинальная мощность. Номинальная мощностьх) источни- ка Pas определяется как максимальное значение поставляемой им средней мощности: Pag = (P,)max. (Ю-1) В общем случае как спектральная плотность напряжения (или тока), развиваемого источником, так и его внутренний импе- данс являются функциями частоты. Поэтому мы нередко будем обращаться к номинальной мощности, отдаваемой источником в полосе частот с центром f бесконечно малой ширины df. Эта мощность будет называться дифференциальной номинальной мощностью* 2). Предположим, что напряжение источника является синусо- идальной функцией времени: es(t) = Л sin со/. Из теории цепей хорошо известно, что наибольшая мощность х) У авторов—«available power», что дословно переводится как «доступная мощность», «достижимая мощность» и т. п.—Прим, перев. 2) По соображениям единообразия с литературой, посвященной шум- фактору, мы в настоящей главе будем использовать преимущественно диф- ференциальную мощность, а не спектральную плотность. 16 Заказ №57
242 Гл. 10. Шумфактор 1 отдается источником тогда, когда импеданс нагрузки, на которую 1 он работает; равен числу, комплексно сопряженному к значению I внутреннего импеданса источника, т. е. когда ? ZL = ZS* = /?S-/X8, где R& и + jXs — соответственно действительная и мнимая части внутреннего импеданса источника. В этом случае р Д2/2 <^2 (0> ^as “ 4R* “ 4Я8 ‘ (Ю.2) Если es (t) — выборочная функция действительного стационарного вероятностного процесса, то аналогично дифференциальная номи- нальная мощность источника определяется как где (^f = 2Ses(f)df (10.4) — среднеквадратичное значение напряжения в полосе частот df с центром f. Представляет интерес тот частный случай, когда источником сигнала служит сопротивление Rsi имеющее температуру Ts. В этом случае es — напряжение теплового шума, генерируемого 7?s; согласно равенству (9.47), Ses(f) = 2kTsRs. । Дифференциальная номинальная мощность теплового шума сопро- | тивления равна при этом | Pas = k7\df, (10.5) J т. е. она зависит от температуры сопротивления, но не зависит от его величины. Шумовая температура. В силу простоты выражения (10.5), I часто оказывается удобным относить весь шум, генерируемый j источником, к действительной части его внутреннего импеданса | и характеризовать источник эффективной шумовой температурой, | определяемой формулой г..=-НГ’ <10' где Nas — дифференциальная номинальная мощность шума источ- ; ника. Поскольку Nas может меняться с частотой, Те$ также за- f1 висит от частоты. Относительная шумовая температура ts { источника определяется как отношение его эффективной шумовой f
10.1. Определения 243 температуры к стандартной шумовой температуре То, обычно принимаемой равной 290° К1): j. _ Тез_____N То “ k(29Q)df * (Ю.7) Таким образом, относительная шумовая температура источника равна отношению дифференциальной номинальной мощности со- здаваемого им шума к дифференциальной номинальной мощности шума сопротивления при стандартной температуре. Усиление по мощности. Усиление по мощности Ga устойчи- вого усилителя определяется как отношение дифференциальной номинальной мощности на выходе усилителя Рао к дифференци- альной номинальной мощности источника Ра&\ Ga = ^. .(10.8) г аз Рассмотрим усилитель, изображенный на фиг. 10.1. Как видно из схемы, дифференциальные номинальные мощности источника и на выходе усилителя равны здесь соответственно Р __ р _ (eo)d/ as 4RS ао 4Я0 • Следовательно, номинальное усиление по мощности равно /? (eo)df Rs$o (f) (10.9) где So (/) — спектральная плотность a0, a Ss (/) — спектральная плотность es. Спектральная плотность на выходе может быть най- дена методами, развитыми в гл. 9; она равна s0(f)=\^3^\2 Ss(f), где //(/2л/) — функция передачи для усилителя, связывающая и Таким образом, с _RS |Г7/ (2л/) Zj I2 а Ro I Zi+Zs I * (10.10) Необходимо отметить, что номинальное усиление по мощности зависит от соотношения между входным импедансом усилителя и выходным импедансом источника. ’) То есть 17° С, что несколько ниже нормальной комнатной температуры. Заметим, что &To/e = 0,25v, где е—заряд электрона. См. стандарты IRE (I). 16*
244 Гл. 10. Шумфактор , 10.2. Шумфактор Теперь мы в состоянии определить шумфактор усилителя: рабочий шумфактор усилителя Fo есть отношение дифферен- циальной номинальной мощности шума на выходе усилителя Nao к той ее части Nao^ которая обусловлена только шумом источ- ника, подаваемого на вход усилителя: Fo = ^. (10.11) a°s Таким образом, шумфактор усилителя есть мера его «шумности» относительно шумности» источника. Можно дать другое определение шумфактора. А именно, номи- нальная мощность шума на ъыходе усилителя, обусловленная только шумом источника, равна произведению номинальной мощ- ности шума источника Nas на номинальное усиление усилителя по мощности Ga. Подставив этот результат в равенство (10.1'1) и затем умножив и разделив полученное выражение на номиналь- ную мощность источника, получим F Ng, S as ° Ga^as Nas Здесь GaSas есть теперь номинальная мощность сигнала на выходе усилителя Sao. Следовательно, мы можем написать Таким образом, шумфактор усилителя равен дифференциальному отношению сигнал/шум источника (S/N)as, деленному на диффе- ренциальное отношение сигнал/шум на выходе усилителя (S/W)a0. Именно это соотношение было введено Фризомх) в качестве перво- начального определения шумфактора.. Установим некоторые свойства шумфактора. Прежде всего заметим, что, поскольку мощности, используемые для определе- ния шумфактора, относятся к дифференциальным частотным поло- сам, шумфактор является функцией частоты. Далее, заметим, что шум на выходе усилителя обусловлен двумя независимыми причинами: шумом источника и шумом, генерируемым в самом усилителе. Поэтому дифференциальная мощность шума на выходе есть сумма дифференциальной мощ- ности шума A/aos, обусловленного источником, и дифференциаль- ной мощности шума Nao^ обусловленной собственным шумом х) Фриз (I).
10.2, Шумфактор 245 усилителя. Используя этот факт в равенстве (10.11), получаем (Ю.13) aos Поскольку обе составляющие мощности шума на выходе неотри- цательны, шумфактор усилителя всегда не меньше единицы: FO>1. (10.14) Дифференциальная выходная мощность шума, обусловленная шумом источника, может' быть выражена через усиление теля по мощности и эффективную шумовую температуру ника. Поэтому равенство (10.13) может быть переписано F =1+ -а°[ 0 ^GakTesdf Мощность шума на выходе, обусловленная собственным усилителя, обычно не зависит от эффективной шумовой темпера- туры источника. Поэтому, согласно равенству (10.15), шумфак- тор усилителя зависит от эффективной шумовой температуры источника: чем ниже Tes, тем выше Fo. Стандартный шумфактор усилителя F определяется как шумфактор, соответствующий стандартной эффективной шумовой температуре источника: усили- источ- в виде (10.15) шумом Следовательно, шумфактор может быть выражен через стандарт- ный шумфактор: FO=1+^(F-1); (10.17) 1 е> так как во многих приложениях эффективная шумовая темпера- тура источника заметно отличается от стандартного значения 290° К (например, когда источником служит антенна1)), то при- менять стандартный шумфактор следует с осторожностью. Со стороны выходных зажимов усилителя комбинация источ- ника сигнала и усилителя, изображенная на фиг. 10.1, предста- вляется попросту двухполюсником. Следовательно, относительная «шумность» такой комбинации должна характеризоваться как относительной шумовой температурой, так и шумфактором. Согласно выражению (10.7), относительная шумовая температура to комбинации усилителя и источника равна t - 0 kTodf х) См., например, Лоусон и Уленбек (I, § 5.2).
246 Гл. 10. Шумфактор С другой стороны, согласно определению шумфактора—равенству (10.11), Nao = FoNaOs = F0GakTes df. (10.18) Следовательно, относительная шумовая температура комбинации источника и усилителя равна t0=--^F0Ga = tsFoGa, (10.19) 1 о где ts — относительная шумовая температура источника. Если шумовая температура источника имеет стандартное значение, то /0 = fGa, (10.20) так как FQ = F при Те& = Т0. Средний шумфактор. Средний шумфактор усилителя F% опре- деляется как отношение полной мощности шума на выходе уси- лителя к той ее части, которая обусловлена только шумом источ- ника. Полные мощности могут быть получены из дифференциаль- ных мощностей интегрированием по частоте. Таким образом, J FqGqTез df Fo = °--------. (10.21а) J GaTes df о Если эффективная шумовая температура источника не зависит от частоты, то оо I F0Gadf Л = °-^-----• (Ю.216) $Gadf о Средний стандартный шумфактор F есть значение Ft при эффективной шумовой температуре источника, равной на всех частотах 290°К. Согласно равенству (10.216), ОО \FGadf F = ^-------. (10.22) J Gadf о 10.3. Многокаскадный усилитель Рассмотрим теперь многокаскадный усилитель. Введенные выше определения применимы как ко всему усилителю в целом, так и к каждому его каскаду. Возникает вопрос о соотношении между усилением по мощности и шумфактором всего усилителя
10.3. Многокаскадный усилитель и соответствующими параметрами отдельных его каскадов. Мы будем исходить из предположения, что все каскады устойчивы. Усиление по мощности. Рассмотрим сначала двухкаскадный усилитель, изображенный на фиг. 10.2. Номинальное усиление по мощности этого усилителя Ga равно где Pas — дифференциальная мощность источника сигнала, а Ра02 — дифференциальная мощность на выходе второго каскада, для ко- торого источником служит комбинация источника сигнала и пер- вого каскада. Пусть Ga,2 — номинальное усиление по мощности Фиг. 10.2. Двухкаскадный усилитель. второго каскада при возбуждении его от источника с внутренним импедансом, равным выходному импедансу комбинации источника сигнала и первого каскада. Тогда мы можем написать РаО2 = Ga%Pаоц где Раог — дифференциальная мощность на выходе первого каскада при раскачке его от заданного источника. Если Gai — номинальное усиление по мощности первого каскада при раскачке его от задан- ного источника, то мы можем также написать Рао^ == GayP^» Из двух последних выражений получаем G«i2 = GaiGa2. (10.23) Итак, мы видим, что общее номинальное усиление по мощности двухкаскадного усилителя равно произведению номинальных уси- лений отдельных каскадов, если их усиления определяются при тхе же соотношениях между входными и выходными импедан- сами, что и усиление всего усилителя в целом. Рассмотрим теперь TV-каскадный усилитель, изображенный на фиг. 10.3. Такой усилитель может быть разбит на две части:
248 Г л. 10. Шумфактор часть, содержащую Af—1 каскадов, и часть, содержащую послед- ний каскад. Тогда, согласно (10.23), где N —- номинальное усиление по мощности всего усилителя, номинальное усиление последнего каскада. Последовательно при- меняя этот результат, получаем N (ю.м) •Итак, номинальное усиление по мощности Л/-каскадного усилителя равно произведению номинальных усилений отдельных его каска- дов, если эти последние определены при тех же соотношениях между импедансами, которые имеют место для усилителя в целом. Шумфактор. Общий шумфактор Fo 2 двухкаскадного усили- теля, изображенного на фиг. 10.2, согласно (10.15), равен р =14- —2 %2 l^Gai 2kTesdf ’ где NaOil 2 — дифференциальная мощность шума на выходе усили- теля, обусловленная собственными шумами обоих каскадов, 6О1 — номинальное усиление по мощности всего усилителя, Tes —- эффективная шумовая температура источника сигнала. Вели- чина NaOil 2 равна сумме дифференциальной мощности шума на выходе, обусловленной собственным шумом второго каскада, и умноженной на номинальное усиление по мощности второго каскада дифференциальной мощности шума на выходе первого каскада, обусловленной его собственным шумом. Так как р —14- Naoii и р =14- Ла^2 GaikTesdf И Г °* Ga2kTeidf 9 где Те1 — эффективная шумовая температура комбинации источ- ника сигнала и первого каскада, то мы можем выразить шумфак-
10.3. Многокаскадный усилитель 249 тор усилителя в целом через шумфакторы отдельных каскадов: Gai } • <10,25а> При Tei = Tes это выражение приводится к виду ч_,2='ч+АА) • <10-25б> \ а1 J В частности, если обе шумовые температуры стандартны, то ^1,2=4 + ^ • (Ю.26) Это выражение определяет соотношение между стандартными шумфакторами усилителя в целом и отдельных его каскадов. Рассмотрим теперь УУ-каскадный усилитель, изображенный на фиг. 10.3. Как и прежде, мы можем разделить его на две части. Пусть FOi у —общий шумфактор всего усилителя, F01 — общий шумфактор первых N — 1 каскадов, Те(У_Х) — эффективная шумовая температура комбинации источника сигнала и первых N. — 1 кас- кадов, FOn — шумфактор последнего каскада при раскачке его первыми N — 1 каскадами. Тогда, согласно равенствам (10.24) и (10.25), N—1 ЧЧлЧтЧЧ'УП Ч- 7И=1 Последовательное применение этого результата позволяет выра- зить FOi N через шумфакторы отдельных каскадов: N п— 1 Ч«=Ч + 2 П Ч- (10-27а> n=2 т=1 Если все Ten — Tesi то последнее выражение принимает вид N п-1 \ У = Л> + 2 (Fon- 1)/ П Gam- (Ю.276) 1>Л 1 п=2 п т=1 т Таким образом, если все эффективные шумовые температуры стандартны, то мы получаем соотношение между стандартными шумфакторами: Лл = Л+ 3 (Лг- 1)/”П Gam. (10.28) п=2 т=1 т Итак, шумфактор многокаскадного усилителя может быть получен
250 Гл. 10. Шумфактор подстановкой в (10.27) шумфакторов отдельных каскадов или подстановкой в (10.28) стандартных шумфакторов каскадов и последующим применением равенства (10.17). На практике может оказаться более удобной последняя процедура. Равенство (10.28) показывает, что если номинальное усиление по мощности всех каскадов, начиная с fe-го, намного больше еди- ницы, то, начиная с n = (&+l)-ro члена, процесс суммирования быстро сходится. При этом играют роль только собственные шумы первых k 4-1 каскадов. Если, например, все каскады обладают большим усилением по мощности, то шумфактор усилителя в целом определяется в основном шумфактором первого каскада. 10.4. Пример1) качестве иллюстрации применения полученных выше результатов найдем шумфактор однокаскадного усилителя на триоде, изображенного на ,фиг. 10.4. Будем считать, что реактивная связь между сеткой и анодом во, всей полосе усилителя нейтрализована и что рабочая частота настолько о "Х“ У Л- Усилитель Нагрузка Фиг. 10.4. Усилитель на триоде. высока, что нужно принимать во внимание время установления в цепи сетки и шум, наводимый в сеточной цепи2). Для этого случая эквивалентная схема системы изображена на фиг. 10.5. Все пассивные элементы схемы фиг. 10.5 предполагаются нешумящими (за исключением 7?е(?). Шумовой ток Zs источника предполагается обусловлен- Фиг. 10.5. Эквивалентная схема усилителя на триоде с точки зрения шумов. ныи активной проводимостью £s, имеющей эффективную температуру Т Входная проводимость усилителя предполагается состоящей из действитель- ной и мнимой частей, равных соответственно g. и шум, генерируемый х) Ср. Валлей и Уоллман (I, §§ 13.5—13.7). 2) См., например, Ван дер Зил (I, § 6.3) или Лоусон и Уленбек (I, § 4.10).
10.4. Пример 251 в действительной части, обозначается Шум, наводимый в сеточной цепи, характеризуется источником шумового тока ix\ предполагается, что он обуслов- лен проводимостью нагрузки сетки gx, имеющей эффективную температуру Тх. Шум, создаваемый анодным током триода, приписывается эквивалентному сопротивлению1) /?ед. Входную мнимую проводимость лампы Bi и выходную мнимую проводимость ее Zl мы для удобства изображаем сосредоточенными. Дифференциальная шумовая мощность источника равна РCL6 —-Т~ К?• ^gs Дифференциальная шумовая мощность на выходе усилителя, обусловленная шумом источника, равна Г (is)df ~| . ао* 4rp L (gs+gi+g^+Bf J • Следовательно, номинальное усиление усилителя по мощности равно (,0-30> Наиболее удобным из различных выражений для шумфактора в данном случае является выражение (10.15). Чтобы применить это выражение, мы должны найти дифференциальную шумовую мощность на выходе, обуслов ленную собственными шумами Nao,- Если считать, что собственные шумы порожденные различными причинами, не коррелированы между собой, то N — Г 4kT R dt I aoi 4rp L ToRe9df + (gs+gi+gxr+Bl и, следовательно (обозначая температуру через 7\), _ yMTadf г - tjgi+txgx -| rp LKee+(gs+^+gT)2+B? J ’ где ti и tx—относительные шумовые температуры входной сеточной цепи и проводимости нагрузки: <i = -p- и (10.31) 1 о 1 о х) Шум анодной цепи лампы часто удобно представлять шумовым сопро- тивлением включенным в сеточную цепь лампы (как на схеме фиг. 10.5) и обладающим стандартной эффективной температурой То. В этом случае спектральная плотность шума анодной цепи может быть записана в виде 5{(П = 2й7’0Ке<гя?„, откуда, согласно (7.91), для триода J_. (10.29) а То gm Необходимо- подчеркнуть, что ток через Req не протекает; важно лишь раз- виваемое на нем шумовое напряжение.
252 Гл. 10. Шумфактор Подставляя эти результаты в (10.15), получаем выражение для шумфактора однокаскадного усилителя на триоде: Го = 1+4>- { ti8i+tx8x +-^L [(£e+g£+gT)2+B?]} . (10.32) 1 8 I g S gs J Оптимизация Fo. Представляет интерес рассмотреть способы уменьшения шумфактора. Во-первых, полагая параметры схемы фиксированными, мы видим, что, согласно выражению (10.32), шумфактор Fo минимален, если рабо- чая частота такова, что Bi = 0. (10.33) Хотя это условие выполняется только на резонансной частоте входной цепи, оно может приблизительно удовлетворяться во всей полосе частот входного сигнала, если эта полоса частот значительно уже, чем полоса пропускания входной цепи усилителя. Из других параметров усилителя некоторые (ZT, gx и Req) всецело опре- деляются типом применяемой лампы. Единственное, что здесь можно сде- лать,— это выбрать такую лампу, для которой эти параметры по возможно- сти малы. Минимальное значение проводимости gt входной цепи определяется максимальным значением Q, которое может быть физически достигнуто при примененных элементах схемы и требуемой ширине полосы пропускания вход- ной цепи. Относительная шумовая температура сеточной входной цепи ti может быть понижена путем охлаждения входной цепи. Эффективная шумовая температура источника обычно контролю не под- дается; поэтому единственная остающаяся возможность состоит в подборе проводимости источника, обеспечивающей наименьшее значение Fo. То, что существует оптимальное значение g$, вытекает из равенства (10.32): Fo оо при gs 0 или gs -> оо. Оптимальное значение можно найти, приравнивая нулю частную производную от Fo по gs. При этом мы получаем, предполагая 2?i = 0, что £e)ePt= 1]1/2- (Ю.34) Подставляя этот результат в (10.32) и полагая В; = 0, находим =1k>+«.+ [ ]')• <10'35> В некоторых практически используемых усилителях выполняется условиех) »tei+sT)2- (ю.зб) В таких случаях оптимальное значение проводимости источника оказывается приблизительно равным LT^-J ’ (1037) при этом минимальное значение шумфактора равно fomin= 1 + 2 [Req (10.38) х) Ср. Валлей и Уоллман (I, § 13.6).
10.5. Задачи 253 Итак, мы видим, что обычное согласование импеданса источника с вход- ным импедансом усилителя (т. е. такое согласование, при котором имеет место максимальная передача средней мощности) не обязательно обеспечивает наименьшее возможное значение шумфактора усилителя. Мы рассмотрели этот пример с целью проиллюстрировать применение раз- витых ранее идей, относящихся к шумфактору. Полученные при рассмотрении этого примера выводы справедливы лишь для эквивалентной схемы, изобра- женной на фиг. 10.5. 10.5. Задачи 1. Рассмотрим систему, изображенную'на фиг. 10.1. Пусть ток собствен- ных шумов in обусловлен проводимостью gn, имеющей эффективную темпера- туру Тп, и пусть Zon—переходной импеданс, связывающий выходное напря- жение е0 эквивалентного по Тевенену усилителя с током 1п. Вывести выражение для шумфактора усилителя как функции от параме- тров системы. 2. Рассмотрим систему, изображенную на фиг. 10.6. Пусть а < Ь Ь^> 1 температура всех сопротивлений стандартная. Фиг. 10.6. Двухзвенный аттенюатор. а) Определить номинальное усиление по мощности цепей А и В, выразив его через Я, а и Ь. б) Определить стандартные шумфакторы цепей А и В. 3. В тех же предположениях задачи 2 (фиг. 10.6): а) Определить общее номинальное усиление по мощности обоих каска- дов А и В. б) Определить общий стандартный шумфактор. в) Определить относительную шумовую температуру системы. 4. Предположим, что эффективная шумовая температура Tes источника, подключенного к данному усилителю, не меняется с частотой. Показать, что средний шумфактор Fo усилителя связан со средним стандартным шумфакто- ром F равенством Fo=l+-f2-(F-l). (10.39) 1 es 5. Рассмотрим систему, изображенную на фиг. 10.7. Пусть Rs, Ri и Rl имеют стандартную температуру. а) Найти номинальное усиление усилителя по мощности. б) Найти стандартный шумфактор усилителя. в) Найти приближенные выражения для величин, указанных в а) и б), применительно к случаю Ri^> Rs и лампе с высокой gm.
251 Гл. 10. Шумфактор 6; Пусть значения параметров схемы фиг. 10.7 равны ^s = 600oAt, Ri = 0,5 мгом, 7?jr,= I00 ком, а значения параметров лампы gm = 1600 мгом, гр = 44000 ом, = 1560 ом. Для этих значений: а) Вычислить номинальное усиление усилителя по мощности. б) Вычислить стандартный шумфактор. 7. Для системы, указанной в задаче 5: а) Найти оптимальное значение сопротивления Rs источника. б) Вычислить оптимальное значение, найденное в а), используя значения па- раметров, указанные в задаче 6. в) Используя результат пункта б), найти номинальное усиление по мощ- ности и шумфактор усилителя при сопротивлении источника^ имеющем опти- мальное значение. 8. Рассмотрим систему, изображенную на фиг. 10.8. Измеритель мощности измеряет выходную мощность усилителя в полосе частот ширины df на ча- стоте f. Сопротивление источника имеет стандартную температуру. Диод в режиме Фиг. 10.8. Схема измерения шумфактора. а) Показать, что отношение показаний Р$ измерителя мощности при вклю- чении параллельно Rs диода и показаний его Ро в отсутствие диода равно Pd . . elR? Ро ^2kT0F ' (10.40) где / — средний ток, протекающий через диод, работающий в режиме насыщения. б) Показать, что если Р^/Ро=2, то стандартный шумфактор усилителя равен F = 20ilRs. (10.41)
10. 5. Задачи 255 91). Рассмотрим систему, изображенную на фиг. 10.9. Входы N идентич- ных усилителей с большим усилением, схемы которых совпадают с изобра- женной на фиг. 10.4 и 10.5, присоединяются к источнику через линейную пас- сивную согласующую цепь, а выходы усилителей соединяются последовательно и работают на общую нагрузку. Фиг. 10.9. Схема соединения W усилителей. Показать, что стандартный шумфактор такой системы не меньше опти- мального стандартного шумфактора одного усилителя. 10. Было высказано предположение 2), что шумовые ^свойства усилителя лучше характеризуются шумовой мерой усилителя М, равной м=тйтг7- ‘,0 42> а не просто шумфактором. Рассмотрим двухкаскадный усилитель с одинаковыми каскадами. Показать, что шумовая мера усилителя равна шумовой мере одного каскада, тогда как шумфактор усилителя превышает шумфактор одного каскада. Ч Ср. Бозе и Пизарис (I). 2) Хауз и Адлер (I).
Глава 11 ОПТИМАЛЬНЫЕ ЛИНЕЙНЫЕ СИСТЕМЫ 11.1. Введение Одним из применений теории, развитой в главах 6 и 9, является построение линейных систем, выполняющих оптимальным образом заданные операции, если на некоторые или все входы системы подаются выборочные функции вероятностных процессов. К числу таких систем относятся, например, так называемые сгла- живающие фильтры, предназначенные для возможно лучшего выделения полезного сигнала из смеси сигнала и шума; другим примером могут служить прогнозирующие фильтры, предназначен- ные для воссоздания будущих значений полезного сигнала, причем и здесь полезный сигнал может быть смешан с шумом. В настоя- щей главе мы рассмотрим методы построения оптимальных линей- ных систем. Для удобства мы всегда будем полагать, что как полезный сигнал, так и шум являются действительными функ- циями времени. Прежде чем перейти к решению различных частных задач, рассмотрим условия четырех типов, которыми в основном выде- ляется специфика ' любой задачи, относящейся к построению оптимальной системы. Этими условиями являются назначение системы, природа входного сигнала, используемый критерий каче- ства работы системы и допустимая свобода выбора при конструи- ровании системы. Задание этих четырех условий определяет при- роду рассматриваемой оптимизационной задачи, хотя может, конечно, оказаться, что эта задача вообще не имеет решений, или не имеет наилучшего решения, или имеет не единственное наилуч- шее решение. На практике к условиям указанных четырех типов обычно добавляются и некоторые другие условия, например стои- мость системы (быть может, в некотором обобщенном смысле этого слова). Для наших нынешних целей, однако, мы будем считать, что стоимость системы не учитывается. Вместо того чтобы рассматривать указанные типы условий абстрактно, обратимся для иллюстрации к некоторой конкретной ситуации и рассмотрим, например, задачу о построении оптималь- ного сглаживающего фильтра. Предположим, что в нашем рас- поряжении имеется искаженный сигнал y(t), являющийся суммой полезного сигнала s(t) и нежелательного шума п(/): z/(O = s(/)+n(Z).
11.1. Введение 257 Первый тип условий задачи — назначение системы. В данном слу- чае мы будем считать, что назначением системы является вос- становление полезного сигнала s(t) по искаженному сигналу y(t). Теперь мы должны задать природу обоих воздействий s(/) и n(t). На этот счет имеется ряд возможностей, включая и ряд неинтересных. Например, если s(t) точно известно, то, по край- ней мере в принципе, задачи не возникает вовсе; если точно известно и (/), то тривиально получается решение s(t) = y(t) — n{t) и задачи опять-таки не возникает. В другом крайнем случае, если мы не имеем априори никакой информации относительно s (/) и и (О» то нет никакой надежды даже приблизительно выделить s(t) из суммарного воздействия y(t). Очевидно, представляющим интерес случаем является тот, когда имеется некоторая, но не слишком большая неопределенность в обоих сигналах. Часто ока- зывается разумным предполагать, что шум n(t) на входе обусло- влен некоторым случайным физическим явлением, статистические свойства которого известны, например, что это —тепловой или дробовой шум. Если это так, то мы можем считать п (t) выбороч- ной функцией вероятностного процесса. Сигнал s (/) может в зависи- мости от своего источника описываться, например, полиномом /тг-й степени с неизвестными коэффициентами, конечным три- гонометрическим рядом с неизвестными коэффициентами, выбороч- ной функцией вероятностного процесса или комбинацией перечис- ленных сигналов. Обычным является также предположение, что как полезный сигнал, так и шум являются выборочными функ- циями стационарных вероятностных процессов с известными кор- реляционными и взаимными корреляционными функциями. Эти предположения были сделаны Винером в его теории линейных сглаживающих фильтров, которую мы будем рассматривать ниже. Для оценки качества работы системы, т. е. для суждения о том, насколько успешно выполняет она свои функции, можно использовать множество различных критериев. Искомым выход- ным сигналом системы является s(£); если фактический отклик есть z(t), то каждый функционал от s(t) и z(t) может слу- жить некоторого рода мерой качества работы системы. Обычно, однако, за меру качества работы системы берут ту или иную величину, зависящую от разности г(^) —s(/), достигающую мини- мума (максимума), если ошибка равна нулю, и возрастающую (убывающую) с увеличением ошибки. Поскольку мы рассматри- ваем системы, работающие со случайными сигналами на входе, а следовательно, и на выходе, естественно использовать вероят- ности и математические ожидания. В частности, разумными мерами качества работы системы, или, иными словами, малости ошибки, являются 1) P(zt = st\y(r), т</)> 17 Заказ № 57
258 1л. 11. Оптимальные линейные системы 2) P(|zt-st|>8), 3) E(|zt - st|), 4) E (\zt —st\2). Читатель легко может дополнить этот перечень. Применяя кри- терий (1), мы ищем систему, для которой является наибольшей условная вероятность при условии, что известна вся предыстория сигнала и что отклик системы совпадает с истинным значением полезного сигнала. Такой критерий является заманчивым, если плотности условных вероятностей непрерывны и мы заинтересованы лишь в том, чтобы ошибки были малы на протяжении возможно большего интервала времени, а все ошибки, превосходящие неко- торую определенную величину, считаются, грубо говоря, одина- ково плохими. Такой критерий имеет, однако, тот недостаток, что он требует полного знания статистики входного сигнала, что часто недоступно1). Критерий (2) является такой мерой качества системы, при которой все ошибки, превосходящие некоторое поро- говое значение, считаются одинаково плохими, а малые ошибки никак не учитываются. В этом случае, конечно, искомой является система, минимизирующая рассматриваемую вероятность. При использовании критериев (3) и (4) ошибки взвешиваются в соот- ветствии с их величиной, причем в критерии (4) большим ошиб- кам придается особо большой вес. Критерий (4) во многих при- менениях не является наилучшим критерием, а часто он оказы- вается даже хуже других. Однако он обладает тем достоинством, что приводит к аналитически разрешимым задачам. Величина E(\zt — sj2) может быть вычислена непосредственным образом, если известны корреляционная функция входного сигнала и функ- ция передачи линейной системы. Критерий минимума среднеквадра- тичной ошибки используется в винеровской теории линейного сглаживания и в большинстве обобщений этой теории. Наконец, мы должны рассмотреть вопрос о свободе выбора, допустимой при построении системы. В начале настоящей главы мы предположим, что будут рассматриваться лишь линейные системы. Такое ограничение обусловлено отнюдь не тем, что линейные системы обязательно являются наилучшими, а просто лишь тем, что допущение более широкого класса возможных систем приводит к слишком большим математическим трудно- стям. Кроме того, мы обычно требуем, чтобы рассматриваемые х) Выражение (1) не может служить мерой качества работы системы, поскольку для заданной системы оно не является фиксированным числом, а зависит от искаженного сигнала так что выражение (1) определяет случайную величину. Впрочем, нетрудно уточнить рассуждения авторов, например, взяв за меру качества работы системы математическое ожидание случайной величины (1).— Прим. ред.
11.1. Введение 259 системы были линейными системами с фиксированными парамет- рами и чтобы они были физически осуществимы. Ограничение систем классом систем с фиксированными параметрами иногда необязательно; однако если на входе системы мы имеем дело со стационарными вероятностными процессами, то мы ничего не теряем, приняв это ограничение. Ограничение, допустимых систем классом физически осуществимых нужно не столько для упроще- ния анализа, сколько для того, чтобы гарантировать практическую ценность полученных результатов. В действительности все тон- кости винеровской теории сглаживающих фильтров возникают из- за этого последнего ограничения. Иногда исходят из предположе- ния, что воздействие на систему подавалось в течение всего про- шедшего времени; в других случаях считают, что воздействие имело место лишь в течение конечного интервала времени. Мы изучим сглаживающие фильтры в обоих этих случаях. Мы говорили выше только о сглаживающих фильтрах; совер- шенно очевидно, однако, что такие же рассуждения применимы к любым задачам о построении оптимальных систем. Условия четырех перечисленных типов должны быть заданы в любой такой задаче, прежде чем будет установлена ее математическая форму- лировка. Три из этих условий — назначение системы, природа входного сигнала и допустимая свобода выбора — достаточно четко определяются тем, как и где должна работать система, а также теоретическими и практическими ограничениями, возникающими при ее конструировании. Последнее условие — критерий качества работы системы—''также зависит от указанных выше факторов, однако этот вопрос значительно тоньше. Мы будем считать, что основанная на опыте интуиция и знание указанных выше факто- ров достаточны для правильного выбора критерия качества. Более подробное рассмотрение этой стороны дела привело бы к теории решающих функций1), основная задача которой состоит в отыска- нии правил, с помощью которых можно принять решение о том, что один объект лучше другого. В настоящей главе мы будем использовать критерий наименьшей среднеквадратичной ошибки всюду, за исключением § 11.8, (где мы воспользуемся несколько иным, однако очень близким к нему критерием. В гл. 14 мы вновь вернемся к задаче о построении оптимальной системы, и там нам придется иметь дело с различными критериями ка- чества. В последующих параграфах настоящей главы мы рассмотрим выбранные более или менее произвольным образом задачи, связан- ные с построением оптимальных линейных систем, предназначен- ных для сглаживания, прогнозирования и повышения отношения библио?р ф НаПрИМер’ Миддльтон и Ван Метер (I), где содержится обширная 17*
260 Гл. 11. Оптимальные линейные системы сигнал/шум. Техника, которую мы здесь используем, применима к более широкому классу задач, чем тот, который будет здесь рассмотрен. 11 .2. Сглаживание и прогнозирование стационарных воздействий с использованием бесконечной предыстории (теория Винера) Применительно к настоящей задаче мы будем предполагать, что воздействие на входе y(t) состоит из полезного сигнала s(t) и шума n(t), причем как s(t), так и п(1) являются выборочными функциями действительных стационарных в широком смысле вероятностных процессов со стационарной взаимной корреляцион- ной функцией. Мы будем искать весовую функцию h(t) физически осуществимого линейного фильтра с фиксированными параметрами, который при подаче на вход его всех предыдущих значений y(t) обеспечивает на выходе в момент t наилучшее в смысле средне- квадратичного значения приближение к s(/ + t|), т]>0. Это есть задача о совместном сглаживании и прогнозировании; обычные задачи о сглаживании и о прогнозировании в отсутствие шума являются частными случаями этой задачи. Решение этой задачи принадлежит Колмогорову и Винеру1). Сначала мы будем придер- живаться в основном изложения Винера. С математической точки зрения нет существенной разницы (хотя она, может быть, имеется с другой точки зрения), рассматривать ли s(t) и n(t) как выбо- рочные функции вероятностных процессов и использовать мате- матические ожидания (такова процедура, которую мы здесь при- меним) или рассматривать s(t) и n(t) как неизвестные детермини- рованные функции времени с известными временными корреля- ционными функциями и использовать временные средние. Читатель, интересующийся теорией в этой последней трактовке, может обра- титься, в частности, к краткой работе Левинсона2). Итак, воздействие на входе фильтра есть y(t) = s(f)+n(t). (11.1) Отклик фильтра с весовой функцией h(t) равен h(t — т)у(т)dx = h(т)у(t — т)dx, (11.2) — ОО —оо где h (/) = 0 при t < 0. Среднеквадратичная ошибка ё равна ОО g = £ h(x) y(t — t)Jt] j- ; (11.3) — OO x) Винер (III). Ссылку на Колмогорова см. там же, на стр. 59. 2) Левинсон (I).
11.2, Теория Винера 261 требуется путем соответствующего выбора h(t) минимизировать эту ошибку. На самом деле может и не существовать функции h (t), которая бы обеспечивала минимум ошибки и входила в класс функций h (/), соответствующих физически осуществимым фильтрам. Этот вопрос рассматривается ниже. Так как s(t) и nit) имеют стационарные корреляционные и взаимную корреляционную функ- ции, то выражение (11.3), определяющее среднеквадратичную ошибку, может быть разложено и записано в виде оо % — Е [s2 (t + tj)] — 2 h (т) Е [s (£ + г)) у (/ — т)] dx + — ОО оо оо + § h(x)h(ii)E[y(t — x)y(t-ik)]dxdp,= —оо —оо оо * = /?.(0)-2 h(т)7?зу(г] + т)dx + —оо оо оо + Л(т) Л(р.) Ry(x— n)dxdp.. (Н.4) —ОО —оо Найдем теперь необходимое условие, которому должна удовле- творять h{t) для того, чтобы £ была минимальна. Предположим, что g (/) — весовая функция некоторого произвольного осуществи- мого фильтра. Тогда h it) + eg it) есть весовая функция осущест- вимого фильтра, и если hit) обеспечивает наименьшую средне- квадратичную ошибку, то выражение в правой части (11.4) при замене h (t) на h (/) eg (/) должно быть по крайней мере не меньше, чем до такой замены. Это должно быть верно при любом вещест- венном 8 и для любой из относящихся к указанному классу функ- ций g(t). При замене h(t) на h(t) + egit) правая часть равен- ства (11.4) принимает вид ОО V оо ЯЛ0) — 2 h(x)Rsy(v\ + x)dx — 2е g (т) /?8у (я + т) dx + —оо —оо оо • оо —оо —оо оо оо + 2е^ h(x)g(ii)Ry(x — n.)drdp.-|- —оо —оо оо оо +е2$ § (Н-5) —оо —оо
262 Гл. 11. Оптимальные линейные системы Для того чтобы Л(/) обеспечивала минимум ошибки, разность между этим выражением и правой частью равенства (11.4) должна быть неотрицательна, т. е. оо оо оо 2е{ 5 $ + — оо —оо —оо оо оо + е2^ Я(т)5(Ю^у(т — |x)drdp.>0. (11.6) —оо — оо Последнее слагаемое в левой части неравенства (11.6) всегда не- отрицательно, так как Ry(t)—неотрицательно определённая функ- ция1). Если выражение в фигурных скобках отлично от нуля, то при соответствующем выборе числа 8, положительного или отрицательного, левая часть неравенства (11.6) в целом оказывается отрицательной.' .Следовательно, для выполнения этого неравенства необходимо, чтобы оо со оо 5 Л(т)^(р,)/?у(т-н)с1тф- g(T)/?sy(ri + T)dT = 0. (11.7) —оо —оо —оо Поскольку при отрицательных значениях аргумента функции h(t) и g(f) должны обращаться в нуль, равенство (11.7) может быть записано в виде оо со Я(т)[ Л(н)Яу(т-ЮФ-#зУ(т1+'г)] dr = Q. (11.8) О о Теперь очевидно, что (11.8) может удовлетворяться при всех £(т), только если оо Я8у(т + п)= $ *>0. (11.9) О Таким образом, если функция h(t) такова, что осуществимый фильтр с фиксированными параметрами и весовой функцией Л(/) дает минимальную в классе всех осуществимых фильтров с фикси- рованными параметрами среднеквадратичную ошибку прогнозирова- ния величины s(^ + t]), то такая функция h(t) должна удовлетво- рять интегральному уравнению (11.9). Итак, мы показали, что выполнение соотношения (11.9) для h (/) — необходимое условие для того, чтобы h(t) обеспечивало минимум ошибки; это условие является также и достаточным. В самом деле, если функция h(t) удовлетворяет уравнению (11.9), то равенство (11.8) удовлетворяется для всех g(t). Пусть теперь f (0 —весовая функция некоторого осуществимого фильтра; пока- *) См. гл. 6, § 6.6.
11.2. Теория Винера 263 жем, что h(t) дает меньшую среднеквадратичную ошибку, чем f(t\ Пусть g(t) = f(t)~h(t). Неравенство (11.6) выполняется, поскольку выполняется равенство (11.8). В частности (11.6) выполняется для заданной функции g(t) и 8=1. Но левая часть неравенства (Н.6) при 8=1 есть просто разность между средне- квадратичными ошибками, даваемыми фильтрами с весовыми функ- циями g{t) + h(t) = f(f) и h(t). Следовательно, ошибка при фильт- ре с весовой функцией Л(/) не больше, чем ошибка при любой иной возможной весовой функции фильтра. Таким образом, задача нахождения оптимального сглажива- ющего и прогнозирующего фильтра теперь сводится к решению интегрального уравнения (11.9). В § 11.4 мы решим это уравнение при условии, что взаимная спектральная плотность Ssy (f) является дробно-рациональной функцией. Прежде, однако, стоит обсудить более детально уравнение (11.9) и его вывод и, в частности, рас- смотреть специальные случаи чистого сглаживания и чистого про- гнозирования, а также влияние условий физической осуществимо- сти фильтра. Сглаживающий фильтр с бесконечной задержкой. Предположим, что при выводе уравнения (11.9) мы отказались от условия физиче- ской осуществимости оптимального фильтра. В этом случае мы должны были бы отыскивать весовую функцию h (/), обеспечивающую наименьшую среднеквадратичную ошибку, из числа всех весовых функций, в том числе и таких,- которые не обращаются в нуль при отрицательных значениях аргумента. Нетрудно понять, что при этих обстоятельствах выполнение уравнения (11.7) по-прежнему является необходимым условием, которому должна удовлетворять наилучшая функция Л(/), причем теперь g(t) — произвольная весовая функция. Следовательно, равенство (11.8), если заменить в нем нижние пределы в обоих интегралах на — оо, также задает необходимое условие, и уравнение (11.9) заменяется уравнением оо ^sv(T + n)= Л(|*)/?и(т — |Х)<2|Л, — оо < т < со, (11.10) — ОО которое, как нетрудно видеть, выражает не только необходимое, но и достаточное условие для того, чтобы h (t) обеспечивало мини- мум ошибки. Уравнение (11.10) легко решить с помощью преобра- зования Фурье. Поскольку правая часть является сверткой, мы имеем СО ews. v (f) = 7?sy (Т + п) е~^ dr = — оо оо оо = h([i) /?„(т- р.)е-’штфйт =
264 Гл. 11. Оптимальные линейные системы = h (|л) е~^ с!ц Ry (|) е~^ d% — —оо —оо = H(j2xf)Sy(f), откуда (11.11) ^у \П Если сигнал и шум не коррелированы между собой и обладают равными нулю средними значениями, то (11.11) принимает вид <п-12> Фильтр, задаваемый функцией передачи (11.12), физически не осуществим; если, однако, допустить задержку по времени отклика фильтра относительно воздействия на него, то такой фильтр можно будет приближенно аппроксимировать осуществимым фильтром, при- чем аппроксимация будет тем более точной, чем большую задержку мы допустим1). Фильтр, задаваемый равенством (11.11), прит] = 0 мы назовем оптимальным сглаживающим фильтром с бесконечной задержкой. Решение, задаваемое равенством (11.11), имеет некото- рый практический интерес: оно определяет фильтр, являющийся приблизительно наилучшим в тех случаях, когда длительная запись входных данных (сигнала плюс шум) доступна к моменту начала обработки (фильтрования) этих данных. В этом случае t выступает в задаче как параметр записанных данных, не связанный с дей- ствительным временем. Кроме того, решение (11.11) представляет интерес, поскольку, как будет показано ниже, оно связано с наи- лучшим физически осуществимым сглаживающим и прогнозиру- ющим фильтром. Выражение (11.12) поддается особенно простой интерпретации, согласно которой наилучшее «сглаживание» имеет место тогда, когда из спектра входного воздействия, являющегося суммой сигнала и шума, учитываются с наибольшим весом те со- ставляющие, для которых отношение спектральной плотности сигна- ла к спектральной плотности шума является наибольшим. Самое лучшее, что может сделать фильтр для отделения сигнала от шума, —это благоприятно отнестись к тем полосам частот, которые содержат больше энергии сигнала, и неблагоприятно — к тем, которые содержат больше энергии шума. х) См. Уоллман (I).
11,3. Чистое прогнозирование 265 11 .3. Чистое прогнозирование: несингулярные1) процессы2) В § 11.4 мы вернемся к рассмотрению сглаживающих и прогно- зирующих фильтров, предназначенных для обработки смеси сигнала и шума. В настоящем же параграфе мы рассмотрим частный слу- чай, когда шум на входе фильтра отсутствует, так что — Это и есть задача о чистом прогнозировании. Результаты об опти- мальном фильтре, которые мы получим в данном параграфе, будут содержаться и в выводах § 11.4, где мы будем исходить непосред- ственно из уравнения (11.9). Здесь же, однако, мы будем решать задачу о чистом прогнозировании иным путем, с тем чтобы осве- тить ее с другой сторойы, а также получить некоторые вспомо- гательные результаты. Мы используем лишь следующую информацию относительно сигнала на входе прогнозирующего устройства: во первых, тот факт, что сигнал порожден стационарным в широком смысле вероятностным процессом, и, во-вторых, корреляционную функцию этого вероятностного процесса. Среднеквадратичная ошибка зависит от сигнала на входе только через его корреляционную функцию [см. равенство (11.4), где за Rsy(t) взято /?v(0L Итак, если процесс на входе заменяется другим вероятностным процессом с такой же корреляционной функцией, то среднеквадратичная ошибка § для любого конкретного фильтра остается неизменной и неизменным остается также оптимальный фильтр. Это обстоятель- ство является основой последующего анализа. Обрисуем кратко идеи, которые мы используем для нахождения оптимального прогнозирующего фильтра. Сначала предположим, что сигнал s(t) на входе устройства заменен на фильтрованный белый шум. Иными словами, перед прогнозирующим устройством мыслится гипотетический фильтр А с функцией передачи С? (/<о), такой, что при подаче на вход А белого шума сигнал на выходе его имеет в точности такую же корреляционную функцию (и, сле- довательно, такую же спектральную плотность), что- и s(t). Сигнал на выходе фильтра А является входным для прогнозирующего устройства. Само прогнозирующее устройство мыслится состоящим из двух последовательно соединенных фильтров В и С. Фильтр В является обратным по отношению к Л и, следовательно, обладает функцией передачи G-1 (/со); его назначение состоит в обращении входного сигнала снова в белый шум. Фильтр С обеспечивает оптимальное прогнозирование s(/-f-i]) при подаче на вход его 1 В оригинале «nondeterministic» (буквально—«недетерминированные»),— Прим, перев. .*) Трактовка задачи о чистом прогнозировании в настоящем параграфе аналогична трактовке Боде и Шеннона (I). Она представляет собой по существу эвристический аналог строгой математической трактовки, при которой теория линейного прогнозирования излагается в терминах, проекций на гильбертовы пространства. См,, например, Дуб (II, гл. XII) и приведенные там ссылки.
266 Гл. И. Оптимальные линейные системы белого шума; эта последняя операция оказывается весьма простой. При этом функция передачи Н (/со) оптимального прогнозирующего устройства равна произведению функций передачи гипотетических фильтров В и С (см. фиг. 11.1). Рассмотрим теперь эту задачу более подробно. Во-первых, мы исходим из предположения, что входной сигнал принадлежит к классу вероятностных процессов, корреляционные функции кото- рых таковы, что ими может обладать фильтрованный белый шум. Прогнозирующее устройство Фиг. 11.1. Оптимальный прогнозирующий фильтр. Иными словами, функция Rs(t) должна быть такова, чтобы для некоторой функции g(t) процесс z(/), определяемый равенством t = \ g(t-x)x(x)dx, (И.13) —оо где x(t) — белый шум, имел корреляционную функцию* Rz{t) — = Rs (/). Это означает, что функция передачи G(/2ji/), являющаяся преобразованием Фурье от g(t), должна удовлетворять условию1) |G(/2«/)p = Ss(f)- (11-14) Это — существенное ограничение, и мы его рассмотрим ниже. Сейчас же заметим просто, что для широкого класса стационар- ных в широком смысле процессов их спектральная плотность может быть выражена через функцию передачи физически осуществимого фильтра так, как это делается в (11.14). Поскольку для целей теории прогнозирования нет необходимости делать раз- личие между s(t) и ?(/), мы будем впредь предполагать, что t s(t) = ^g(t-x)x(x)dx, (11.15) —оо где x(t) — белый шум и преобразование Фурье G(/2ji/) от g(t) удовлетворяет равенству (11.14). Согласно (11.15), для будущих значений процесса s(f) имеем i+T) s(/ + n)= g(t + x\—x}x(x)dx. (11.16) х) См. гл. 9, § 9,3.
11.3. Чистое прогнозирование 267 Это и есть величина, которую требуется предсказать. Так как St-j-T] представляет собой случайную величину, образованную линей- ной суперпозицией белых шумов, причем в момент t часть этих шумов относится к предыстории сигнала, и так как белый шум,, возникающий от момента t до момента / + имеет нулевое сред- нее значение и не коррелирован с тем, что было раньше, то есте- ственно предположить, что наилучшее линейное прогнозирование обеспечивается, если взять ту часть s^, которая составлена из белого шума, возникшего до момента t. Покажем, что это действительно так. Равенство (11.16) можно переписать в виде t i+T] sG + n)= ^(^ + т)-т)х(т)йт+ g(t + r\—r)x(r)dr = — OO t i+T) = s(^ + n)+ §(< + п-т)х(т)с(т. (11.17) t Здесь s (/ + ?]) есть в точности та часть s(/-|-r]), которая порож- дена белым шумом, возникшим ранее момента /; таким образом, именно s (t + я) есть то прогнозируемое значение s (/ + ?]), опти- мальность которого мы хотим доказать. Среднеквадратичная ошибка прогнозирования s (£ + ?]) равна t+n E{[sr+4-s(+1)]2} = £ { [ (И.18) t Для того чтобы доказать минимальность этой среднеквадратичной ошибки, вычислим среднеквадратичную ошибку, которая имеет место при использовании какого-либо другого линейного прогнози- рующего устройства, использующего только предыдущие значения белого шума, т. е. значения х(т), т</, и покажем, что эта ошибка не может быть меньше, чем определяемая выражением (11.18). Так как всякая линейная операция над прошлыми значениями s(t) является необходимым образом также и линейной операцией над х(т), т</, то отсюда будет следовать, что s(/ + r]) не хуже любого другого линейного прогнозирования, которое может быть сделано с использованием только прошлых значений s(t). Пусть St'+71 —какое-либо иное линейное прогнозирование, опре- деляемое равенством t s't+i] = f — т)х (т) dr — оо с некоторой функцией f(t). Пусть, далее, = — g(/-|-T]).
268 Гл. 11. Оптимальные линейные системы Тогда е+л Е {[sz+l) - s('+T)]2} = £ { [ ^ £ (^ + П -Л) ХЛ) dx - — ОО — + т)x(x)dx — h(t — т)х(т)«/ту j = —оо —оо t+n t = Е | g-(/ + r] — т)х(т)с/т — h(t — x)x(x)dx . (11.19) t —oo Разлагая это выражение и вычисляя математические ожидания, мы найдем, что член, содержащий произведение, равен нулю, ибо значения х(т), т</, не коррелированы с х(т), т>/, и, следова- тельно, второй интеграл не коррелирован с первым. Первый интеграл равен ошибке прогнозирования sf+n> так что равенство (11.19) принимает вид Е {[Sf+n sh-t)]2} = Е {[si+n — Sf+n]2} + t + я{[ $ . (11.20) —оо Последнее слагаемое в (11.20) неотрицательно; следовательно, ошибка прогнозирования для sf'+n больше, чем для St+n. Это озна- чает, что прогнозирование Sf+T] оптимально, как и утверждалось выше. До сих пор оптимальное предсказание s (t + т]) мы выражали через гипотетический белый шум х(/): t s(/ + t)) = £(Н"П — r)x(r)dr, (11.21) — оо а не через входной сигнал s (t). Найдем теперь выражение для функ- ции передачи И (/со) оптимального прогнозирующего фильтра, т. е. фильтра, откликом которого на воздействие s(t) является s (t -|- rj). Положив в (11.21) а ( 0 при ы< 0, Л(и) = . , . ’ (11.22) ' ' I ё («+л) при и > о, 4 получим равенство t s(/-J-T])= h (t — т) х (т) dx, (11.23) — ОО задающее s (/ + т]) как фильтрованный белый шум. Пропуская теперь s(t) через фильтр, обратный по отношению к фильтру с импульс-
11.3. Чистое прогнозирование 269 ным откликом g{t) (фильтр В на фиг. 11.1), получим на выходе его восстановленный белый шум x{t). Подадим, далее, x{t) на вход фильтра с импульсным откликом h (/) (фильтр С нафиг. 11.1); тогда совместное действие обоих фильтров обеспечит наилучшее прогнозирование s(^ + t]) по заданному входному сигналу s(/). Таким образом, прогнозирующее устройство есть последователь- ное соединение фильтров с функциями передачи G“1(/co) и и функция передачи прогнозирующего устройства равна Н (» = G'1 (/®) Н (/©). (11.24) Функция Gr1^) никогда не является обычной функцией передачи системы; так как s{t) всегда есть сглаженный белый шум, то g{t) — это импульсный отклик фильтра, осуществляющего некоторое интегрирование: следовательно, обратный ему фильтр должен быть дифференцирующим. Это означает, что функция G'^/co) не может обращаться в нуль на бесконечности. Вместе с тем функция пе- редачи H{j<a), являющаяся произведением, может на бесконечности как обращаться, так и не обращаться в нуль. Если она не обра- щается в нуль, то наилучшее линейное прогнозирование не может быть в точности осуществлено фильтром, т. е. устройством, которое характеризуется интегральным оператором типа (11.23). Однако даже если это имеет место, оптимальное прогнозирование часто может быть выполнено приближенно путем аппроксимации Н {jay) вплоть до сколь угодно высоких частот. Эти замечания будут проиллюстрированы простым примером, который мы сейчас приве- дем, и примерами следующего параграфа. Исходя из выражения (11.24), можно написать точную формулу, выражающую H{jay) через спектральную плотность сигнала на входе; мы проделаем это в следующем параграфе, где будем рассматривать общий слу- чай прогнозирования и фильтрации. Пример 11.3.1. Пусть сигнал s (/) является выборочной функцией вероят- ностного процесса со спектральной плотностью «з(П=1^Т2- Тогда, если мы положим G«2“n-TT7f ТО I GU2«D\t='T^jf ^jr=Ssif) и условие (11.14) будет выполнено. Далее, j(f)=4-?(?(/ffl)A®=f 2ле~2я( при />0, J I 0 при t < О, (11.25) (11.26) (11.27)
270 Гл. 11. Оптимальные линейные системы так что g(t) есть импульсный отклик физически осуществимого фильтра, как это требуется в равенстве (11.15). Тогда * ... Г 0 при t < 0, ( 2ле”2я^+г|) при Z>0 и оо оо H(j<o) = \h(t)e-jatdt=2n e-2*(i+n)e-iMdt=e-2w l (1L28> —оо 0 Поскольку G-i(7(0)=l + /f, для функции передачи прогнозирующего фильтра получаем —2лт) Я(/<о) = (14-/7)-|-рГ=е-2’”’. (11.29). Наилучшим прогнозирующим устройством в данном случае оказывается просто аттенюатор. Этот пример настолько прост, что результат (11.29) можно было бы предвидеть интуитивно. Спектральная плотность, определяемая выражением (11.25), может быть получена путем возбуждения /?С-фильтра с постоянной времени 1/2л белым шумом от источника с нулевым сопротивлением (фиг. 11.2). Источник белого шума , с нулевым ( внутренним сопротивлением Напряжение=s(t) О * Прогнозирующее устройство Фиг. 11.2. Пример прогнозирующего устройства. Напряжение на конденсаторе в момент t равно s^. Наилучшим прогнозом для этого напряжения в момент /4-т) является, поскольку х(т) имеет нулевое математическое ожидание и непрогнозируемо для т > /, напряжение, которое останется после разряда st через сопротивление R в течение т) секунд. Именно эту величину укажет прогнозирующий фильтр, описываемый равенством (11.29). Интегральное уравнение прогнозирования. Мы нашли, что Sf+n — наилучшая оценка s<+n, которая может быть получена путем линейных операций над прошлыми значениями s(Z). Если s^+T). может быть реализована путем подачи s(t) на линейный фильтр с весовой функцией h (t), то, как следует из сказанного выше в настоящем параграфе, h (<) должна, конечно, удовлетворять интегральному уравнению (11.9). Небезынтересно отметить, что необходимость выполнения этого уравнения можно доказать не- посредственно, используя Пусть оо s(/ + n) = J A(r)s(^-T)dT. (11.30) о
11.3. Чистое прогнозирование 271 При этом ошибка равна s(^ + n) — + (/ 4- т]) — h(x)s(t — r)dr; (11.31) о однако в соответствии с (11.17) ошибка является линейной функ- цией от белого шума х(т) только для значений r>t. Следова- тельно, ошибка не коррелирована с прошлыми значениями s(/)> являющимися линейной функцией от х(т), т <4. Таким образом, используя равенство (11.31) и полагая £ = 0, имеем £ |s( —|х) ^s(t))-- ft(r)s( —т)йт] | =0, р > 0. Разлагая, получаем вариант уравнения (11.9), относящийся к чис- тому прогнозированию: ОО • ^(Р' + 'П)^ t)dT, |Л>О. (11.32) о Можно проверить непосредственно, что функция h(t)y определяе- мая равенством Л(0=§ ej2nftH (j2af)df, —оо где Н (/2л/) определяется в (11.24), формально удовлетворяет уравнению (11.32). Гауссовские процессы. Мы показали, что s<+T1 является наи- лучшим прогнозом для sz+T), который может быть получен линейной суперпозицией значений х(т), т. е. прошлых значений s(/). При этом, естественно, остается открытым вопрос о том, существуют ли нелинейные операции, с помощью которых по прошлым значениям s(/) может быть получена лучшая среднеквадратичная аппроксима- ция Si+л. Если, однако, s(t)—выборочная функция гауссовского веро- ятностного процесса, то можно показать, что наилучшая линейная среднеквадратичная аппроксимация 5/_|_л не хуже любой другой ап- проксимации. Доказательство этого утверждения аналогично тем аргументам, с помощью которых было показано, что s^ являет- ся наилучшей линейной оценкой; различие связано с тем, что Для гауссовских случайных величин некоррелированность влечет за собой статистическую независимость. Предположим, что s(t) — гауссовская величина; тогда х (/) — гауссовский белый шум. Пусть Yt — некоторый произвольный прогноз для sz+T1, зависящий только от s(r), т < t. Тогда Yt независимо с х(т), т > ty и Zt = Yt — st+n
272 Гл. 11. Оптимальные линейные системы также независимо с х(т), т>/. Среднеквадратичная ошибка для Yt равна Е {h+n - Yt]2} = Е {[sf+T1 - sf+T1 - ZJ2} = = Е {[sz+n - s<+n]2} + E {[Zt]2}, (11.33) т. e. не меньше, чем среднеквадратичная ошибка для s^. Сингулярные и несингулярные процессы. Как мы упоминали выше, начиная применять в линейной теории прогнозирования фильтрованный белый шум, мы ограничились только такими спек- тральными плотностями Ss (/), которые могут быть, как в равен- стве (11.14), представлены в виде произведения G(/2ji/) на G*(/2ji/), где G (/2л/) — функция передачи физически осуществимого фильтра. Такое ограничение связано с условием несингулярности вероятност- ного процесса. Стационарный в широком смысле вероятностный процесс называется сингулярным, если его будущие значения могут быть точно предсказаны путем линейных операций над прошлыми значениями; в противном случае процесс называется несингуляр- ным. Важная теорема теории прогнозирования гласит, что стаци- онарный в широком смысле вероятностный процесс является несингулярным в том и только в том случае, если интеграл 5 (1L34) —оо где. S (/) — спектральная плотность процесса, сходится1). Если считать, что процесс порожден белым шумом, пропущенным через осуществимый фильтр, то S (f) = | Я (;2л/) |2, и условием того, что функция |//(/2л/)| относится к осуществи- мому фильтру, служит сходимость интеграла $ pog|^(/2nf)|^/ = | (11.35) —ОО —оо Таким образом, наложенное нами ограничение эквивалентно огра- ничению допустимых сигналов лишь выборочными функциями несингулярных вероятностных процессов. Пример 11.3.2. Пусть S(^)=COS ((Of-j-ф), (0 = 2л/, где f и <р—независимые случайные величины, причем <р распределена равно- мерно в интервале 0 <р 2л и f имеет четную, а в остальном произвольную плотность распределения вероятностей p(f). Тогда s (t)—стационарный вероят- См. Дуб (II, стр. 584) и Винер (III, стр. 74).
11.4. Уравнение прогнозирования и фильтрации 273 ностный процесс, каждая выборочная функция которого —синусоидальная волна. Нетрудно вычислить, что, оо Rs (t) = 2£[cos(0T] = 2 cos (2nfx) р (f) df. —oo Вместе с тем оо оо R.(r)= J ei2n/xSs(f)df= cos (2nfг) Ss(f)df. • —оо — оо Итак, Ss (f) = 2p (f). Мы можем выбрать p(f) так, чтобы она удовлетворяла критерию (11.34) или не удовлетворяла ему; соответственно в зависимости от выбора p(f) процесс s(t) может быть сингулярным или несингулярным. В обоих случаях s(Z-|-t) может быть точно предсказана по известным прошлым зна- чениям; однако, если процесс несингулярный, то прогнозирование может быть осуществлено лишь с помощью нелинейных, операций. 11.4. Решение уравнения прогнозирования и фильтрации Мы хотим теперь получить решение интегрального уравнения прогнозирования и фильтрации (11.9) использующее все бесконечное прошлое. Мы ограничимся лишь тем случаем, когда спектраль- ная плотность Sy(j) входного воздействия y(t) является рацио- нальной функцией. Уравнение (11.9) можно решить при более общих условиях, и метод решения остается тем же самым. Одна- ко имеется трудность с представлением спектральной плотно- сти S (J) в виде произведения, что очень просто, если Sy(f) рациональна, и требует использования более глубоких фактов теории функций, если Sy (/) не рациональна х). Известная техника аппроксимации произвольных спектральных плотностей рациональ- ными функциями* 2) на практике часто позволяет рассматривать только случай рациональной спектральной плотности. Трудность решения уравнения (11.9) связана главным образом с тем, что h(t) должна обращаться в нуль на половине действи- тельной оси. В самом деле, в § 11.2 мы видели, что если отка- заться от этого условия (т. е. допустить фильтр с бесконечной задержкой), то интегральное уравнение приводится к виду, допу- скающему непосредственное решение с помощью преобразования Фурье. Искусственный прием, используемый для решения уравне- ния (11.9), состоит в том, что Sy(f) разделяется на две части, одна из которых является преобразованием Фурье от функции, обращающейся в нуль при отрицательных значениях, а другая — преобразованием Фурье от функции, обращающейся в нуль при положительных значениях ее аргумента. Мы использовали этот прием в предыдущем параграфе, где решение для частного случая х) См. Винер (III, § 1.7), Левинсон (I, § 5) или Титчмарш (II, § 11.17). 2) См., например, Винер (III, § 1.03). Заказ № 57
274 Гл. 11. Оптимальные линейные системы Z?sy (т) = (т) = /?8 (т) (чистое предсказание) было найдено в фор- ме (11.24). Если функции передачи G_1(/co) и Я(/<о) записать в виде произведений спектральных плотностей, то выражение (11.24) совпадает точно с полученным ниже решением для случая (т) =(т). Рассмотрим сначала разложение на множители функции Sy(f). Поскольку мы предполагаем Sy(f) рациональной, можно написать Sy (D = °2 ((f — Zi). ..(f-гм) ’ Zm- (11 -36) Так как функция Sy(f) является спектральной плотностью, то она обладает некоторыми свойствами, налагающими различные ограничения на количество и расположение ее полюсов и нулей: 1. Sy (J) действительна при действительных f. Поэтому Sy (J) = = Sy(f), откуда следует, что а2 действительно, а все w и z с от- личными от нуля мнимыми частями должны встречаться только в виде комплексно сопряженных пар. 2. Sy(f)>0. Следовательно, всякий действительный корень числителя должен иметь четную кратность (в противном случае числитель меняет знак на обратный). 3. Sy(f) интегрируема на действительной оси. Следовательно, знаменатель не может иметь действительных корней и степень числителя должна быть меньше степени знаменателя, N < М. Таким образом, мы можем разделить правую часть (11.36) на два множителя, один из которых содержит все полюсы и нули с положительными мнимыми частями, а другой —все полюсы и нули с отрицательными мнимыми частями. Так как всякий действительный корень wn числителя встречается четное число раз» то половину соответствующих множителей f—wn можно включить в сомножитель, содержащий полюсы и нули с положительными мнимыми частями, а другую половину —в другой сомножитель. Таким образом, Sy(f) можно записать в виде о /п (/—«М • • • (Z—^p) f(f—^1)« • • (f — Wp) (f) = a -77---;---77--7 a -77—------77—, где P < Q, zn(n= 1, ... , Q) имеют положительные мнимые части, wk (k = 1, ... , P) имеют неотрицательные мнимые . части, 2Р = N и 2Q = M. Пусть G (J®) задается равенством G (/и) = G (/2nf) = a• (П.37) Тогда Sy (f) = I G(J2ji/) |2, где G(/2jtf) = G(p) является рациональ- ной функцией от p = /2лД все полюсы и нули которой лежат в левой полуплоскости плоскости р, за исключением, может быть, нулей на мнимой оси.
11.4. Уравнение прогнозирования и фильтрации 275 Положим ОО g(0 = e^G(j2xf)df — ОО и оо g'(0 = eialG*(j2nf)df. • —оо Тогда, так как все полюсы G(/2n/:) как функции от f лежат в верхней полуплоскости плоскости f,‘ то g(/) = 0 при /<0 и g' (0 = 0 ПРИ ^>0- Так как Ry(t) представляет собой обратное преобразование Фурье от Sy(f), то Ry(t) задается как свертка g(t) и g’(t): оо 0 /?„(0 = 5 e^tG{jti>)G*{j(xi}df= g{t-u)g' (u)du, (11.38) —оо —оо где верхний предел интегрирования может быть принят равным нулю, поскольку g' (t) обращается в нуль при t > 0. Интуитивно можно считать, что G (/«) —функция передачи физически осуще- ствимой линейной системы, которая могла бы преобразовать белый шум в вероятностный процесс с корреляционной функцией 7?у(/). Введем теперь функцию A (f)„ определяемую равенством S„(f) = ^tf)G*(/®) (11.39) [в случае чистого прогнозирования A(f) равно G (/©)]. Тогда если оо а(/) = eie>iA(f)df, (11.40) —оо Т0 0 #,„(*) = 5 а (г - и) g' (и) du, (11.41) —оо где верхний предел, как и в (11.38), может быть принят равным нулю. Подставляя функцию (/), определяемую равенством (11.38), и функцию Rsv(i), определяемую равенством (11.41), в уравне- ние (11.9), получаем о я (т + П — и) g' (и) du = —оо оо 0 = МнМн § ё(у — Н— u)g'(u)du, г>0, б —оо 18*
276 Гл. И. Оптимальные линейные системы ИЛИ О 5 £'(«) {а(т + ц — и)- —оо — А(р,)^(т —|х —w)dpt| d« = 0, т>0. (11.42) о Это уравнение удовлетворяется, если выражение в скобках обра- щается в нуль при всех и < 0 и т > 0, т. е. если удовлетворяется интегральное уравнение я(г + л)= \ т > 0. (11.43) о Уравнение (11.43) можно решить непосредственно, применив пре- образование Фурье, тогда как для исходного уравнения (11.9) это было невозможно. Различие это обусловлено тем, что поскольку g(t) обращается в нуль при t < 0, преобразование Фурье от пра- вой части (11.43) распадается в произведение двух преобразо- ваний, в то время как для правой части уравнения (11.9) это не имеет места. Мы имеем оо оо оо е~^ха (т + т|) dx = h (р,) g-w dpi g (т — pi) dx = о > • о о оо оо оо оо = h (р.) g-w dp g (v) dv = ( h (p.) е~^ dp g (v) e~i<av dv, 0 —ц 0 0 или oo H= Gfi®) J + dX' (11.44) Равенство (11.44) определяет H (/co) — функцию передачи опти- мального фильтра. Используя равенства (11.39) и (11.40), мы можем переписать (11.44), выразив Н (/со) через Ssy(f) и сомножители функции Sy(f): оо оо «М-оЙ \ 5 <1L45) б —оо Выражение (11.45) есть общая формула для функции передачи оптимального, с точки зрения наименьшей среднеквадратичной ошибки линейного прогнозирующего и сглаживающего фильтра.
11.4. Уравнение прогнозирования и фильтрации 277 Если Sy(f) и Ssy (?) — рациональные функции, то правая часть равенства (11.45) может быть вычислена непосредственно, хотя вычисления и могут оказаться утомительными. Как и в случае чистого прогнозирования, Н (/со) может не обращаться в нуль при —> оо. Замечания, сделанные относительно такой возможности в параграфе, посвященном чистому прогнозированию, применимы и здесь. ' Естественными частными случаями задачи о фильтрации и про- гнозировании являются прогнозирование в отсутствие шумов, рас- смотренное выше, и сглаживание без прогнозирования, которое мы теперь кратко рассмотрим. Сглаживание. При т] = 0 равенство (11.45) определяет функцию передачи оптимального физически осуществимого сглаживающего фильтра. Правую часть выражения (11.45) можно переписать в ином виде, который несколько упрощает вычисления и выявляет связь между этим выражением и выражением (11.11), относя- щимся к сглаживающему фильтру с бесконечной задержкой. Заметим прежде всего, что если ср (f) — рациональная функция (интегрируемая в квадрате), все полюсы которой лежат в верхней полуплоскости плоскости f9 то интеграл оо J e’2nf'^(f')df' —оо при отрицательных значениях т обращается в нуль; следовательно, e-wr dr (f') df' = <р (/). (11.46) О —оо Аналогично, если ф (/) рациональна и все полюсы ее лежат в ниж- ней полуплоскости плоскости fy то е-^хdx ^'тф(f)df' = 0. (И.47) 0 — оо Итак, если некоторая рациональная функция £(/), не имеющая полюсов на действительной оси, разлагается в сумму двух рацио- нальных функций <р (f) + ф (/), из которых первая имеет все полюсы в верхней, а вторая —в нижней полуплоскости плоскости f, то е-й»* dr (f) df' = <р (/). (11.48) 0 —оо Этот двойной интегральный оператор, фигурирующий также в равенстве (11.45), можно в нашем контексте мыслить как
278 Гл. 11. Оптимальные линейные системы «физически осуществимую часть» .оператора. В настоящем пара- графе мы используем обозначение ф(Л = [£(/)]+. Если сигнал и шум не коррелированы, то Ssl/(f) = S8(f). Можно без труда показать (см. задачу 3), что если Sy(f) — Ss(f) 4- Sn(f), то функция Ss (f)/G* (J2nf) не имеет полюсов на действительной оси f. Следовательно, используя введенное нами обозначение, мы можем переписать (11.45) для случая сглаживания при некор- релированных сигнале и шуме в виде н = G^2nf) [ 6* (/2л f) ] + • (11.49) Чтобы найти 7/(/2л/), исходя из равенства (11.49), необходимо выполнить разложение на простейшие дробих) выражения Ss (f)/G* (/2л/); интегрировать же при этом не требуется. Выражение (11.49) представлено теперь в форме, позволяющей сравнить его с решением для сглаживающего фильтра с бесконеч- ной задержкой. Согласно (11.11), в случае некоррелированных сигнала и шума имеем . H^ca(j2nf) G(j2af) G*(jbnf) ’ (П.50) где H-т (/2л/) — функция передачи для оптимального фильтра с бесконечной задержкой. Равенство (11.50) описывает фильтр, который можно мыслить составленным из двух последовательно соединенных фильтров. Выражение (11.49) описывает фильтр, отличающийся от (11.50) только тем, что в него входит лишь осуществимая часть второго. фильтра. Пример 11.4.1. Предположим, что сигнал и шум независимы и что S — * ^s-i+f2 , Требуется найти^ функцию передачи оптимального линейного сглаживающего фильтра. Имеем " S И ^(i+f2)+b2+/2 д2+/2 _(^+1) {b+jf) {ь_т (1+/7) (1_Я), где Д2 = [^4-1)62]/(М2+1). Функция Sy(f) может быть разложена в про- х) См. Гарднер и Барнес (I, стр. 159 и далее).
11,4. Уравнение прогнозирования и фильтрации 279 изведение G(/2nf) и G*(/2nf), где гНШ - b^N + l A+if b^N+i A—jf A (b-jf)(l-if) ‘ G* (/2л() А b-if Тогда Ss(f)_____________________________= G*(/W) (14-/7) (A—if) A ( Z>+1 1 • b — A 1 “|)/w+lU+> 14-/7 + 4+1 A— так что А 1 Г Ss (f) ~1_____________________________ L G*(J2nf) J + ~bVN+~i Л + 1 14-Я ’ или, если использовать (11.49), u 1 b + 1 b-{-if Переходя в (11.51) к пределу при b оо, получим функцию передачи, опти- мальную для сглаживания рассматриваемого сигнала на фоне белого шума со спектральной плотностью N. Она равна Н (i2nf) - .. ...J ,7^- 1--— . /Я + I+Kw ]/ W+1+// Nf (11.51) (11.52) Ошибка сглаживания и прогнозирования. Среднеквадратичная ошибка, возникающая при использовании сглаживающего и про- гнозирующего фильтра с импульсным откликом h(t), задается равенством (11.4). Если фильтр оптимален, то с учетом (11.9) находим, что среднеквадратичная ошибка равна g = /?s(0)_ ft(T)/i(n)/?y(H-T)dpidT. (11.53) —оо —оо Согласно теореме Парсеваля, этот двойной интеграл может быть выражен через Н(ja): ОО оо H(x)dx h (p,) Л?у (р, — т) ф = — оо —ОО 00 оо = \ ^(/2«f)[77(/2«nSv(f)]*df= \ \H{j2nf)\^Sy(f)df. (11.54) -оо Тогда оо ©о J Ss(f)df- J \H(j2nf)\*Sy(f)df, (11.55)
280 Гл. 11. Оптимальные линейные системы что, по-видимому, является наиболее удобной формой для вычи- слений в общем случае. Величину Н (]2nf) в (11.55) можно заме- нить ее выражением (11.46); тогда после некоторых упрощений (см. задачу 6) получим оо оо £ = /?.(0)-$| 5 e~}s,'(x+l})G^ndf'\2dx- (п-56) 0 —оо В случае чистого прогнозирования Ssv (f) = S„ (f) = S, (f) и равен- ство (11.56) принимает вид g = /?, (0) - ^ | e-^+^G (/2nf) df' |2 dx = 0 —оо оо оо = G (/2nf) G* (j2af) df — | g (т + я) |2 dr = — со 0 оо оо = |g(r)|2dr- J |g-(r + т])|2 —оо 0 где также использовалась теорема Парсеваля. Поскольку при t < О функция g(t) обращается в нуль, последнее равенство может быть переписано в виде оо оо Т] • $|5(T)|2dT-^|g(T)|2dT=^|g(T)|2dT. (11.57) Ono Этот последний результат можно было бы получить непосред- ственно из равенства (11.17). 11.5. Другие задачи фильтрации, использующие критерий среднеквадратичной ошибки Фильтр Филлипса с наименьшей среднеквадратичной ошибкой. До настоящего момента мы занимались отысканием наилучшего линейного фильтра с фиксированными параметрами, предназначен- ного для сглаживания и прогнозирования. Менее интересной тео- ретически, но практически полезной модификацией этого подхода является задача об отыскании наилучшего фильтра, когда форма его функции передачи задана и можно свободно выбирать лишь конечное число параметров фильтра. При использовании метода Винера для отыскания оптимального фильтра, который мы рассмат- ривали до сих пор, и после отыскания такого фильтра остается одна весьма существенная трудность, состоящая в синтезировании фильтра, функция передачи которого аппроксимировала бы функ-
I 11,5, Другие задачи фильтрации 281 цию передачи оптимального фильтра. В частности, так обстоит дело в устройствах, содержащих сервомеханизмы, например в авто- матических следящих устройствах радиолокационных установок. С другой стороны, если заранее предположено, что функция пере- дачи имеет определенную форму, заведомо допускающую практи- ческое выполнение фильтра (или сервомеханизма), то решение задачи о наилучших значениях параметров определит просто раз- меры и величины элементов фильтра. Конечно, при таком ограни- чении класса фильтров, вообще говоря, возрастает минимальная* достижимая ошибка. Таким образом, в принципе приносится в жертву качество фильтра. Вместе с тем приближения, исполь- зуемые на практике при синтезе фильтра, который бы обладал найденной методом Винера функцией передачи //(/со), могут при- вести к тому, что его действие окажется не лучше, чем действие фильтра, построенного методом, кратко излагаемым в настоящем разделе. Филлипсх) подробно описал метод отыскания оптимального сглаживающего фильтра для случая, когда функция передачи должна быть рациональной функцией с числителем и знаменате- лем определенных степеней. В общих чертах его метод сводится к следующему. Входной сигнал и шум предполагаются выбороч- ными функциями стационарных вероятностных процессов. Тогда ошибка, определяемая выражением со s(0— h (t — т) у (т) dx, — СО также является стационарным вероятностным процессом и имеет спектральную плотность Se(f). Спектральная плотность ошибки может быть найдена непосредственно из равенства (11.4) и равна (см. задачу 9) Se (f) = [ 1 - Н (j2af)] [1-Я* (j2nf)1 S8 (/) + +1Н (j2nff Sn (f) - [1 - Я* (/2л/)] H Ssn (f) - - [1 - Я (/2л/)] Я* (/2л/) Sni (f). (11.58). Среднеквадратичная ошибка равна оо £ = $ Se(f)df, (11.59) — ОО где в качестве Я (j2nf) взята рациональная функция с числите- лем и знаменателем фиксированных степеней. Тогда, если функ- ции Ss(f), Sn(j), Ssn(f), Sns(f) рациональны, то и Se(f) также рациональна. В этом случае интеграл (11.59) вычисляется с по- А) ФИЛЛИПС (I),
282 Гл. 11. Оптимальные линейные системы мощью метода вычетов, причем- параметры, функции Н при вычислениях записываются в буквенной форме. Далее параметры выбираются так, чтобы обеспечить минимум g. Полное описание метода и примеры читатель может найти в соответствующей литературех). Обобщения и видоизменения теории. Теория наилучшего линейного прогнозирования и сглаживания, развитая в предыду- щих параграфах, может быть расширена и модифицирована раз- личными путями. Например, вместо отыскания сглаженного и прогнозируемого значения s(t) можно поставить себе задачей t отыскание наилучшего прогноза для значения ds/dt, s(t)dtwin других линейных функционалов от сигнала* 2). Техника решения таких задач аналогична технике решения основной задачи о сгла- живании и прогнозировании. Сглаживание и прогнозирование можно осуществить также, когда имеется много сигналов и шумов с известными корреляционными и взаимными корреляционными функциями3). Условие, состоящее в том, что входной сигнал и шум являются стационарными процессами, может быть опу- щено4); в этом случае получается интегральное уравнение, анало- гичное (11.9), но включающее корреляционные функции, завися- щие от двух переменных. К сигналу могут быть добавлены полиномы с неизвестными коэффициентами5). Время наблюдения может считаться конечным, а не бесконечным5); эту задачу мы рассмотрим более детально в следующем параграфе. Подробное рассмотрение вопросов конструирования линейных систем, опти- мальных с точки зрения среднеквадратичной ошибки, со многими примерами читатель найдет в гл. 5 — 8 книги Лэнинга и Бэттина (I). 11.6. Сглаживание и прогнозирование при конечном времени наблюдения Рассмотрим теперь задачу об оптимальном сглаживании и прогнозировании для фильтра, обрабатывающего выборки сиг- нала и шума лишь за конечный интервал времени. Здесь мы имеем для отклика фильтра вместо (11.2) равенство t т s(/ + t])= — y(T)dx=^h(u)y(t — u) du (11.60) t-т о x) Филлипс (I) и Лэнинг и Бэттин (I, § 5.5). 2) Винер (III, гл. V). 3) Винер (III, гл. IV). *) Бутон (I). 5) Заде и Рагаццини (I) и Дейис (I).
11.6. Конечное время наблюдения 283 и требуется найти функцию Л(/), минимизирующую выражение Е {[s(£ + tj) - s(t + г))]2}- Теперь мы можем либо использовать формальную процедуру минимизации, примененную в начале § 11.2, либо идти более кратким путем и заметить, как и в равенстве (11.24), что для того, чтобы оценка s (t + т|) была наилучшей в смысле средне- квадратичных значений, ошибка должна быть не коррелирована с У (у), t — в противном случае дальнейшие линейные операции над у(т) могли бы уменьшить ошибку. Итак, E{[s (* + n)-s(t + T])]y (т)} = 0, (11.61) Подставляя сюда равенство (11.60), получаем т h (и) Е [у (t — u)y (т)] du — Е [s (t + т]) у (т)] = 0, £ — Г < т < /, о или т ^h{u)Ry(v^u)du^R9u(v-Vy\), 0<у<Т. (11.62) Итак, для того чтобы быть импульсным откликом оптимального фильтра, функция h(t) должна удовлетворять уравнению (11.62); нетрудно показать, что условие (11.62) является также и доста- точным. Уравнение (11.62) может или иметь решение, или не иметь его. Как и при исследовании уравнения (11.9), мы рассмотрим лишь тот случай, когда вероятностный процесс у (t) имеет рацио- нальную спектральную плотность. Тогда, положив р = /2я/, можем написать s.m=4w’ (11-63> где ЛГ и D — полиномы соответственно степеней п и d. Для удобства, а также из-за того, что в дальнейшем нам придется рассматривать интегральное уравнение, аналогичное (11.62), в ко- тором, однако, правая часть йе является взаимной корреляцион- ной функцией, мы вместо /?8у(^ + п) будем писать г (у). Применяя это обозначение и используя (11.63), мы можем привести (11.62) к виду Т оо ^h(u)du eP(v-w) df= z (v)> (11.64) 0 —oo Применим к обоим частям этого уравнения дифференциальный оператор D(d2/dv2}. Тогда в подинтегральном выражении в левой
284 Гл. 11. Оптимальные линейные системы части возникает полином D(p2), который сократится с О(р2) в знаменателе, и мы получим ^h(u)du (p2)df=DQ^^z(v), 0 < v < Т. О —оо (11.65) Полином N (р2) также может быть получен дифференцированием интеграла, и поэтому равенство (11.65) можно переписать в виде Т оо N(j^){\h(u)du ep{v~u)df} = О —or = D(®02W. 0<»<Л или 4^)Mo) = DGS02(y)’ 0<"<Т, (11.66) где использовано равенство e32nf (v-u) df § (у — оо Итак, любое решение уравнения (11.64) должно удовлетворять линейному дифференциальному уравнению (11.66). Общее реше- ние уравнения (11.66) имеет 2п произвольных постоянных. Для того чтобы установить, является ли решение уравнения (11.66) при каком-либо выборе этих постоянных решением уравне- ния (11.64), и чтобы вычислить эти постоянные, нужно подста- вить общее решение уравнения (11.66) в уравнение (11.64). Можно показать1), что выбор постоянных, при которых решение уравне- ния (11.66) относительно h (у) является решением уравнения (11.64), возможен в том и только в том случае, когда известная функ- ция z(y) и ее производные удовлетворяют определенным одно- родным граничным условиям при v = 0 и v=T. Если прибавить к общему решению уравнения (11.66) сумму 2d—2п—2 2 [a^W + b^tv-Т)], (11.67) г=0 где at и bt неизвестны, а 6(г) (х) есть z-я производная дельта- функции б(х), то решение уравнения (11.64) (в чисто фор- мальном смысле) может быть получено всегдах). Если в решение х) См приложение 2.
11.6. Конечное время наблюдения 285 для весовой функции h(t) входят производные от импульсных функций, то это, естественно, означает, что оптимальный фильтр должен осуществлять какое-либо дифференцирование. Пример 11.6.1. Рассмотрим вновь пример 11.3 с тем, однако, условием, что прогнозирующий фильтр должен оперировать с прошлыми значениями сигнала, лишь начиная с момента t — Т. В примере 11.3.1 оказалось, что хотя прогнозирующий фильтр мог использовать всю предысторию сигнала, наилучший фильтр в действительности вовсе не использовал всей этой преды- стории. Таким образом, при измененных теперь условиях мы должны получить тот же самый оптимальный фильтр. Мы увидим, что так оно и есть. Мы имеем 5 14-/2» D(p2)=l+^ = J-5(4n2-p2), p=j2af. Тогда, согласно (11.66) и (11.67), А (а)=i (4я2-^ ) е~2* (о+’,)+«* (°)+м (»- л= = ад (у) + Ьд (о — Т). Неизвестные коэффициенты а и b находятся подстановкой этого выражения для h (у) обратно в интегральное уравнение т h (и) е~2п 1 1 du = е"2я (в+п). О < v < Т. Это дает ое-2л1>_|_6е-2Я (Т-»)=в-2л (в+л), откуда а=е_2я’), 6 = 0. Следовательно, весовая функция оптимального про- гнозирующего фильтра имеет вид h.{u) — f>(u)e~2mi, что совпадает с результатом, полученным в примере 11.3.1. Связь с задачами о собственных значениях. Интегральное уравнение (11.62) тесно связано с интегральным уравнением т ф(«)7?у(у —w)dw = a2(p(o), (11.68) Действительно, при некоторых условиях1) функция 1г(и) может быть выражена в виде бесконечного ряда по собственным функ- циям уравнения (11.68). Покажем сейчас это формально. Обозна- чим снова функцию справа в (11.62) через z(v). Тогда уравне- х) См. приложение 2.
286 Гл. 11. Оптимальные линейные системы ние (11.62) примет вид т h (и) Ry (y — u)du = z (у), 0 < v < Т. {11.69) о Пусть {<pft (у)} — система ортонормированных собственных функций уравнения (11.68), и пусть z(o) разложена в ряд по функциям <pftx): 2(р)=Ьл(«). 0<у<Т, (11.70) Ь=0 где г (^) ф£ (^) dv. о Тогда, согласно теореме Мерсера, Ry (»- «) = 2 ой Фь (о) <ph («) У k=0 и левая часть уравнения (11.69) имеет вид 2 § Л(ы)<р2 (u)du = ^ <Jh4h(v)hk, (11.71) fe=0 0 fe=0 где hk есть k-н коэффициент Фурье от h(u) и оо Л(«)=Ш(«). (П-72) А=0 Сравнивая ряды (11.70) и (11.72), мы видим, что уравнение (11.69) удовлетворяется, если т. е. если оо Л(«)=3 ><?*(«)• (П.73) fc=0 к Применяя этот результат к уравнению (11.62), мы видим, что решение этого уравнения может быть записано в форме оо т Л(«) = Е’ ^\R*y& + ^Wdv. (11.74) fe=0 k о J) Это всегда возможно для всякой интегрируемой в квадрате функ- ции z(u), если Ry (Q — корреляционная функция «фильтрованного белого шума». См. приложение 2.
11.7. Максимизация отношения сигнал!шум 287 При решении задачи отыскания оптимального фильтра равен- ство (11.74) может быть получено различными методами. Например, можно непосредственно разложить y(t) в ортогональный ряд (6.31) по <pfe(/), a h(t) — в ряд (11.72), вычислить среднеквадратичную ошибку в форме бесконечного ряда и затем подобрать коэффи- циенты hk так, чтобы сделать ошибку минимальной. При исполь- зовании такого метода не требуется стационарности y(t), так как ортогональное разложение справедливо и тогда, когда процесс y(t) не стационарен. Дэвис1) получил таким методом решение обобщенного варианта этой задачи. При этом он допускал, что сигнал содержит в себе полином известной степени с неизвестными коэффициентами. 11.7. Максимизация отношения сигнал/шум; согласованный фильтр2) В предыдущих параграфах настоящей главы мы имели дело с линейными фильтрами, предназначенными .для восстановления формы сигнала, замаскированного шумом. При некоторых обстоя- тельствах, например при обычном детектировании радиолокацион- ных сигналов, форма функции времени, описывающей исходный сигнал, особого значения не имеет; важно лишь наличие или отсутствие сигнала. В такой ситуации заманчивым является построение фильтра, обеспечивающего наибольшее отношение сигнал/шум, хотя бы при этом и происходило искажение формы сигнала на выходе по сравнению с сигналом на входе. Следует заметить, что в понятиях сигнала и шума на выходе линейного фильтра нет никакой двусмысленности. Если L означает линейную операцию, выполняемую фильтром, и воздействие на него есть y(t) = s(t)+n(t), (11.75) то отклик фильтра имеет вид у0 (0 = L [s + п\ (0 = L [s] (0 + L [п] (0 (11.76) и вполне естественно определить L [s] (0 как сигнал на выходе зо(0, a L [п] (0 как шум на выходе по(0. Особый интерес представляет случай, когда сигнал s(f) является известной функцией времени; здесь мы будем рассматривать только этот случай. Требуется найти линейный фильтр, обрабатывающий воздействие i/(0 = s(0 + n(0, где п (t) — шум, являющийся’выборочной функцией стационарного в широком смысле вероятностного процесса, таким образом, чтобы х) Дейвис (I). ' 2) См. Заде и Рагаццини (11).
288 Гл. 11. Оптимальные линейные системы отношение сигнал/шум на выходе N )0~ E[n*(t)] <1L77) в некоторый заданный момент времени /=/х было максимальным. Мы будем считать, что фильтр обрабатывает лишь воздействие, поданное на него в течение конечного интервала времени Т. Тогда т so(^i)= й (т) s — т) dr, (11.78а) о т n0(t1) = h{x)n{t1 — x)dx (11.786) о т т Е [п% (/J] = h (р) h (т) Rn (р. — т) dp dr. О о (11.79) Пусть максимальное отношение сигнал/шум на выходе равно 1/Х. Тогда для любого линейного фильтра мы имеем £[^(G)]-Xso2(^)>0, (11.80) где знак равенства достигается только для выхода оптимального фильтра. При умножении импульсного отклика h (t) фильтра на постоянную отношение сигнал/шум не меняется; поэтому мы можем считать коэффициент усиления фильтра нормированным, т. е. положить s0(/x)=l. Выведем теперь условие, которому должна удовлетворять весовая функция h(t) оптимального фильтра. Пусть g(t) — некоторая действительная функция, обладающая тем свой- ством, что т g(r)s(/1 —r)dr = O. (11.81) о Тогда для любого числа 8 т [^(O + 8^(O]s(^i-r)dT= 1. (11.82) ; О . ] Для удобства введем для выражения Е[По(/х)] применительно * к фильтру, имеющему весовую функцию h(t)9 обозначение о2 (Л). Тогда из соотношения (11.80) и сделанного после него замечания, 1 а также из нормированности коэффициента усиления фильтра | следует, что | а2(й)-Х = 0, (11.83) {
11.7. Максимизация отношения сигнал!шум 289 и из соотношений (11.80) и (11.82) вытекает, что <72(/г + 8£)-Л>0. (11.84) Вычитая (11.83) из (11.84), получаем, что для любого е и любой функции g(t), удовлетворяющей условию (11.81), о2 (h + eg) -о2 (/г) >0. (11.85) Разлагая это выражение и сокращая соответствующие сла- гаемые, находим е2 ^(н)г(т)Яп(т-р)<Мт+2е ^ft(p,)g(T)/?n(T-p.)dp,dT>0. 0 0 4 бо Это неравенство выполняется при всех значениях 8, только если второй интеграл обращается в нуль: т т g(r)dr /г(|л)#п(т — |х)ф = 0. . (11.86) о о В свою очередь, равенство (11.86) выполняется для всех g(r), удовлетворяющих условию (11.81), только если т h(|х) Rn (т — fi)dp = as(/1 — т), 0<т<Т, (11.87) о где а —некоторая постоянная. То, что это так, можно показать, предположив, что т = 0<т<Т, о где а(х) не кратно s^ —т), и, далее, положив т g (т) = а (т) — а (и) s (tx — и) du-T . о j s2 (/х—и) du 6 Легко проверить, что определенная таким образом функция g(r) удовлетворяет соотношению (11.81), а условие (11.86) выполнено быть не может. Итак, равенство (11.87) является условием, которому должен удовлетворять фильтр с импульсным откликом h(t), обеспечи- вающий на выходе максимум отношения сигнал/шум. Величина a на отношение сигнал/шум не влияет и связана только с норми- ровкой. Подставляя значение s(^ — t) из (11.87) обратно в (11.78а), 19 Заказ № 57
290 Гл. 11. Оптимальные линейные системы легко убедиться, что (*1)1 so (*1) (11.88) Читатель может проверить непосредственно, что равенство (11.87) является не только необходимым, но и достаточным условием для того, чтобы h(t) было оптимальным. Эта проверка проводится аналогично тому, как это было сделано в начале § 11.2. Интересным предельным случаем равенства (11.87) является тот, когда шум белый, так что Rn (t) = NS (/), где N —мощность шума. Тогда, полагая а=1, приводим равенство (11.87) к виду т N h(р,) 6 (т — |х)dp. = s {t1 — т), 0<т<7', о откуда Л (т) = -^-8(^-1), 0<т<Т. 1 • Таким образом, в этом частном случае оптимальная весовая функ- ция имеет форму сигнала, распространяющегося в обратную сто- рону, начиная с фиксированного момента времени Фильтр, обладающий такой характеристикой, называется согласованным фильтром1). Пример 11.7.1. Пусть сигнал представляет собой последовательность прямоугольных импульсов, изображенную на фиг. 11.3, а шум имеет спек- тральную плотность SnW= а2+(/2л/)2 • Тогда Л„(0=^е-“И1, а > 0, и интегральное уравнение для h (/), задающей фильтр, обеспечивающий макси- мальное отношение сигнал/шум, при а=1 принимает вид Т р е-аI т-цI \ ----2а----Ф = «(^1—Т), 0< Т. о Решение этого уравнения (без импульсных функций при т=0и т = Т) имеет вид й(0 = (а2——0. (11.89) если выполняются условия a s (<!)+«' (6) = 0, as(ti — Т) — s' (t1 — T) = O. (11.90) т) Ср. Ван Флек и Миддльтон (I) и Заде и Рагаццини (II).
11.8. Задачи 291 Если начало отсчета времени выбрано так, как показано на фиг. 11.3, ^ = Т, то эти условия выполняются. Тогда весовая функция оптимального фильтра имеет вид (11.91) Пример 11.7.2. Пусть шум обладает той же спектральной плотностью, что и в предыдущем параграфе, а сигнал имеет вид , s(Z) = sin2 со0/. Пусть, далее, Тогда при ti = T условия (11.90) выполняются и решение опять-таки опреде- Фиг. 11.3. Последовательность прямоуголь- ных импульсов. ляется равенством (11.89), принимающим в этом случае вид h = sin2 <оо (Т-0= /72 Z /т2 *4 = y-QT+2®2 Jcos2<oa(T-0, 11.8. Задачи 1. Пусть s(f)—сигнал, являющийся выборочной функцией стационарного вероятностного процесса со спектральной плотностью ss(n=npr. Показать, что прогнозирующий фильтр, использующий всю предысторию сигнала и обеспечивающий наименьшую среднеквадратичную ошибку, обла- дает функцией передачи н (/2л/) = ехр Г -Гcos ^l-4-sin /2 f sin^21 , L У 2 J I У 2 /2 У 2 J где т]—время упреждения. 2х). Предположим, что на зажимах параллельного 7?£С-контура, воз- буждаемого от источника белого шума i (t), развивается случайное напряжение ’) Ли и Стутт (I). 19*
292 Гл. 11. Оптимальные линейные системы Источник тока белого шума Фик 11.4. Параллельный RLC -контур. а) Полагая (0о = 1/LC и Q = /?/<ooL, найти выражение спектральной плот- ности Se(f) через со0, L и Q при условии, что Si(f)=l. б) Применяя нормировку а = /со/со0 и полагая контур настолько остро настроенным, чтобы можно было считать 1/Q2<C1, показать, что прибли- женно имеет место равенство G (j<o) = О (aw0) = -j------------j------ . C“+2Q-')(a+2Q + i) в) Показать, что при условиях пункта б) оптимальный прогнозирующий фильтр для е (/) (использующий всю предысторию) имеет функцию передачи tf(/®) = exp(-^Qsina>0T) [ctg ад—i-g-] , где т)—время упреждения. 3. Показать, что если сигнал и шум не коррелированы и спектральные плотности Sy (f) = Ss (f) + Sn(f), Ss(f) и Sn(f) являются рациональными функциями, то функция Ss (f)IG* (J2nf) не может иметь полюсов на действи- тельной оси f. 4. Предположим, что сигнал и шум независимы и. 3. (П- ‘ . Sn(f) = N шум—белый). Найти оптимальный линейный сглаживающий фильтр, исполь- зующий всю предысторию воздействия. Сравнить результат с предельным случаем примера 11.4.1. 5. Показать, что для независимых сигнала и шума функция передачи оптимального линейного сглаживающего фильтра (использующего всю предысторию) может быть записана в виде Н (/2л/) = 1 -G(/W) [,G* (j2nf) ] + • 6. Вывести равенство (11.56), исходя из равенства (11.55). 7. Используя равенство (11.55), вычислить среднеквадратичную ошибку на выходе сглаживающего фильтра, найденного в задаче 4 [фильтр задается равенством (11.52)]. . 8. Вычислить среднеквадратичную ошибку на выходе прогнозирующего фильтра, описанного в примере 11.3.1: а) используя равенство (11.55); ,6) используя равенство (11.57).
11.8. Задачи 293 9. Вывести выражение (11.58) для спектральной плотности среднеквадра- тичной ошибки на выходе произвольного фильтра, на вход которого подаются сигнал плюс шум. 10. Пусть сигнал s (t) задается стационарным вероятностным процессом с корреляционной функцией Rs = 2 L Найти для такого сигнала импульсный отклик линейного прогнозирующего фильтра, который является оптимальным среди всех фильтров, использующих прошлые значения сигнала только за время Т. 11. Вывести равенство (11.69) непосредственным разложением y(t) и h (/) в ряды: оо \ у (0 = 2 акУъ.Чк (0 fe=0 „ „ , о < t < т, оо fc=0 где Фь (0 определяются выражением (11.68), a hk — подлежащие определению неизвестные коэффициенты. Найти среднеквадратичную ошибку в форме ряда, содержащего h^, и, далее, определить h^, обеспечивающие минимум ошибки. 12. Найти импульсный отклик оптимального линейного фильтра, на вход которого подаются сигнал и шум, описанные в задаче 4, при условии, что фильтр использует прошлые значения сигнала только за время Т. Сравнить предельный случай при Т —> оо с результатом задачи 4. 13. Найти импульсный отклик линейного фильтра, обеспечивающего максимальное возможное отношение сигнал/шум, при условии, что сигнал имеет вид s (0=-5~4- [е2" ('_Т)+е“2я'Ц-^ (е4я (<-Т)+е-4я'], 0< t < Т, а спектральная плотность шума равна Sn(f)= (1+/2)(4+/2) •
Глава 12 НЕЛИНЕЙНЫЕ СИСТЕМЫ; ПРЯМОЙ МЕТОД Задача, которой мы посвятим настоящую и следующую главы, состоит в определении статистических свойств сигнала на выходе нелинейного устройства1), например детектора или ограничителя. В этих главах мы будем рассматривать только такие нелинейные устройства, отклик которых у (t) в данный момент времени может быть выражен как функция воздействия x(t) в тот же момент времени. Иными словами, мы будем предполагать, что z/(0 = g[x(0], (12.1) где g (х) — однозначная функция от х. Таким образом, мы исключим из рассмотрения нелинейные устройства, содержащие элементы, накапливающие энергию, ибо при наличии таких элементов отклик в данный момент обычно должен являться функцией не только воздействия в тот же момент, но и предыстории воздействия. 12.1. Общие замечания Рассматриваемая теперь задача может быть сформулирована следующим образом: известны (однозначная) характеристика нелинейного устройства y=^g(x) и статистические свойства воз- действия; каковы статистические свойства отклика? В принципе задача сводится просто к преобразованию переменных, которое мы частично рассматривали в предыдущих главах. Так, например, из результатов § 3.6 следует, что если Л (У) — множество точек в выборочном пространстве значений xt случайной величины на входе, соответствующее множеству точек (— оо < yt < У) в выбо- рочном пространстве значений у случайной величины на выходе, то Р(^<У) = Р[хгбЛ(Г)] (12.2) и плотность распределения вероятностей случайной величины на выходе имеет вид (12.3) х) Ср.’ Бургес (I) и Райс (I, §§ 4.1, 4.2, 4.5 и 4.7).
12.1. Общие замечания 295 если производная существует. Из результатов § 3.6 следует также, что если плотность распределения вероятностей рх(хг) случайной величины на входе существует и непрерывна почти всюду и если характеристика задает взаимно однозначное соответствие значений х и у, то плотность распределения вероятностей р2(у) случайной величины на выходе определяется равенством P2(f/<) = Pi(xt)|^-|. (12.4) Это выражение иногда оказывается неприменимым (например, если характеристика постоянна на некотором интервале изменения х, как это имеет место в однополупериодном детекторе); равенство же (12.3) справедливо всегда. Далее, из результатов § 4.1 следует, что средние значения отклика всегда могут быть получены усреднением входного воз- действия. Так, например, E[f(yt)] = E{f[g(xt)]}?=\ f[g(xt)]p(xt)dxt. (12.5) —оо Следовательно, момент n-го порядка отклика равен 4-СО E(yt)= gn(xt)P(xt)dxt- (12.6) —оо Аналогично, корреляционная функция отклика равна 4-оо Ry (*1, Q = W £ W Р Xz) dxi dX2> (12.7^) где x1 = xfi и x2 = xt2. Таким образом, задача определения статистических свойств отклика на выходе нелинейного устройства в принципе может быть решена применением различных результатов, полученных выше, для преобразований случайных величин. В настоящей главе мы применим эти результаты к изучению двух типов нелинейных устройств, представляющих практический интерес1): двухполупе- риодного квадратичного и однополупериодного линейного детекто- ров. Если, однако, попытаться применить метод, развиваемый в настоящей главе, к более сложным задачам, то возникают зна- чительные аналитические трудности. В этих случаях может быть применен другой, обходный метод, использующий преобразование Фурье от характеристики. Метод преобразования будет рассмотрен в гл. 13. х) Следует отметить, что мы по существу уже изучали детектор, выде- ляющий огибающую, в §§ 8.5, 8.6 и 9.5.
296 Г л. 12, Нелинейные системы-, прямой метод 12.2. Квадратичный детектор Двухполупериодным квадратичным детектором мы назовем совокупность, состоящую из квадрирующего устройства с характе- ристикой = (12.8) где а — масштабная константа, и следующего за ним низкочастот- ного или усредняющего фильтра. Такой детектор схематически Фиг 12.1. Квадратичный детектор, /—квадрирующее устройство;// — фильтр низких частот. изображен на фиг. 12.1; двухполупериодная квадратичная харак- теристика показана на фиг. 12.2. Фиг. 12.2. Двухполупериодная квад- рати чная характеристика. С аналитической точки зрения квадратичный детектор является простейшим из нелинейных устройств, которые мы будем изучать. Наш интерес к этому детектору, однако, объясняется не только простотой его анализа, но также и его практической важностью. Статистические свой- ства отклика детектора проще всего определить, найдя сначала статистические свойства откли- ка на выходе квадрирующего устройства и затем на выходе фильтра низких частот. В на- стоящем параграфе мы рассмо- трим сначала случай произвольного воздействия на входе, а затем случай воздействия с гауссовской статистикой; работа детектора при подаче на вход его суммы синусоидального сигнала и узко- полосного гауссовского шума будет рассмотрена в следующем параграфе. Плотность распределения вероятностей отклика двухполупериод- ного квадрирующего устройства была выведена в § 3.6 и, сог- ласно равенствам (3.45) и (3.46), имеет вид Pi (У1) = 2/ауг при yt>0, (12.9) О при других yt.
12.2. Квадратичный детектор 297 Если плотность распределения вероятностей воздействия — четная функция, то последнее выражение принимает вид Р2 (У() = Vayt о при yt>Q, при других yt. (12.10) Вопрос о нахождении плотности распределения вероятностей от- клика фильтра низких частот был рассмотрен в § 9.5. Однако при произвольной характеристике фильтра выражение для плотности распределения вероятностей в общем виде оказывается столь громоздким, что вычисление средних значений наталкивается на большие трудности. Вычисление корреляционной функции, тре- бующее привлечения двумерных распределений, еще более трудно. Поэтому полезно ограничиться частным случаем узкополосного гауссовского шума на входе и идеализированного низкочастотного фильтра; в этом случае вычисления упрощаются настолько, что удается получить более отчетливые результаты. Такой специаль- ный случай рассматривается в следующем параграфе. Момент n-го порядка отклика квадрирующего устройства ра- вен -}-оо Е (</”) = ап х^пр1 (х,) dxt = апЕ (х?п). (12.11) — ОО Корреляционная функция отклика квадрирующего устройства имеет вид /2) = а2Е(лфф; (12.12) если воздействие стационарно, то она становится 'функцией от /1 — /2. Эти простые результаты — почти все, что можно получить без более точного задания статистических свойств воздействия. Гауссовское воздействие. Предположим теперь, что подаваемое на „ детектор воздействие х (t) является выборочной функцией действительного гауссовского вероятностного процесса с равным нулю средним значением. В этом случае р‘(Х1) = УУйГехр(-' (12ЛЗ) xt \ * ' Тогда, согласно равенству (12.10), плотность распределения вероят- ностей отклика квадрирующего устройства равна Рг (Уд = 1 ./2 nayt aXt 0 т. е. является плотностью распределения %2. У, \ п —Ц-1 при z/;>0, 2aaxt I при других yf (12.14)
298 Гл. 12. Нелинейные системы, прямой метод Если воздействие на детектор является узкополосным гауссов- ским процессом, то, согласно (8.73), мы можем написать х (0 = V (/) cos [cdcZ + Ф (ОЪ (12.15) где fc = — средняя частота спектральной плотности воздей- ствия, — его огибающая и 0<ф(/)<2л — фаза. Тогда отклик квадрирующего устройства имеет вид у W = + cos[2(0^4-24)(0]. (12.16) Первое слагаемое этого выражения имеет спектральную плотность с равной нулю средней частотой, а второе — спектральную плот- ность со средней частотой 2fc. Если ширина спектра воздействия мала по сравнению с его. средней частотой, то эти две спектраль- ные плотности не перекрываются1). Пропуская y(t) через идеаль- ный фильтр низких частот (т. е. физически не осуществимый фильтр, пропускающий без искажений низкочастотную часть сиг- нала и полностью подавляющий его высокочастотную часть), полу- ' чаем на выходе фильтра = (12.17) Будучи огибающей узкополосного гауссовского вероятностного процесса, V (t), согласно (8.85), имеет распределение Рэлея, так что p(Vt) = Vt -2-ехр ___vM 2axf / при Vt > 0, при Vi < 0. (12.18) 0 Следовательно, плотность распределения вероятностей на выходе фильтра имеет вид РМ = 1 [ Zt \ —5- ехр--------V- при a&t r \ (M&t ) г zt >0, (12.19) 0 при zt < 0, т. е. является плотностью экспоненциального распределения. На фиг. 12.3 показаны плотности распределений нормированных воз- действия на детектор g = x/orx, отклика квадрирующего устрой- ства т) = у/авх и отклика фильтра £ = z/acrk. Моменты n-го порядка для отклика квадрирующего устройства можно найти, подставляя в равенство (12.11) полученные ранее выражения [см. равенство (8.11)] для четных моментов гауссов- 9 Ср. фиг. 12.4.
12.2. Квадратичный детектор 299 ской случайной величины. При этом получаем Е (t/?) = ап • 1 • 3 • 5 •... • (2п - 1) а™. (12.20) В частности, Е (yt) = ac*t, E(yt) = 3a2aXt = 3E2(yt) и, следовательно, o2(yt) = 2a2Oxt = 2E2 (yt). (12.21) Если воздействие на детектор является узкополосным гауссовским вероятностным процессом, а на выходе установлен идеальный Фиг. 12.3. Плотность распределения вероятностей для двухполупериодного квадратичного детектора. фильтр низких частот, то, согласно (12.19), момент я-го порядка на выходе фильтра равен1) р3 n Z X E(z?)=\ Аехр( --^)dzt = n\ano™ (12.22) о aGxt a(Jx^ и, следовательно, Е (zt) = асХ( = Е (yt), E(z?) = 2aWXt (12.23) И a2 (zt) = a2Gxt = E2(z^. х) Ср. Двайт (I, формула 861.2).
300 Гл. 12. Нелинейные системы; прямой метод Мы видим из равенств (12.21) и (12.23), что средние значения откли- ков квадрирующего устройства и фильтра низких частот равны умно- женной на а дисперсии воздействия, а дисперсия отклика идеального фильтра низких частот равна половине дисперсии отклика квадри- рующего устройства. Корреляционная функция на выходе двухполупериодного квад- рирующего устройства при подаче на вход его гауссовского воз- действия, согласно (12.12) и (8.121), равна Ry (*ь U = (х?) 4- 2а2 £2 (хЛ). (12.24а) Если т = tr —12 и (Ух = aXt при всех t, т. е. если процесс на входе стационарен, то последнее выражение приводится к виду (т) = а2ог* 4-2а2 £2 (т). (12.246) Спектральная плотность на выходе квадрирующего устройства задается преобразованием Фурье от Ry(y), и так как, согласно равенству (П. 1.16), преобразование Фурье от постоянной является импульсной функцией, то спектральная плотность имеет вид +°о Sy (/) = aMS (f) + 2а2 $ (т) е~^ dx. —ОО Далее, R2x(x)e-iw*dx = Sx(f')df Rx (т)ехр [ — /2л (/ — f')т] dx = —СО —оо —оо +°О = 5 Sx(f')Sx (f-r)df', — оо и, следовательно, 4-00 S«(f) = «2<W) + 2a2 Sx(DSAf-Ddf'. (12.25) —оо Итак, спектральная плотность отклика складывается из двух ча- стей: импульсной части (12.26а) соответствующей среднему значению отклика, и части Sy(f)r = 2a*\ Sx(f')Sx(f-f’)df', (12.266) —ОО соответствующей случайным изменениям отклика.
12.2. Квадратичный детектор 301 . Чтобы лучше почувствовать полученные результаты, рассмот- рим пример воздействия с какой-нибудь простой по форме спек- тральной плотностью. Пусть, например, спектральная плотность Их ka2A2B Площадь импульса= 2аг^В - - ______I__I— -В +В И 2В 4агАгВ Площадь импульса=4 а2А2В2 -в т +В Фиг. 12.4. Спектральные плотности для двухполупе- риодного квадратичного детектора при подаче на вход его узкополосного гауссовского шума: а—на входе; б—на выходе квадрирующего устройства; в—на выходе фильтра низких частот. воздействия постоянна и равна А в узкой полосе частот ширины В со средней частотой fc, причем 0 < В < /с: {В в А при fc r<|f|</;c-|-_, (12.27) 0 при других f. График такой спектральной плотности изображен на фиг. 12.4, а* В этом случае 4-00 а2= Sx(f)df = 2AB. (12.28) —оо Импульсная часть спектральной плотности на выходе квадрирую- щего устройства равна, следовательно, S-(f) = 4a2A2B26(f); (12.29)
302 Гл. 12. Нелинейные системы; прямой метод она изображена на фиг. 12.4, б. Согласно (12.21), математическое ожидание и дисперсия отклика квадрирующего устройства равны E(yt) = 2aAB и о2 (yt) = 8а2А2В2. (12.30) Математическое ожидание и дисперсия отклика идеального филь- тра низких частот, согласно (12.23), равны E(zt) = 2aAB и о2(г()= 4аМ2В2. (12.31) . Спектральная плотность флуктуирующей части отклика на вы- ходе квадрирующего устройства можно найти, как показывает выражение (12.266), вычислив свертку спектральной плотности воздействия Sx(f) с нею самой. Таким образом, мы имеем ' 4а2А2(В —|f|) при 0 < |/|<В, 2а2А2 (В - || Л - 2fc \) при 2fc - В < | f | < 2fc + В, (12.32) 0 при других f. График этой функции также изображен на фиг. 12.4,6. Итак, спектральная плотность отклика квадрирующего устройства отлич- на от нуля лишь в узких полосах частот, средние частоты кото- рых равны нулю и удвоенным средним частотам спектральной плот- ности воздействия. Идеальный фильтр низких частот пропускает ту часть процесса, спектральная плотность которой расположена около нулевой частоты, и не пропускает ту его часть, которая характеризуется спектральной плотностью, расположенной около ±2/с. Следовательно, 5z(f) = S7(f) + S2(f)r, (12.33) где Si (/) = 4а2А2В26 (/) (12.34а) и 4а2А2(В-|Л) 0 при 0 < ] f ( < В, при других f. (12.346) Графики этих спектральных плотностей изображены на фиг. 12.4,в. Из полученных результатов мы видим, что полосы частот откли- ков квадрирующего устройства и фильтра низких частот совпада- ют с удвоенными полосами частот воздействия на входе детектора. Нетрудно видеть, что полученные результаты полностью согласу- ются с результатами, относящимися к элементарному случаю си- нусоидальных воздействий.
12.3, Сигнал плюс шум на входе 303 12.3. Квадратичный детектор; сигнал плюс шум на входе Рассмотрим теперь случай, когда на вход двухполупериодного детектора подается сумма сигнала s(t) и шума п(/): x(/) = s(0 + n(0. (12.35) где s(f) ип(/) —выборочные функции статистически независимых вероятностных процессов с равными нулю математическими ожи- даниями. Поскольку отклик квадрирующего устройства равен у (/) = a [s (0 + п (012 = a [s2 (t) + 2s (/) п (0 4- п2 (/)] (12.36) и процессы на входе независимы, математическое ожидание от- клика равно E(yt) = а [Е(5(2) + Е(п(2)], (12.37а) а если процессы на входе стационарны, то E(y) = a(os2 + o2), (12.376) где os = о (s() и ап = a (nt) для всех t. Среднеквадратичное значе- ние отклика квадрирующего устройства равно в общем случае Е (у?) = а2 [Е (s?) + 6Е (s2) Е (nf) + Е (п?)]; (12.38а) если сигнал и шум на входе стационарны, то последнее выраже- ние приводится к виду Е (у2) = а2 [Е (s4) 4- 6о| + Е (п4)]. (12.386) Корреляционная функция отклика квадрирующего устройства равна Ry (G. Q = Е (у^) = а2Е [(sx 4- лх)2 (s2 4- п2)2]. Следовательно, Ry (Л. *2) = [Е (Ф1) + 4Е (S1S2) Е («1«2> + Е (Sl) Е («1) + 4-E(s22)E(n2) + E(«X)l. (12.39а) Если вероятностные процессы на входе стационарны, то, полагая т = ^1 —12, получаем Ry (*) = a2 [R# (т) 4- 4Я, (т) /?я(т) 4- 2о82 оД 4- R^ (т)], (12.396) где Ra (т) и Rn (т) — корреляционные функции соответственно сиг- нала и шума и где 7?s2(t) = E(s2s22) и /?п2(т) = Е(п2п|). (12.40) Такими образом, корреляционная функция отклика квадрирующего устройства содержит слагаемые трех типов: Ry (Т) = R**s (т) + RSXn (t) + Rnxn (т), (12.41)
304 Гл. 12. Нелинейные системы; прямой метод где слагаемое ^sxs (т) = (т) (12.42а) обусловлено взаимодействием сигнала с самим собой, слагаемое ' /?пяп(т) = а2/?„2(т) (12.426) обусловлено взаимодействием шума с самим собой, а слагаемое ^sxn (т) = 4tz2/?s (т) Rn (т) + 2а2ст| сгД (12.42в) обусловлено взаимодействием сигнала и шума. Нетрудно видеть, что только слагаемое типа sxs (которое имелось бы в отсутствие шума) относится к полезному выходному сигналу; слагаемые ти- пов sxn и пхп связаны с шумом на выходе. Спектральную плотность отклика квадрирующего устройства можно найти, вычислив преобразование Фурье от 7?у(т). Мы по- лучим Sy (f) = Ssxs (f) + Ssxn (f) + (f), (12.43) где 4-00 Ssxs (f) = a2 /?S2(t)exp (- j2nfr)dr, (12.44a) —oo 4-00 Snxn (f) = a2 5 Rrt (T) exP (~ dx ( 12.446) —oo и 4-00 Ssxn (/) = 4a2 5 Ra (*) Rn Ю exp (- j2nfr) dr + 2a2as2 a2 6 (f) = — OO = 4а2 J Sn (f') Ss (f - f') df + 2a2as2 o£d (f), (12.44b) —00 причем Ss (f) и Sn(f) — спектральные плотности соответственно сиг- нала и шума на входе детектора. Наличие слагаемого типа sxn показывает, что в присутствии сигнала на входе шум на выходе возрастает. Хотя сейчас этот результат мы получили применительно к двух пол у периодному квадратичному детектору, ниже мы уви- дим, что аналогичный результат имеет место для всякого нелиней- ного устройства. Синусоидальный сигнал плюс гауссовский шум на входе. В пре- дыдущем разделе мы установили различные статистические свой- ства отклика двухполупериодного квадратичного детектора при подаче на вход его полезного сигнала и шума произвольной при- роды. Предположим теперь, что шум на входе n(t) является вы-
12.3. Сигнал плюс шум на входе 305 борочной функцией стационарного действительного гауссовского вероятностного процесса с равным нулю средним значением, а полезный сигнал на входе синусоидален: s (0 = Р cos (<ос? 4- 0), (12.45) где Р — постоянная, а 0 — случайная величина, распределенная рав номерно в.интервале О<0<2л и не зависящая от процесса, за- дающего шум. Поскольку входной шум —гауссовский, из (12.246) следует, что слагаемое типа пхп в выражении для корреляционной функции на’ выходе двухполупериодного квадрирующего устройства имеет вид РПХЛ (т) = 2а2/?2 (т) + а2<т‘(12.46) Тогда, согласно (12.25), соответствующая спектральная плотность равна Snxn(/) = 2a2 \Sn(f)Sn(f-f')dft+aW(f). (12.47) —СО Для определения других слагаемых корреляционной функции на выходе квадрирующего устройства нужно получить некоторые свойства сигнала и шума на входе. Во-первых, корреляционная функция входного сигнала равна Q = р2Е [cos (©Л + 0) cos (©с/2 + 0)] = 2л = cos [<вс (^ - /2)] 4- 2А _L COS [ис (t! 4- /2) 4- 20] dd = о = -^-COS [<oc(G- У]. Поэтому мы можем написать Ps W = cos сост, (12.48) где т = /г —/2. Тогда, согласно равенству (П.1,18), спектральная плотность входного сигнала имеет вид Ss (D = 4- [б (f~ fc) + б (f + Л)1, (12.49) где /с —®<»/2л. Согласно равенствам (12.42в) и (12.48), имеем Psxn W = 2а2Р2Рп (г) cos (ост 4- а2Р2Оп• (12.50) Соответствующая спектральная плотность, как то вытекает из (12.44b) и (12.49), равна Ssxn (f) = а2Р2 [Sn (f - fc) 4- Sn (f 4- fc)] + a*PW (f). (12.51) 20 Заказ № 57
306 Гл. 12. Нелинейные системы; прямой метод Далее, корреляционная функция квадрата входного сигнала Е = Р*Е [cos2 + 6) cos2 (<о^2 + 9)] = П4 D4 = —4 g- cos 2сос (/х £2). Следовательно, слагаемое типа sxs в выражении для корреляцион- ной функции на выходе квадрирующего устройства имеет вид ^xs (Т) = + Ф cos 2Чт, (12.52) где т = ^ —12. Соответствующая спектральная плотность равна Ssx, (Л = б (/) + [б + 6 (12-53) Подытоживая сказанное, получаем, что корреляционная функ- ция отклика двухполупериодного квадрирующего устройства при подаче на вход его суммы синусоидального сигнала и гауссовского шума с нулевым средним значением, согласно равенствам (12.46), (12.50) и (12.52), имеет вид Rv (т) = а2 (4- аХ У + 2а2/?п (т) + 4- 2a2P2Rn (т) cos сост + cos 2<ост, (12.54) а спектральная плотность отклика, согласно (12.47), (12.51) и (12.53), равна Sy <f> = a2(^ + °* У б (Д + 2a2Ys„ (Г) Sn (J - П df + —СО + а2Р2 [Sn (f - fc) + SJJ + fc)] + [S (J - 2/c) + S (f + 2fc)]. (12.55) Первое слагаемое в (12.54) есть просто математическое ожи- дание отклика квадрирующего устройства: Е(у) = а^ + ойпу (12.56) Среднеквадратичное значение отклика можно найти, вычислив значение корреляционной функции при г = 0: £(у2) = За2(^ + Р2<т2+4). (12.57) Следовательно, дисперсия отклика квадрирующего устройства равна ^ = 2а2(^ + ^< + о*). (12.58)
12,3. Сигнал плюс шум на входе .307 Для того чтобы лучше почувствовать полученные аналити- ческие результаты, обратимся снова к случаю, когда шум на входе обладает спектральной плотностью какой-либо простой Фиг. 12.5. Спектральные плотности для двухполу- периодного квадрирующего устройства при подаче на вход его суммы синусоидального сигнала и гауссов- ского шума. формы. Пусть, как и в § 12.2, спектральная плотность шума на входе постоянна и равна А в узкой полосе* частот ширины В со средней частотой fc, причем 0 < В < fc. Тогда полная спектраль- ная плотность воздействия равна, как это изображено на фиг. 12.5, а, sAf)=^[6(f-fc)+d(f+fc)]+ D D + Л при Д. + (12.59) 0 при других f. 20*
308 Гл. 12. Нелинейные системы, прямой метод Рассмотрим теперь отдельные слагаемые, составляющие спек- тральную плотность отклика. Выше мы видели, что слагаемые на выходе квадрирующего устройства, обусловленные взаимодей- ствием входного шума с самим собой (слагаемые типа пхп), сов- падают с полной спектральной плотностью, имеющей место при подаче на вход только шума. Таким образом, согласно (12.29) и (12.32), Snxn(f) = 4a*A*B^(f) + 4aM2(B-|f|) при 0 < \f |< В, 2aM2(B-||f|-2fc|) при 2fe-B<\f\<2fc + B, (12.60) 0 при других f. График этой спектральной плотности приведен на фиг. 12.4,6. Равенство (12.53) показывает, что слагаемые в выражении для спектральной плотности отклика, обусловленные взаимодей- ствием полезного сигнала с самим собой (слагаемые типа sxs), состоят из трех импульсов, из которых один расположен на нуле- вой частоте, а два других — на частотах ± 2fc. Эти слагаемые изображены на фиг. 12.5, 6. Наконец, слагаемые в выражении для спектральной плотности, обусловленные взаимодействием полезного сигнала и шума (сла- гаемые типа sxn), согласно (12.51), состоят из импульса на нуле- вой частоте и пары слагаемых, получаемых переносом спектраль- ной плотности входного шума на частоты ± fc. Таким образом, Ssxn(f) = 2a*P*AB6(f) + 2а*Р*А при 0 < | f | < в 2 ’ + а2Р2А при2/с —-|-< 0 при других f. :|fl <2fc4- 4- (12.61) Соответствующий график изображен на фиг. 12.5, в. Полная спектральная плотность отклика находится как сумма слагаемых типов sxs, sxn и пхт, график ее приведен на фиг. 12.5, г. Как и в § 12.2, мы можем получить двухполупериодный квадратичный детектор, включив после двухполупериодного квад- рирующего устройства идеальный фильтр низких частот. Тогда спектральная плотность отклика квадратичного детектора будет суммой тех слагаемых из равенств (12.53), (12.60) и (12.61), которые соответствуют частотам, лежащим в окрестности нулевой
12.3 Сигнал плюс шум на входе 309 частоты. Таким образом, Z D2 . _ S2(f) = a* 2а2 Р2 А при 0<|/|<^-, • + + 0 при других f (Aa2A2(B-\f\) при 0<|/|<В,| ( 0 при других f J ' ' ‘ ' Второе слагаемое в этом выражении обусловлено взаимодействием между входным, сигналом и шумом; третье есть результат взаимо- действия шума с самим собой. Сопоставить эти два слагаемых по важности можно, сравнив полные площади под их графиками, т. е. соответственно ст2 (zsxre) и a2(znxn). Согласно (12.62), <T2(zSxn) _2а*Р*АВ _ Р* <Р(гпхп) 4а2Д2В2 ~ 2АВ ’ Отношение мощностей сигнала и шума на входе (т. е. отношение дисперсий входного сигнала и шума) равно С \s_\ _ £1 _ В2/2 \ N )i~ 2АВ • (12.63) (12.64) Следовательно, Итак, при увеличении отношения мощностей сигнала и шума на входе шум на выходе все в большей и большей мере обусловли- вается взаимодействием полезного сигнала и шума и все в мень- шей и меньшей мере — взаимодействием шума с самим собой. Модулированный синусоидальный сигнал плюс гауссовский шум на входе. В предыдущем разделе мы предполагали, что сигнал на входе детектора является чисто синусоидальным. Рас- смотрим теперь синусоидальный сигнал, модулированный случай- ным образом по амплитуде: s (t) = Р (0 cos (<act + 0), (12.66) где 0 равномерно распределено в интервале 0 < 0 < 2л, а Р (/) — выборочная функция стационарного действительного вероятно- стного процесса, не зависящего от случайной величины 0 и от шума на входе детектора. (Последующий анализ применим также в случае, если Р (/) — периодическая функция, не содержащая частот, соизмеримых с /с = юс/2л.)
310 Гл. 12. Нелинейные системы*, прямой метод Будем, как и прежде, предполагать, что входной шум яв- ляется выборочной функцией стационарного действительного гаус- совского процесса с нулевым математическим ожиданием. Таким образом, слагаемые корреляционной функции типа пхп на выходе квадрирующего устройства и соответствующие им спектральные плотности определяются, как и прежде, соответственно равен- ствами (12.46) и (12.47). Корреляционная функция входного сигнала равна Rs (т) = Е (PtPt+x) Е {cos (ш/ 4- 9) cos [шс (/ + т) + 0]} = = у/?р(т) cos(oct, (12.67) где Rp (т) — корреляционная функция модулирующего процесса. Спектральная плотность входного сигнала тогда равна 5S (7) = | s₽ [s V- +6 (f+fc-П] df = —OO ’ = 4 [Sp(f-fc) + SP(f + fc)], (12.68) где Sp (7) — спектральная плотность модулирующего процесса. Таким образом, согласно (12.42в) и (12.67), составляющая корре- ляционной функции типа sxn на выходе квадрирующего устрой- ства имеет вид 7?sxn. (т) = 2a2RP (т) Rn (т) cos и>сг + a2RP (0) о2. (12.69) Соответствующая ей спектральная плотность равна - Ssxn (7) = 2а2 Rp (т) Rn (т) cos 2л/ст ехр (— /2л/ст) dr + —ОО + №(0X6(7). Интеграл, входящий в это равенство, может быть вычислен как полусумма значений преобразования Фурье от произведения /?р(т)7?п(т) в точках f—fc и f + fc. Поскольку преобразование Фурье от Rp (т) Rn (т) равно свертке соответствующих спектраль- ных плотностей, мы получаем Ssxn(/) = ^y sn(n[SP(f-fc-n + Sp(f + fc-n]df' + —oo + ^р(0)<6(7). . (12.70) Составляющая корреляционной функции типа sxs на выход
12. 3. Сигнал плюс шум на входе 311 квадрирующего устройства имеет вид 7?sxs (т) = а*Е (PfPt+x) Е {cos2 (<act + 6) cos2 [<ac (t + r) + S]} = = -^-/?p2(t) + 4-^Wcos2®ct, (12.71) где Rpz (t) — корреляционная функция квадрата модулирующего процесса. Таким образом, составляющая спектральной плотности типа sxs на выходе квадрирующего устройства равна Ssxs (D = 4 Sp° + 4 - 2/с) + Spt ’ (12-72) где Spa (/) —спектральная плотность квадрата модулирующего процесса. Сравним теперь полученные результаты с теми, которые мы получили выше для случая смодулированного синусоидального сигнала. Заметим прежде всего, что слагаемые спектральных плотностей типа пхп на выходе в обоих случаях одинаковы. Далее, сравнивая равенства (12.51) и (12.70), мы видим, что импульсная часть составляющей типа sxn в выражении для спек- тральной плотности на выходе в случае немодулированного сиг- нала при модулированном сигнале свертывается со спектральной плотностью P(t). Наконец, сравнение равенств (12.53) и (12.72) показывает, что импульсы, имевшиеся при отсутствии модуляции, при наличии ее заменяются слагаемыми, содержащими спектраль- ные плотности P2(t)- Таким образом, в целом наличие модуляции входного сигнала приводит к тому, что составляющие типов sxn и sxs в выражении для спектральной плотности отклика разма- зываются по частоте. Отношения сигнал/шум. В заключение нашего анализа двух- полупериодного квадратичного детектора рассмотрим связь между отношениями сигнал/шум для мощности на входе и на выходе детектора. Из найденного нами выражения для составляющей типа sxs корреляционной функции на выходе квадрирующего устройства [равенство (12.71)] мы видим, что мощность сигнала на выходе детектора равна So = 4 Яр* (0) = 4 Е <Р4) ’ (12-73) Мы можем выразить So через мощность сигнала на входе детек- тора Si = ^s(0) = 4^p(0) = y^(/’2) (12.74)
312 Гл. 12. Нелинейные системы; прямой метод следующим образом: S0 = a*kpSt, (12.75) где (12-76) является функцией, зависящей от распределения вероятностей модулирующего сигнала. Поскольку kp остается постоянной при изменении Si9 например при замене Р (t) на <хР(/), равенство (12.75) показывает, что мощность выходного сигнала пропор- циональна квадрату мощности входного сигнала, что вряд ли может показаться неожиданным. Мощность шума на выходе детектора, согласно (12.46) и (12.69), равна ЛГ0 = (0)+4 2a*RP (0) Rn (0) = = а2[< + ^(/’2)1. (12.77) где множители 1/2 обусловлены тем, что половина мощности шума на выходе квадрирующего устройства сосредоточена на частотах, близких к нулевой, а другая половина— на частотах, близких к удвоенной несущей частоте1). Этот результат может быть выражен через мощности сигнала и шума Л/. = на входе: (12.78) что совпадает с результатом, полученным в случае немо Аудиро- ванного сигнала [равенство (12.65)]. Таким образом, отношение мощностей сигнала и шума на выходе равно —= -L. (12.79) ,VO IIP °* (см. фиг. 12.6). Если отношение сигнал/шум на входе велико, то приближенно При малом отношении сигнал/шум на входе имеем приближенно *) Ср. фиг. 12.4 и 12.5.
12.4, Однополупериодный линейный детектор 313 Итак, при больших отношениях сигнал/шум на входе отношение сигнал/шум на выходе изменяется пропорционально отношению на входе, а при малых отношениях на входе — пропорционально его квадрату. Этот результат показывает, что детектору свойствен Фиг. 12.6. Зависимость отношения сигнал/шум по мощности на выходе двухполупериодного квадратич- ного детектора от отношения сигнал/шум на входе. эффект подавления слабых сигналов. Мы доказали это сейчас лишь для двухполупериодного квадратичного детектора; в гл. 13 мы покажем, что это общее свойство всех детекторов. 12.4. Однополупериодный линейный детектор В качестве второго примера, иллюстрирующего прямой метод анализа нелинейных устройств, рассмотрим однополупериодный линейный детектор1). Такой детектор состоит из однополупериод- 1) Ср. Райс (I, §§ 4.2 и 4.7) и Бургес (I).
314 Гл. 12. Нелинейные системы-, прямой метод ного линейного устройства с характеристикой ( Ьх при х>0, 0 при х < 0, (12.82) где Ь — масштабный множитель, и следующего за ним низкочастот- ного или усредняющего фильтра. Схематическое изображение Фиг. 12.7. Однополу пер иодный линейный детектор. /—однополупериодное линейное устройство; //—фильтр низких частот. такого детектора приведено на фиг. 12.7, а однополупериодная линейная характеристика изображена на фиг. 12.8. Фиг. 12.8. Однополупериодная линейная характеристика. Как видно из фиг. 12.8, функция распределения отклика . однополупериодного линейного устройства имеет вид р (yt < У1) = О при у± < О, р ПРИ Эта функция может быть выражена через плотность распределе- ния вероятностей воздействия: ( • 0 при д/х<0; p(yt<yi)— j p^Xf <0)+ Pj.(xt)dxt при ^>0. (12‘83) I о
12.4. Однополупериодный линейный детектор 315 Дифференцируя обе части равенства (12.83) по уи получаем Р2(уд = Р<Л<&)Ъ(уд +|рх (Ч = U (yt), (12.84) где U (уд — функция единичного скачка, определяемая равен- ством (П. 1.6). Моменты распределения вероятностей отклика можно получить подстановкой равенства (12.82) в (12.6), что дает Е (уТ) = Ьп х'}р1 (хд dxt. (12.85) Для дальнейших расчетов обычно нужно задать конкретную фор- му плотности распределения вероятностей воздействия. Если, однако, эта плотность является четной функцией, то мы можем выразить моменты четных порядков на выходе устройства непо- средственно через моменты четных порядков на входе. В самом деле, в этом случае Е(уГ) = Ьгп (хдdx^^- xfnp1 (хдdxt, О —оо и, следовательно, Е(у?п) = Ь-^Е(хГ), (12.86) где Р1(х() = р1(-х(). Согласно (12.7) и (12.82), корреляционная функция отклика однополупериодного линейного устройства равна = x1x2p(x1,x2)dx1dx2, (12.87) о о где xr = xtl и х2 = xt2. Гауссовский процесс на входе. Предположим теперь, что воздействие x(t) на входе детектора является выборочной функ- цией действительного гауссовского вероятностного процесса с ну- левым математическим ожиданием. В этом случае плотность рас- пределения . вероятностей на входе детектора выражается равен- ством (12.13), а на выходе однополупериодного линейного устрой- ства, согласно (12.84), Р2 (Уд = Т 6 (Уд + |/2n6a)(xi) еХР Е “ 2W(*i) ] ’ <12-88) Плотности распределения величин т) = yt/ba (xt) и £ = х(/ст(х() изображены на фиг. 12. 9.
316 Гл. 12. Нелинейные системы', прямой метод Поскольку является в данном случае четной функцией, моменты четных порядков распределения вероятностей отклика можно получить непосредственно из равенства (12.86). Используя равенство (8.116), имеем £(г/2’1) = 1&2"а2"(л:г)[1.3-5- ... -(2/г-1)], (12.89) где п = 1,2, ... . Моменты нечетных порядков можно найти под- становкой (12.13) в (12.85), что дает °° 2 Фиг. 12.9, Плотность распределения вероятностей для одно- полупериодного линейного устройства. где /п=0, 1,2....Положив z = x2, приводим последнее'равенство к виду £ = . -- С гт ехр Г — z 1 fa ' 2/2л a (xt) J L 2a2 (xt) J Следовательно *), E(y?m+1) = ^=&2,n+'a2m+! (xt). (12.90) т) См. Двайт (I, формула 861.2).
12.4. Однополупериодный линейный детектор 317 В частности, среднее значение отклика однополупериодного линей- ного устройства равно £(у')=Т^’ (12-91) а дисперсия — о2(г/()==ед)-£2(^)= =4 (1 Ч) (*<) = 0.3408&2о2(xt). (12.92) Корреляционную функцию отклика однополупериодного линей- ного устройства можно найти, подставив в (12.87) вместо p(xltx2) плотность совместного распределения вероятностей двух гауссов- ских случайных величин с равными нулю математическими ожиданиями. Если процесс на входе стационарен, то, используя равенство (8.22), получаем (Т) = 2л^[1- е2(т)],/2 х X \ хАехр { ~ -о^)11%2 } dX1 dXi' где ож = о(х() для всех t, a (т) = Е (Х]Х2)/Ох. Чтобы облегчить вычисление двойного интеграла в последнем выражении, положим {2а2 [1- е2(т)]}1/а ‘ Тогда можно написать *v(*)=4^U-eW/2 х оо оо X J 4ziz2exP[-z! — z23 + 2Qx(x)z1z2]dz1dz}. О о Можно показать1), что при 0<ф<2л ОО со dx ху ехр (— х2 — у2 — 2ху cos <р) dy = = 1-со5ес2ф(Г-фс1бф). (12.93) 1) См. Райс [I, формула (3.5.4)].
318 Гл. 12. Нелинейные системы; прямой метод Таким образом, полагая — qx (т) = cos <р (поскольку | ея (т) | < 1), получаем выражение = In U1 “ е* (Т^1/2 + агс cos I “ е« (12.94) <• для корреляционной функции отклика однополупериодного: линей- ного устройства при подаче на вход его стационарного действи- тельного гауссовского вероятностного процесса. Вычисление преобразования Фурье от выражения (12.94) с целью найти спектральную плотность отклика наталкивается на практи- ческие трудности; поэтому, прежде чем вычислять преобразование Фурье от корреляционной функции, удобно представить ее в виде бесконечного ряда. Разложение в степенной ряд функции arc cos (—q) имеет вид1) arc cos (— е) = = т + е + Й+255+2ЭТ7+ ••• (-’<е<1)- (12.95) Разложение в степенной ряд функции [1—еа]1/2 записывается в виде2) , | ... (_ 1<е<1). (12.96) > Подставляя эти выражения в (12.94) и приводя подобные члены, находим, что первые несколько членов разложения в ряд /?у(т) имеют вид (12.97) 5 Поскольку | (т) | < 1, слагаемые с (т) в степени выше второй очень малы, и поэтому мы можем с достаточным приближением положить =: Л2П2 А2 А2 X ^W = -2F + t^(t) + ^^(t). (12.98) i Как мы знаем из равенства (12.91), первое слагаемое в раз- $ ложении в ряд Ry (г) равно квадрату среднего значения yt. Следо- вательно, остаток ряда, вычисленный при т = 0, должен опреде- лять дисперсию. Используя равенство (12.98), получаем для дисперсии yt приближенную формулу § а2 = ^(1+20 = 0,3295^*. (12.99) 9 Двайт (I, формула 502). 2) Двайт (I, формула 5.3).
12.4. Однополупериодный линейный детектор 319 Сравнивая этот результат с точным значением, определяемым равенством (12.92), мы видим, что приближенное выражение для корреляционной функции (12.98) дает значение дисперсии, отли- чающееся от точного примерно лишь на 3%. Поскольку приближение, даваемое равенством (12.98), улучшается с уменьшением /?х(т), разность /?„(*) — ух, вычисленная по формуле (12.98), никогда не содержит ошибки, превосходящей 3%. .Теперь мы можем, вычислив преобразование Фурье от выра- жения (12.98), найти приближенное выражение для спектральной плотности отклика однополупериодного линейного устройства: А2 s.®—aT 6® + t's-®+‘ 4-00 —со (12.100) где Sx (/) — спектральная плотность процесса на входе. Предполо- жим теперь, как и при изучении квадратичного детектора, что процесс на входе обладает узкополосным прямоугольным спектром $*(/) = А при + О при других f. (12.101) В этом случае вх = 2АВ и, согласно (12.100), su(f) = ‘~W)+ — при fc--2< 1Л< /сН"2 »L . 0 при других f. J приО<[/|<В, + ^(‘—?1И1-2/.|) ПР» 2/.-В< |/|< 2fc+B. * 0 при других f. (12.102) Пусть за однополупериодным линейным устройством следует иде- альный фильтр низких частот. Тогда спектральная плотность на выходе фильтра отлична от нуля только в области частот, при- мыкающей к нулевой частоте. Следовательно,' S2(f) = ^6(f) + Ий-О “‘Ф’) при 0 <|/| < В, (12.103) I 0 при других f. Различные спектры, относящиеся к рассмотренному случаю, изо- бражены на фиг. 12.10. Небезынтересно сравнить результаты, полученные выше для однополупериодного линейного детектора и ранее — для двухполу-
320 Гл. 12. Нелинейные системы; прямой метод . периодного квадратичного детектора. Сравнивая фиг. 12.4 и 12.10, мы видим, что спектры в обоих детекторах как в окрестности нулевой частоты, так и в окрестности удвоенной средней частоты спектра входного процесса имеют одинаковую форму. Однако площадь в каждой полосе для квадратичного детектора пропорцио- нальна квадрату дисперсии входного процесса, а для линейного детектора — самой дисперсии. Другое различие состоит в том, что в спектре отклика однополупериодного линейного устройства ^х Ъ2А ^Площадь=^-^ Фиг. 12.10. Спектральные плотности для однополу- периодного линейного детектора при узкополосном гауссовском воздействии: а—на входе; б—на выходе однополупериодного линейного устройства; в—на вы- ходе фильтра низких частот. возникает дополнительная шумовая полоса, совпадающая по ча- стоте с полосой частот процесса на входе. Эти выводы основы- ваются, конечно, на справедливости приближенного выражения (12.98) для корреляционной функции отклика однополупериодного линейного устройства. Мы провели здесь исследование однополупериодного линейного детектора в той мере, в какой это удобно сделать прямыми методами анализа. Изучение поведения такого детектора при подаче на вход его суммы сигнала и шума мы отложим до следующей главы.
12.5, Задачи 321 12.5. Задачи 1. Пусть на вход двухполупериодного квадрирующего устройства с харак- теристикой у = ах2 подается воздействие, являющееся выборочной функцией х (t) стационарного действительного гауссовского вероятностного процесса с математическим ожиданием т и дисперсией о2. а) Найти плотность распределения вероятностей величины у. б) Найти математическое ожидание и дисперсию у. в) Изобразить графически результат п. а) при т = 5о. ,2. Рассмотрим систему, изображенную схематически на фиг. 12.11. Пусть воздействие на входе е0 (t) — выборочная функция стационарного действитель- Фиг. 12.11. Квадратичный детектор. I—двухполупериодное квадрирующее устройство; II—фильтр низких частот. ного гауссовского вероятностного процесса с нулевым математическим ожиданием и спектральной плотностью So (f) = A^>2kTR. а) Найти корреляционную функцию е2. б) Найти спектральную плотность е2. в) Нарисовать графики корреляционных функций и спектральных плот- ностей е0, ег и е2. З1). Рассмотрим систему, изображенную схематически на фиг. 12.11. Пусть воздействие на входе то же, что и в задаче 2, и пусть, далее, импуль- сный отклик фильтра низких частот имеет вид ае а< при 0 < t < Т, О при других t, (12.104) где а—постоянная. а) Найти т3— математическое ожидание е3. б) Найти сг|— дисперсию е3. в) Найти отношение в31т3 и его предельное значение при Т —>оо. 4. Рассмотрим систему, изображенную схематически на фиг. 12.11, и пусть воздействие на входе то же, что и в задаче 2, а в качестве фильтра низких частот применяется интегрирующий фильтр с импульсным откликом f 1 при 0<Z<T, тех h(t, Т)= _ И / (l2J05) ( 0 при других t. а) Определить т3. б) Определить о3. в) Определить отношение о3/щ3 и его предельное значение при Т —>оо. 5. Воздействие на входе двухполупериодного квадрирующего устройства имеет вид х (/) = P(l -j-m cos (Dmt) cos coc^+n(0» (12.106) x) Ср. задачи 9 и 10 гл. 9. 2 1 Заказ №57
322 Гл. 12. Нелинейные системы] прямой метод где Р и т — постоянные, причем 0<т<1, а п (0 — выборочная функция стационарного действительного гауссовского вероятностного процесса с нулевым математическим ожиданием. Спектральная плотность шума постоянна и равна Nq при <ос — 2сош < | со | сос+2(от и нулю при других значениях со. а) Найти и изобразить графически спектральную плотность на выходе. Желательным выходным сигналом является синусоида с угловой частотой cow. б) Найти отношение мощности низкочастотных искажений на выходе к мощности полезного сигнала. в) Найти отношение мощностей полезного выходного сигнала и всего низкочастотного шума. Фиг. 12.12. Синхронный детектор. Z—умножитель; II—фильтр низких частот; ///—местный гетеродин. 6. Рассмотрим синхронный детектор, изображенный схематически на фиг. 12.12. Пусть сигналом на входе служит модулированная случайным образом синусоида s (/) = ?(/) cos сос/, (12.107) где Р(/) — выборочная функция стационарного действительного вероятност- ного процесса, спектральная плотность которого равна Ss(f) = | S° при (12.108) I 0 при других f, где f0<^fc, и который не зависит от шума на входе. Сигнал, даваемый мест- ным гетеродином, имеет вид L(t) = A cos сос/, (12.109) где А — постоянная. Пусть, далее, фильтром на выходе служит идеальный фильтр низких частот, пропускающий без изменения частоты и полностью подавляющий все остальные частоты. а) Предположим, что шум на входе n(t) есть выборочная функция ста- ционарного действительного вероятностного процесса с нулевым математи- ческим ожиданием и спектральной плотностью sn(/) = | N° п₽и fc~~T +-у ’ (12.110) I 0 при других f. Найти отношение сигнал/шум на выходе фильтра низких частот, выразив его через отношение мощностей сигнала и шума на входе. б) Пусть шум на входе имеет вид п (/) = v (/) cos <ос/, (12.111)
12.5. Задачи 323 vnx___выборочная функция стационарного действительного вероятностного процесса с нулевым математическим ожиданием и спектральной плотностью S,t(f) = N° ПрИ (12.112) О при других f. Найти отношение мощностей сигнала и шума на выходе фильтра низких частот, выразив его' через отношение мощностей сигнала и шума на входе. И 7. Рассмотрим синхронный детектор, изображенный схематически на фиг. 12.12. Пусть шум n(t) на входе является выборочной функцией ста- Фиг. 12.13. Приемное устройство. —смеситель; //—полосовой фильтр; ///—двухполупериодное квадрирую- щее устройство; /V—фильтр низких частот; V—местный гетеродин. ционарного действительного гауссовского вероятностного процесса с нулевым математическим ожиданием и спектральной плотностью где о< /с. Пусть, далее, полезный сигнал на входе имеет вид s (0 = Р cos (cocZ+0)’ (12.114) где Р — постоянная, а 0 — равномерно распределенная (в интервале 0*СО<2л) случайная величина, не зависящая от шума; выходной сигнал местного гете- родина имеет вид L (0 = A cos <ос/, где А — постоянная. а) Найти спектральную плотность на выходе умножителя. б) Изобразить графически спектральные плотности сигнала плюс шум на входе детектора и на выходе умножителя. 8. Пусть фильтром низких частот на выходе детектора, описанного в задаче 7, является простая RC-цепь с полосой пропускания (оцененной по половинной мощности) Вывести выражения для отношения сиг- нал/шум на выходе фильтра, выразив его через полосу пропускания фильтра, и отношения сигнал/шум на входе. 9. Рассмотрим приемник, изображенный схематически на фиг. 12.13. Сиг- нал на входе имеет вид х (t) = P (0 coscoc0 (12.115) где Р (0 — выборочная функция стационарного действительного гауссовского вероятностного процесса с нулевым математическим ожиданием со спектраль* 21*
324 Гл. 12. Нелинейные системы; прямой метод ной плотностью s (f)=[ 1 при 0<1^<0’05^ р (0 при других f. Сигнал на выходе смесителя равен W) = [1+*(OU(O. (12.116) (12.117 гДе~£(0—периодическая функция времени, изображенная на фиг. 12.14, причем взятое там <оо равно 5сос/4. Функция передачи полосового фильтра равна / 1 при 0,lfc<lf|<0,4fC; вр I 0 при других f, а фильтра низких частот— н J1 при 0<|f|<0.15fc, LP I 0 при других f. (12.118) (12.119) а) Найти и изобразить графически спектральную плотность на выходе смесителя, выразив ее через спектральную плотность на входе. б) Найти и изобразить графически спектральную плотность на выходе фильтра низких частот. в) Найти математическое’ожидание и дисперсию отклика фильтра низких частот. Фиг. 12.15. Характеристика ограничителя. 10. На фиг. 12.15 представлена характеристика симметричного ограни- чителя. а) Найти плотность распределения вероятностей отклика ограничителя, выразив ее через плотность распределения вероятностей на входе. б) Повторить вычисления пункта а) при условии, что случайный процесс на входе является стационарным действительным гауссовским вероятностным процессом с нулевым математическим ожиданием.
12.5. Задачи 325 в) Найти математическое ожидание и дисперсию отклика ограничителя в условиях пункта б). г) Пусть плотность распределения вероятностей процесса на входе явля- ется четной относительно нулевого математического ожидания, а в остальном произвольна; найти плотность распределения вероятностей отклика идеального ограничителя (т. е. ограничителя, для которого t/0 > 0, но хо = О). д) Вычислить математическое ожидание и дисперсию отклика ограничи- теля в условиях пункта в).
Г лава 13 НЕЛИНЕЙНЫЕ СИСТЕМЫ; МЕТОД ПРЕОБРАЗОВАНИЙ Применение прямого метода анализа нелинейных ' систем к устройствам, отличным от рассмотренных в предыдущей главе, часто наталкивается на аналитические трудности, связанные с вы- числением различных интегралов. Во многих интересных случаях эти трудности могут быть обойдены с помощью метода преобра- зований, который мы рассмотрим в настоящей главех). Сначала мы рассмотрим преобразование Фурье (или Лапласа) от характеристики нелинейного устройства, далее мы применим его к вычислению корреляционной функции на выходе устройства и в заключение изучим частный случай детектора v-й степени. Как и в гл. 12, мы ограничимся лишь такими нелинейными устройствами, отклик которых в момент t может быть представлен в виде однозначной функции воздействия в тот же момент /. 13.1 Переходная функция Пусть у = g (х) — характеристика рассматриваемого нелинейного устройства. Если функция g (x) и ее производная кусочно-непре- рывны и g(x) абсолютно интегрируема, т. е. Ч-оо \g(x)\dx < +со, (13.1) —ОО то существует преобразование Фурье f(jv) от характеристики устройства f(Jv) = g(x)e~jvxdx (13.2) —оо и отклик нелинейного устройства может быть выражен через воз- действие с помощью обратного преобразования Фурье* 2): Н-ОО У = = f(jv)eixvdv. (13.3) — ОО х) Ср. Миддльтон (II) и Райс (I. ч. 4). 2) См., например, Черчилл (I, стр. 89 и след.).
13.1. Переходная функция 327 Мы назовем функцию f(jv) переходной функцией нелинейного устройства. Представление нелинейного устройства с помощью его переходной функции введено Беннетом и Райсом1) и было, по- видимому, впервые применено к изучению шумов в нелинейных устройствах почти одновременно и независимо друг от друга Бен- нетом2), Райсом3) и Миддльтоном4). Во многих интересных случаях (например, в случае однополу- периодного линейного устройства) характеристика не является абсолютно интегрируемой функцией, ее преобразование Фурье не существует и равенство (13.3) применено быть не может. Однако определение переходной функции нередко может быть распростра- нено и на такие случаи, причем могут быть получены и резуль- таты, аналогичные (13.3). Предположим5), например, что функция g(x) равна нулю при х < О, что она и ее производная кусочно- непрерывны и что на бесконечности g(x) имеет экспоненциальный порядок роста, т. е. | g (х) | < Мпри х > 0, (13.4) где А4Х и иг — постоянные. Тогда функция Y (х) = g (х) е~и’х, где и' > ult абсолютно интегрируема, так как |у(*)|<М1е-(и'-,‘х)ж, и ее преобразование Фурье должно существовать. Поэтому мы можем написать, согласно (13.3), что Y(x) = -^f eixV [ 8 e~ule~ivt di- J dv —oo 0 и, следовательно, g (x) = dv. — DO 0 Если мы теперь введем комплексную переменную w = u-\-jv, то интеграл по действительной переменной v можно заменить контур- х) Беннетт и Райс (I). 2) Беннетт (I). 3) Райс (I, § 4.8). 4) Миддльтон (II и III). 5) Ср. § 57 в работе Черчилля (II).
328 Гл. 13. Нелинейные системы; метод преобразований ным интегралом вдоль линии w = и' jv в плоскости w и написать где и' > и и S f(w)exwdw, U' — JCO оо f(w)= g(x)e~wxdx. о (13.5) (13.6) Переходная функция нелинейного устройства может быть в этом случае определена как одностороннее преобразование Лапласа1) (13.6) от характеристики, и отклик устройства может быть по- лучен из обратного преобразования Лапласа (13.5). Во многих задачах характеристика на полупрямой в нуль не обращается и введенные выше преобразования применять нельзя. Часто, однако, случается все же, что характеристика удовлетво- ряет обычным условиям непрерывности и как при положительных, так и при отрицательных значениях х имеет экспоненциальный рост, т. е. | g (х) | < при х > О, | g (х) | < М3е~изХ при х < О, где /И2, и2, М3 й и3 — постоянные. В этом случае мы можем опре- делить однополупериодные характеристики2) ( g(.x) при х> О, % — I 0 при х < О (13.7а) (13.76) и ( 0 «-w=i gw при х> О, при х < 0. Тогда g(x} = g*(x) + g_(x). (13.7в) Функции g+ (х) и g_ (х) уже удовлетворяют предыдущим условиям и, следовательно, обладают односторонними преобразованиями Лап- ласа соответственно f+ (w) и где (х) e~wx dx (13.8а) г) Черчилл (II, гл. VI). 2) Ср. Титчмарш (II, § 1.3).
13.2. Устройства v-й степени 329 (интеграл сходится при « > м2) и о f_ (w) = g_ (х) e~wxdx —ОО (13.86) (интеграл сходится при и < «3). Переходную функцию заданного устройства можно тогда представлять себе как пару функций (ay) и /_(«’)• Так как g+(x) может быть получена из Д. (ау) с помощью контурного интеграла типа (13.5), a g_ (х) — аналогичным образом из то, согласно (13.7в), полная характеристика определяется равенством g(x) = 2ЙГ ^f^w)eXWdw + ^j (13.9) С+ С- где за контур С+ можно взять линию w = uf + jv9 и'> и2, а за контур С_ — линию w = и" + jv, и” < и3. Если и2 < и3, то и обладают перекрывающимися областями сходимости в плоскости w и соответственно мы можем определить переходную функцию устройства как двустороннее преобразование Лапласах) 4-00 f (w) = f + (^) + gf^e-w^dx, —oo (13.10) которое сходится при u2 < и < u3. В этом случае оба контура интегрирования могут быть взяты в перекрывающихся частях об- ластей и, следовательно, здесь может быть выбран общий контур. 13.2. Устройства v-й степени Важный класс нелинейных устройств составляют устройства, образуемые на основе устройств с однопол у периодной характе- ристикой v-й степени: f axv при х > О, Y(x)= * (13.11) 1 I 0 при х<0, где а—масштабный множитель, a v — неотрицательное действи- тельное число. Частными примерами таких устройств являются однополупериодное устройство v-й степени с характеристикой £(х) = у(х), двухполупериодное (четное) устройство v-й степени х) Ср. Ван дер Поль и Бреммер (I, § 11.5).
330 Гл. 13. Нелинейные системы; метод преобразований с характеристикой ^eW = YW + Y(-^) = axv при х > 0, О при х = О, а( — x)v при х < О (13.12) и двухполупериодное (нечетное) устройство v-й степени с харак- теристикой g<Ax) = y(x)-у(-х) = axv при х > 0, О при х = 0, (13.13) — а (— x)v при х < 0. Графики различных характеристик этих устройств приведены на фиг. 13.1. Одно- и двухполупериодные (четные) устройства v-й степени часто используются в качестве детекторов; двухполупе- риодные (нечетные) устройства v-степени встречаются в некоторых нелинейных усилителях. Преобразование Лапласа от одногюлупериодной характеристики v-й степени равно оо Ф (w) = а xve~wxdx. 6 Интеграл в правой части сходится только при 91 (ау) > 0. Следо- вательно, соответствующий контур С+ для обратного преобразова- ния должен лежать вправо от оси w = jv. Полагая t = wx, имеем оо Ф (®) = —Йй- 5 t^dt, w о откуда <13Л4> где Г (?) — гамма-функциях), определяемая интегралом Г(?)= ( е~Ч*~1 dt (13.15) о при 91 (г) >0. Таким образом, переходная функция однополупе- риодного устройства v-й степени равна f (^) = ф(ау). (13.16) !) Уиттекер и Ватсон (I, § 12.2) или Магнус и Оберхеттингер (I, гл. I)»

332 Гл. 13. Нелинейные системы', метод преобразований Поскольку О со а (— x)verv,xdx = а ^e-(-w)tdt = y( — w), —со О переходные функции двухполупериодного (четного) устройства v-й степени имеют вид feAW) = Ф (w) И fe-(w) = (p(-w), (13.17) а двухполупериодного (нечетного) — fo. (w) = <р (ay) и f0_ (w) == - ф (- w). (13.18) Интеграл для ф( —ау) сходится только при 9i(ay) < 0; соответ- ствующий контур С_ для обратного преобразования должен, следо- 7* Плоскость Фиг. 13.2. Контуры преобразования^обра- щения для устройства v-й степени. вательно, лежать влево от оси w = ]v. Мы будем в дальнейшем выбирать в качестве контура С+ линию w = s + jv, а в качестве контура С_—линию — 8 + р, где 8 > 0 и — оо<у<4~оо, как показано, на фиг. 13.2. Узкополосное воздействие. Предположим, что на вход одно- полупериодного устройства v-й степени подается узкополосное воз- действие вида х (0 = V (0 cos 0 (0 = V (0 cos [<ос£ + (р (/)], (13.19)
13.2, Устройства v-й степени 333 где V(£)>0- Отклик устройства можно найти, подставляя в (13.5) значение x(t), определяемое равенством (13.19), и значение f(w), определяемое равенством (13.16). Итак, e+Joo 1 Г пГГиД-П Г pWVcosfl = ' 2nJ у —dw- С+ e—joo Экспонента в подинтегральном выражении может быть разложена по формуле Якоби — Энгерах) оо exp(zcos0)= 2 етЛп (z)cos т (13.20) ?п=0 где 8W — множитель Неймана, 80 = 1, гт = 2 (tn = 1, 2,...), а (?) — модифицированная функция Бесселя первого рода. Следовательно, полагая £ = wV и 6 = sV, имеем оо е 4~ у= 2 аг(^ + l)cosmO-gr dw = m=0 е — Joo оо б-j-Joo = 2 Cr(v+l)Vvcosm9-^- m=0 6—Joo ’ Введем обозначение для коэффициентов: 6 +Joo С (у, /п)=‘^v+D $ !^Ld^ (13.21) б —Joo тогда "отклик однополупериодного устройства v-й степени на узко- полосное воздействие может быть представлен в виде f/(0 = S C(v,/и) Vv(/) cos 4-/пф (/)]. (13.22) m=0 Итак, мы разложили отклик устройства на сумму гармонических компонент. Каждая компонента представляет собой колебание с огибающей, модулированной при помощи v-й степени огибающей входного воздействия, причем т-я компонента модулирована по фазе по тому же закону^ что и воздействие на входе, но в т раз глубже. Предположим теперь, что узкополосное воздействие приложено ко входу двухполупериодного (четного) устройства v-й степени. Отклик устройства находится подстановкой в (13.9) выражения х) Магнус и Оберхеттингер (I, гл. 3, § 1).
334 Гл. 13. Нелинейные системы; метод преобразований (13.19) для x(t) и выражений (13.17) для (w) и При этом мы получаем s+joo __ Л —e-j-joo л ar(v+l) С ewVcos9 ar(v+i) с ewV cos О Ув~ 2nj \ wv+i dw+ 2nj У 8 — j’oo —e—joo 4 ' e-f-joo ap (v I 1) C eu’y cos 0 I e~wV cos 0 2я/ J оЛ+1 e—joo dw. Разлагая экспоненты по формуле (13.20) и используя равенство /га(-г) = (-1)т/га(г), (13.23) получаем оо 64-joo Уе= 5 [l+(-l)m]ar(v+ l)Vvcos/пб-^- J 771=0 6—JOO ’ Итак, отклик двухполупериодного (четного) устройства v-й степени на узкополосное воздействие может быть представлен в виде 1/е(0= S 2C(v,/n)Vv(Ocos[/nco^ + m(p(0], (13.24) 771=0 (по четным т) где C(v, т) определяются равенством (13.21). Аналогично можно показать, что отклик двухполупериодного (нечетного) устройства v-й степени на узкополосное воздействие представим в виде l/o(0= S 2C(v,m')Vv(t)cos[m<oct + m<p(t)]. (13.25) тп=1 (по нечетным ттг) Таким образом, если отклик однополупериодного устройства v-й степени в общем случае содержит все гармоники входного воз- действия, то отклик двухполупериодного (четного) устройства содержит только четные гармоники (включая нулевую частоту), а отклик двухполупериодного (нечетного) устройства — только не- четные гармоники воздействия. Вычисление коэффициентов С (v, т)х). Для того чтобы вычис- лить коэффициенты C(v,/n), рассмотрим сначала интеграл от An(£)/Cv+1, взятый по контуру, изображенному на фиг. 13.3. По- г) Ср. Ватсон (I, § 13.24).
13.2. Устройства v-й степени 335 ложим £ = £ + /л и введем обозначения Л= \ e = e+/n, 6—53 £ 0+53 /2= $ = 6+53 Q +53 73— \ v+i > ь — Л> -53 б—53 Л= 5 ^Йтг1’ S = £-/₽. (13.26) o-jp £ Тогда при 6 —> со интеграл I. стремится к интегралу, стоящему справа в (13.21). Фиг. 13.3. Контур интегрирования. Так как х) (13.27) то функция Бесселя Im(z) при малых значениях z изменяется как гт. Если мы, далее, предположим, что /n>v+l, то особая *) Ватсон (I, § 3.7) или Магнус и Оберхеттингер (I, гл. 3. § 1).
336 Гл. 13. Нелинейные системы; метод преобразований точка функции /m(£)/gv+1 в начале координат исчезнет и функция эта станет аналитической как внутри контура, изображенного на фиг. 13.3, так и на этом контуре. Тогда, согласно теореме Коши1), Л + /2-Л + Л = 0. (13.28) Рассмотрим теперь интегралы /2 и /4. Используем асимпто- тическое разложение для /w(z) при больших z2): J М - eZ У (-1)пГ(/и+п+1/2) пз 2ач } ~ п! Г (m-n+1/2) (2z)n * * v ' п=0 Тогда для больших значений | z | имеем приближенно /m(z)=-^. (13.30) (2ли) /2 Следовательно, при больших значениях 0 ] _ С 2~ /Й? J (g + /P)V+’/2’ и если v+ 3/2 > 0, то I /21< .—^^, 37---->0 при 0—»оо. 1 21 /2npv+ /2 Таким образом, /2—>0, и аналогично 14-^0 при ($—>оо; следо- вательно, 6+joo +joo т С _ С Лп(£М£ /10 oi\ j £V+1 3 £V+1 ‘ (10.01) ft—JOO ’ — JOO На мнимой оси £ = /т) и d^ = jdr\. Поэтому 4-СО г Am-V) f 1 J nv+l ’ — OO ' поскольку = (13.32) Далее, полагая т) = —19 получаем С _ / 1 \(m~v) С 3 ^v+l ““ v 3 zv+l • —оо О х) Черчилл (II, § 48) или Титчмарш (I, § 2.33). 2) Ватсон (I, § 7.23).
13.2. Устройства v-й степени 33? Таким образом, •(т—V) ц j)(m—v)j f Jm (0 dt o /V ’ = 2/sin(/n-v)|^^M.- (13.33) Интеграл в этом выражении представляет собой несобственный интеграл Вебера *), и при v Ц- 1/2 > 0 и m>v (эти предположения уже были приняты выше) он равен Поскольку* 2) Г(2)Г(1-2) = -^, (13.35) из равенств (13.22), (13.33), (13.34) и (13.35) следует, что для четных т при /n>v-j-l и v + 1 /2 > О C(v,m)-----------^-г^+'>------. (13.36) 2’+'r(1-S=i)r(l+=±i) При фиксированном v отношение С (у, т)/ът является всюду одно- значной аналитической функцией от т\ поэтому теория аналити- ческого продолжения 3) позволяет нам снять ограничение tn > v 4-1. Остающееся ограничение v -j-1/2 > 0 удовлетворяется автомати- чески в силу исходного предположения о неотрицательности v. Так как | Г ( — п) j = 00 при п = 0, 1, 2, ..., то, согласно (13.36), коэффициенты С (у, tri) обращаются в нуль всякий раз, когда (т — v)/2 — положительное целое число. Это, например, имеет место, когда tn четно и > v при целом четном v или когда т нечетно и >v при нечетном v. Таким образом, согласно (13.24), если V —четное целое число, то гармонические составляющие на выходе двухполупериодного (четного) устройства v-й степени, Для которых /п > v, обращаются в нуль; аналогично, согласно (13.25), при нечетном целом v гармонические составляющие, для которых tn > v, обращаются в нуль на выходе двухполупериодного (нечетного) устройства v-й степени. х) Ватсон (I, § 13.24). 2) Магнус и Оберхеттингер (I, гл. I, § 1). 3) Черчилл (II, § 50) или Титчмарш (I, §§ 4.1 — 4.4). 22 Заказ №57
338 Гл. 13. Нелинейные системы-, метод преобразований Детекторы и нелинейные усилители v-й степени. Одно- или двухполупериодное (четное) устройство v-й степени и следующий за ним идеальный фильтр низких частот образуют детектор v-й степени. Согласно равенству (13.22), отклик однополупериод- ного детектора v-й степени равен z(0 = C(v,0)Vv(0, (13.37а) а двухполупериодного детектора v-й степени, согласно (13.24),— ze(0 = 2C(v,0)Vv(0, (13.376) где, согласно (13.36), В частности, отклик однополупериодного линейного детектора равен z1(0 = C(l,0)V(0=^-V(0, а двухполупериодного квадратичного1) — z2(/) = 2C(2/0)V2(0= Таким • образом, однополупериодный линейный детектор является детектором, выделяющим огибающую. Двухполупериодное (нечетное) устройство v-й степени и сле- дующий за ним полосовой фильтр со средней частотой пропуска- ния /с = сос/2л (т. е. фильтр, функция передачи которого равна единице в некотором интервале частот около частоты /с и нулю при других частотах) образуют нелинейный усилитель v-й степени. Отклик такого усилителя, согласно (13.25), равен z0(/) = 2C(v, l)Vv(/)cos[(oc/ + q)(0], (13.39а) где, согласно (13.36), C(V, 1)-----rvIr1<i + ‘rv + 31 ' <13-39б> При v = О отклик двухполупериодного (нечетного) устройства v-й степени может принимать только значения ± а (см. фиг. 13.1, в). Такое устройство называется идеальным ограничителем, а сово- купность, состоящая из идеального ограничителя и полосового фильтра, средняя частота которого совпадает с несущей частотой входного воздействия, — идеальным полосовым ограничителем. J) Ср. § 12.2, выражение (12.17).
13.3. Корреляционная функция и спектр отклика 339 Если на идеальный полосовой ограничитель подается узкополосное воздействие,- имеющее вид (13.19), то отклик ограничителя, согласно (13.39), равен 4а z0 (0 = 2С (0, 1) cos [<ос (0 + ф (0] = — cos [<ос/ + ф (0]. Таким образом, подавая на вход идеального полосового ограни- чителя узкополосное воздействие, мы получаем на выходе огра- ничителя синусоидальный сигнал, модулированный только по фазе, причем закон модуляции идентичен закону, по которому было модулировано по фазе воздействие на входе. 13.3. Корреляционная функция и спектральная плотность отклика Согласно равенству (13.5), корреляционная функция отклика нелинейного устройства может быть следующим образом выражена через переходную функцию этого устройства1): —|— оо —оо у (^i»^2)= ё (*^i) ё (^2) Р » ^2) dx±dx2 = —00 —00 1 +00 +00 = 72й/7 dw* \ p(xv х2)х С С —оо —оо г * X exp (w1x1 + w2x2) dxydx^. Двойной интеграл по хг и х2 равен, как это видно из сравнения с равенством (4.25), совместной характеристической функций величин и х2, записанной в виде функции комплексных пере- менных и w2. Следовательно, Rv (0- 0) = 5 f dwi 5 f (“’v w2) dw2- (13.40) c c Выражение (13.40) является основной формулой при анализе слу- чайных, воздействий на нелинейные устройства методом преобра- зований. Оставшаяся часть этой главы посвящена вычислению этого выражения для различных типов устройств и различных видов воздействий на них. х) Для компактности записи мы предполагаем здесь, что переходная функ- ция может быть выражена с помощью одностороннего [как в равенстве (13.6)] или Двустороннего [как. в (13.7)] преобразованйя ЛапласаВ тех случаях, -гда пеРеходная Функция должна выражаться с помощью пары преобразова- ии [как в равенстве (13.8)], каждый из используемых в этом соотношении онтуров для обратных преобразований нужно заменить парой контуров, как в равенстве (13.9). ' . 22*
340 Г л. 13. Нелинейные системы; метод преобразований Во многих задачах воздействие, подаваемое на вход системы, представляет собой сумму полезного сигнала и’шума: x(7) = s(/) + n(0> ' (13.41) где s\t) и п (t) — выборочные функции статистически независимых вероятностных процессов. В таких случаях совместная характери- стическая функция воздействия равна произведению характеристи- ческих функций сигнала и шума и равенство (13.40) принимает вид Ry (*i> Q = (2^7)2 f (Ч) dwr 5 К^2) (wlt ш2) мп (wlf w2), С с (13.42) где /Hs (шь ш2) —совместная характеристическая функция величин и s2, a Mn(wlt te>2) — совместная характеристическая функция величин и п2. Гауссовский шум на входе. Если шум на входе устройства является выборочной функцией действительного гауссовского ве- роятностного процесса с нулевым математическим ожиданием, то, согласно равенству (8.23), Л4П (о\, ау2) = ехр {у + 2/?п(^,/2) , (13.43) где ст1 = ст(л1), п2 = а(п2) и Rn(tlt t2) = Е(п1 п2). Корреляционная функция отклика в таком случае принимает вид Rv Q = 72Й7Р $ f exP () dwi x c x 5 f exP (jt) exp (Л. Q ^2] M9 (^i> 0 Если теперь exp [/?n (/n /2) и Ms w2) могут быть пред- ставлены в виде произведений функции от wr на функцию от ш2 или в виде сумм таких произведений, то двойной интеграл в последнем выражении может быть вычислен как произведение интегралов. Тот факт, что экспоненциальная функция может быть представлена через произведения функций от wr и вытекает из разложения ее в степенной ряд exp [Яп (tlt t2) wtw2] = 2 7?п(<1’^)а,Л . (13.44) /г=0 Поэтому корреляционная функция отклика нелинейного устройства при подаче на вход его гауссовского шума может быть записана
13.3. Корреляционная функция и спектр отклика 341 в виде (^i> Q = 2 f (^i) ехР Г ) dwt х k=0 с X f(ay2)^exp w2)dw2. (13.45) С Для того чтобы двигаться дальше, необходимо конкретизировать характеристическую функцию полезного сигнала на входе устройства. Синусоидальные сигналы. Предположим теперь, что сигнал на входе устройства представляет собой модулированную синусоиду, т. е. что s (t) = Р (/) cos 0 (t) = Р (t) cos [сос/ + ср], (13.46) где Р (t) — выборочная функция низкочастотного вероятностного процесса (т. е. такого, у которого спектральная плотность отлична от нуля лишь. в диапазоне частот, примыкающем к нулевой частоте и узком по сравнению с fc) и где случайная величина ф распределена равномерно в интервале 0 < ф < 2л и не . зависит от модулирующего сигнала и от шума. Характеристическая функ- ция такого сигнала равна Мз (^1> ^2) = Е [еХР (W1P1 C0S 01 + ^2Р2 C0S 02)]- Разлагая экспоненту по формуле Якоби—Энгера [выражение (13.20)], получаем оо оо Ms w2) = 2 S 8menE [Im (te^Pi) In (w2Pzj] E (cos m0x cos ra62). m=Qn—0 Поскольку E (cos cos n02) = E [cos m (cd^ + ф) cos n (coc/2 + ф)] = 0 при n =# /и, = 1 — cosmci)cT при n = /n, em где т = /х —t2, мы получаем, что для амплитудно-модулированного синусоидального сигнала оо Л4в (и»х, w2)^= S emE [/m (w^) Im (wJP2)} cos /и©ст. (13.47) m=0 Корреляционную функцию отклика нелинейного устройства при подаче на вход его синусоидального сигнала и гауссовского шума можно теперь найти, подставляя (13.47) в (13.45). Определим Функцию fimh (*i) = -ад § f (“О w [вуР{] exp [ —2— | dw, (13.48) c
342 Гл. 13. Нелинейные системы; метод преобразований где Р-= Р(^), а£ = о[п(^)], и корреляционную функцию Ятй(^ У = £[Л^(/1)ЛтЛаа)], (13.49) где осреднение производится по модулирующему сигналу; тогда корреляционная функция отклика будет равна оо оо ^2)= 2 2 ^mk (^i> t2)Rn(t1912) cos т(йсгл (13.50) m=Q k=0 'Если как модулирующий сигнал, так и шум стационарны, то выражение (13.50) принимает вид «#W=2 2f^W^(T)cosffl0)cT. (13-.51) тп=0 h~G Если входной сигнал представляет собой немодулированную синусоиду P(C0S(CDc/ + ф), то. оо оо & h? - *»(*)= 2 2 -V^nWcos/moj, (13.52) m=0 fe=0 ибо в этом случае коэффициенты и Лтл(/2) постоянны и равны друг другу. Составляющие сигнала и шума на выходе. Рассмотрим сей- час случай, когда шум на входе имеет форму немодулированной синусоиды. В этом случае корреляционная функция, на, выходе задается выражением (13.52). Разложим это выражение следую- щим образом: Ry(r) = h§o + 2 5} A^oCOS/n<Bcx4- 2 ^^n(T) + m=i k= 1 ,2 + 2 2 2 IT (T) cos та>ст; m=l k=i (13.53) рассмотрим отдельные его слагаемые. Первое слагаемое соответ- ствует постоянной составляющей на выходе устройства. Следую- щая группа слагаемых (zn > 1, k = 0) отвечает периодической части отклика и обусловлена в основном взаимодействием вход- ного, сигнала с самим собой. Остальные слагаемые соответствуют случайным колебаниям отклика, т. е. шуму на выходе. Те из
13.3. Корреляционная функция и спектр отклика 343 этих оставшихся слагаемых, для которых /и = 0, /?>1, обуслов- лены главным образом взаимодействием входного шума с самим собой, а те из них, для которых m>l, k> 1 — взаимодействием сигнала и шума на входе. Представим отклик нелинейного устройства в виде суммы сред- него значения, периодических составляющих и случайной состав- ляющей: со «/(0 = /ии+ 2 Атcos+ <pm)4-Tj(t). (13.54) 7П= 1 Тогда корреляционная функция отклика может быть записана в виде . 00 /? (т) = + -5- S Am cos та>ст 4 (т), (13.55) w .4 где Rtj (т) = Е (т]jTfe)• Сравнивая равенства (13.53) и (13.55), мы видим, что среднее значение откликами амплитуды его периодиче- ских составляющих могут быть выражены непосредственно через коэффициенты hmh: my = h0<t (13.56) и Xm = 2/im0, т>1. (13.57) Кроме того, корреляционную функцию случайной части отклика можно записать в виде (т) = Afovxjv) (т) + R(sxn) (т), (13.58) где /?(^) (т)=2 Ф^(т) Ь=1 (13.59) характеризуют слагающую шума на выходе, обусловленную глав- ным образом взаимодействием шума с самим собой, а ' ' °° °° ,2 /?(Sx2V)(t) = 2 3 2 ^^(T)cosma>cT (13.60) m=l k=l характеризуют слагающую шума, обусловленную взаимодействием сигнала и шума на входе1). Итак, разложение корреляционной Функции, которое привело нас к равенству (13.52), позволило нам х) Заметим, что при P(t)=0 функция R (г) равна 0, так как тогда в(13.48)/т(0)=0, т>,1. (SXN) .
344 Г л. 13. Нелинейные системы} метод преобразований выделить среднее значение отклика, его периодические составляю- щие и (A/AW)- и (5ХМ)-составляющие выходного шума. Все эти результаты были получены в предположении, что входной шум стационарен, а сигнал имеет форму немодулирован- ной синусоиды. Однако такое же разделение корреляционной функции возможно и в общем случае, и мы можем написать ^(^ ^2) = #(SXS) (^1, Q + ^(NXN)^, /2) + ^(SX7V)(^1, ^2)» (13.61) где мы положим по определению в соответствии с (13.50) #(.SXS)(t-L, tZ)= 3 /2) COS/7Z<acT, (13.62) m=0 oo Q (13.63) k=l и oo oo R(sxn) (ti, ti) = 2 2 1 Rmk (tlt t2) R* (tx, t2) cos m<ocr. (13.64) 171=1 k=i Следует отметить, что, строго говоря, все эти слагаемые являются функциями процесса, модулирующего входной сигнал. , Решение вопроса о том, какие из (5Х5)-слагаемых в (13.62) определяют полезный выходной сигнал, зависит, конечно, от назна- чения нелинейного устройства. Если, например, устройство исполь- зуется как детектор, то полезной является низкочастотная часть выходного сигнала. В этом случае полезному сигналу соответствует часть корреляционной функции, определяемая равенством RsAti, ^) = ^00(^1, у. (13.65) С другой стороны, если устройство используется как нелинейный усилитель, то Rs0(ti, t^ = 2Ru{tx, t^costtV. (13.66) ибо в этом случае полезной является составляющая сигнала, сосре- доточенная около несущей частоты входного сигнала fc. 13.4. Спектральная плотность отклика Спектральную плотность отклика нелинейного устройства можно найти, как обычно, взяв преобразование Фурье от корреляционной функции отклика. Рассмотрим сначала случай, когда на вход нелинейного устройства подаются немодулированный синусоидаль- ный сигнал и гауссовский шум. При этом ^корреляционная функ-
13,4. Спектральная плотность отклика 345 ция на выходе определяется равенством (13.53). Следовательно, S„(f) = *So6(f) + 2 «o[6(f + /nfc) + 6(f-/nfc)]+ А(/) + m=l fc=l oo oo 2 + 2 2 ^[ftSn(f + mfc) + ftSn(f-/nfc)], (13.67) m=l k=l где мы определили hSn(/) как преобразование Фурье от 7?£(т): 4-00 А (Л = $ Я*(т) ехр (-у2я/т) dx- (13-68> —оо Первое слагаемое (13.67) представляет собой импульс, расположен- ный на нулевой частоте и соответствующий среднему значению отклика. Совокупность импульсов, расположенных на частотах ± mfc, соответствует периодическим компонентам отклика, а остаю- щиеся слагаемые — выходному шуму. Как и прежде, шумовые слагаемые могут быть разделены на две группы: слагаемые, отра- жающие взаимодействие шума с самим собой, 00 А2 S№)(f)=S ^fcSn(f), (13-69) k=l и слагаемые, отражающие взаимодействие входного сигнала и шума, 00 00 А2 s(SxW)(f)=5 2 jr[ftsna+o+ftsn(/-o]. (13.70) m=l k—1 Последние два выражения являются, конечно, просто преобразо- ваниями Фурье от соответствующих корреляционных функций (13.59) и (13.60). Найдем теперь соотношение между feSn(f) и Sn(f). При k=l, согласно (13.68), iSn(f) = Sn(f). (13.71) Далее, при fe>2 /?£(т) можно представить в виде произведения; это дает 4-со h$n(f)= 5 ^n-1 W/?n(T)exp(-j2rtfr)dT.
346 Гл. 13. Нелинейные системы, метод преобразований Следовательно, hSn(f) можно записать в виде свертки fe_1Sn(f) и Sn (f): +“ hsn(fl='$ ^SntnSrAf-ndf'- (>3.72) —оо Повторным применением этой рекуррентной формулы получаем \ 4-00 ' 4-00 hsn (f) = 5 • • • 5 s« s« - fk-J ••Sntf- м df^‘Ъ- ( —оо —оо (i3.73) Итак, спектральная плотность hSn(f) может быть представлена в виде (fe— 1)-кратной свертки спектральной плотности входного шума с самим собой. Теперь обратимся к случаю, когда входной синусоидальный сигнал модулирован по амплитуде, причем как процесс, модули- рующий сигнал, так и шум стационарны. Корреляционная функ- ция отклика, получаемая из выражения (13.61) подстановкой в него т = tr — /2, имеет в этом случае вид (Т) = ^(SXS) СО + R(NXN) (0 + R(SXN) (т), . (13.74) где, согласно (13.62), (13.63) и (13.64), ^(SXS)(T)= 2 em/?m0 (т) cos/шйст, (13.75) m=0 оо ,Я(ад(т) = 3 ^Я№(т)Я*(т) (13.76) k=l И' R(.sxn) (t) = 2 2 2 Rmh (r)/?£ (t) cos тшсх. (13.77) m=l k—i Спектральная плотность отклика равна тогда > Sy(f) = SlSxS)(f) + S(NXN)(f) + S(SXN)(f), (13.78) где спектральные плотности, входящие как слагаемые в это выра- жение, являются преобразованиями Фурье от соответствующих корреляционных функций, входящих в (13.74). J Если мы теперь определим Smk(f) как преобразование Фурье от корреляционной функции коэффициента J Smft(f)= ^(т)ехР(-/2яМ^« (13.79) > —оо
13.5. Узкополосное воздействие 347 то различные компоненты спектральной плотности отклика’можно будет представить в следующем виде: оо S(sxs)(f)= 2 + (13.80) m=0 оо оо S(W^)(D = S > \ s0k(nksn(f-ndf' (13.81) k=l —оо и оо оо со 'S(8XN)(n= 2 2 ТГ 5 S^f,'>^Sn(f + mfc-n + m=l fe=l —оо + kSn(f-mfc-n]df'. (13.82) По существу эти спектральные плотности являются свертками со спектральными плотностями, найденными ранее в слу- чае немрдулированного синусоидального входного сигнала. 13.5. Узкополосное воздействие Предположим, что на вход нелинейного устройства подаются немодулированный синусоидальный сигнал и стационарный гаус- совский шум, спектр которого сконцентрирован около несущей частоты fc синусоидального сигнала (фиг. 13.4). Тогда спектраль- ная плотность отклика устройства задается равенством (13.67). Фиг. 13.4. Спектральная плотность узкополосного воздействия. Исследуем теперь шумовую составляющую спектральной плотности отклика. В частности, рассмотрим спектральную плот- ность kSn(f). Первое слагаемое xSn(f), как это следует из равен- ства (13.71), совпадает с шумовой составляющей спектральной
348 Гл. 13. Нелинейные системы,} метод преобразований плотности воздействия. Слагаемые, соответствующие fe>2, обра- зуются последовательными применениями рекуррентной фор- мулы (13.72). Так, например, 2Sn(f) есть свертка xSn(/) й Sn(f), т. е. свертка Sn(f) с ней самой. Следовательно, спек- тральная плотность 2Sn (/) максимальна при нулевой частоте Фиг. 13.5. Графики спектральной плотности k^n(f) ПРИ различных значениях к, показывающие относительные величины различных спектральных полос: (ajl^ni (б) (В) З^П ? (Г)4^П- и имеет меньшие пики, расположенные на частоте, равной удво- енной несущей частоте (фиг. 13.5,6). Из свойств свертки следует, что форма всех пиков 2Sn(f) одинакова, хотя она и может отли- чаться от формы пиков Sn (f). Повторяя операцию свертки с Sn(f), можно, в согласии с выражением (13.73), построить kSn(f) для любого £>2. Типичные графики для k = 1, 2, 3, 4 изображены на фиг. 13.5. Из определения свертки легко видеть, что при нечетном k пики ftSn(f) располагаются на частотах, являющихся
13.5. Узкополосное воздействие 349 нечетными кратными несущей частоты, и лежат в пределах ± kfc. Аналогично при четном k пики kSn(f) располагаются на частотах, являющихся четными кратными fc, и лежат в пределах ± kfc. Согласно равенству (13.69), /г-е слагаемое (ТУХЛ^-составляю- щей спектральной плотности равно kSn(f), умноженной "на hok/k\. Таким образом, первые четыре слагаемых (Л/Л7У)-части спектраль- ной плотности изображены на фиг. 13.5 с точностью до этого множителя. Каждое слагаемое (ЗХ/У)-составляющей и спектраль- ной плотности отклика имеет вид произведения [kSn(f+mfc) + на Следовательно, графики этих слагаемых можно построить (с точностью до масштабного множителя), исходя из графиков фиг. 13.5, простым смещением соответствующих пиков на ± mfc. Результаты такого’ построения для т = 2, k — 2 приве- дены на фиг. 13.6. Фиг. 13.6. Графики, показывающие" общий вид плотности 25п(/+2/с)4-215п(/-2/с). оПредыдущие результаты относятся к тому случаю, когда вход- ной синусоидальный сигнал не модулирован. В случае амплитуд- ной модуляции входного сигнала из равенств (13.80) — (13.82) сле- дует, что графики различных составляющих спектральной плот-
350 Гл. 13. Нелинейные системы;-метод преобразований ности отклика в основном остаются такими же, как на фиг. 13.5 и 13.6, с той лишь разницей, что теперь наличие модуляции при- водит к «размазыванию» каждой спектральной полосы. Из формул для различных слагаемых (AfXW)- и (5ХМ)-составля- ющих спектральной плотности отклика и из графиков на фиг. 13.5 и 13.6 следует, что полный спектр шума на выходе складывается из узких спектральных полос,, сосредоточенных на частотах, крат- ных несущей частоте входного сигнала. Относительные величины спектральных плотностей в каждой из полос зависят от характера коэффициентов hmk. Которая из этих спектральных полос является наиболее важной, всецело зависит от назначения рассматриваемого нелинейного устройства, т. е. от того, служит ли это устройство детектором или нелинейным усилителем. Разложение Как мы показали в гл. 8, корреляционная функция узкополосного стационарного действительного гауссовского вероятностного,процесса может быть представлена в виде х) Rn (т) = #v (т) cos [сост + 0 (т)], (13.83) где (Т) - [/?? (Т) + /??8 (т)Г/2, _ (13.84а) 6(r) = arctg [^J , (13.84б> ОО /?с (т) = 2 $ Sn (/) cos 2л (/ - fc) х df (13.85а) О и оо Rcs (т) = 2 $ Sn (f) sin 2л (f - fc) xdf. (13.856) о Спектральная плотность Sv(f), т. е. преобразование Фурье от 7?v(r), Сконцентрирована в узкой полосе частот около нулевой частоты, а спектральная плотность, соответствующая R (т) = cos [сост + + &(т)],—в узкой полосе вокруг fc. Поэтому с помощью равен- ства (13.83) можно преобразовать /?£(т) таким .образом, чтобы выделить явно компоненты, соответствующие отдельным спектраль- ным полосам. . Так как2) Л-2 ПТ cosft0=S (k-rYW* * cos(fe-2r)e+ (13.86а) г=() ’ х) Ср. § 85 и задачу 10 гл. 8. *) Двайт [I, равенство (404)J.
13.5. Узкополосное воздействие 35! при четном k и fe-i 2 COsh0 = 2 (k—r)\ A 2h~l C0S (k - 2r) 6 (13.866> r=0 при нечетном k, то из (13.83) следует, что к-2 KyW Г VI 2к-1 г=0 (гДмС°5 (k-2г)[®ст+ 6(т)] +— /?п(т) = <! при четном k, (13.87) fe-i Ry (т) уд 2fe-i Za (k—г)! г! cos (& — 2г) [сост+6 (т)] при нечетном k. Корреляционную функцию отклика нелинейного устройства на воз- действие, состоящее из суммы амплитудно-модулированного синусо- идального сигнала и узкополосного гауссовского шума, можно теперь найти подстановкой (13.87) в (13.51) или (13.50), в зави- симости от того, стационарен или нет модулирующий сигнал. Детекторы. Предположим, что рассматриваемое нелинейное устройство используется в качестве детектора, для чего введен следующий за ним идеальный фильтр низких частот. Благодаря этому фильтру на выход детектора могут проходить только те из слагаемых в разложении спектральной плотности на выходе нелинейного устройства, которые сосредоточены около нулевой частоты. Найдем теперь составляющие шума на выходе детек- тора. Рассуждения, которые привели нас к графикам на фиг. 13.5, показывают, что около нулевой частоты сосредоточены только такие составляющие ftSn(/), для которых k четно; следовательно, на выход детектора проходят только те из слагаемых (NXN)-co- ставляющей спектра на выходе нелинейного устройства, которые соответствуют четным k. Согласно (13.63), со R(NXN) (^1Д2) = 2 ^ок (т)> к=2 (ио четным к)
352 Гл. 13. Нелинейные системы; метод преобразований или, с учетом разложения /?„(т) по формуле (13.87), оо R(NXN) (^1, ^2) = 3 М #Qk k=2 к "9 У 2ft (по четным к) Л % к-2 । X? X? ^ок (^i> ^2) (^) /д о \ г о / \ч + 2 eos(fe-2/-)[(ocT+9(T)]. к=2 r=0 ' 7 (по четным к) Поскольку как /?ofe(r), так и (т) соответствуют низкочастотным флуктуациям, члены первого ряда соответствуют компонентам спектра, сосредоточенным около нулевой частоты, тогда как члены двойного ряда соответствуют компонентам спектра, расположенным около частот 2Д.<.(£ —2r)fc<£/c, £>2. Таким образом, отклику z(t) на выходе детектора соответствуют только члены первого ряда, и, следовательно, (ЛАХХ)-составляющая корреляционной функ- ции на выходе детектора равна оо Rz(nxn) (ti, t2) = 2 < k \2 ^2) v (t). (13.88) (4)2ft (по четным k) 4 / Аналогично может быть найдена (5ХХ)-составляющая корре- ляционной функции на выходе детектора. Рассмотрение фиг. 13.5 и 13.6 показывает, что шумовые полосы &£„(/) отстоят друг от друга на удвоенную несущую частоту и располагаются от частоты — kfc до частоты 4- kfc. Отсюда следует, что шумовые полосы суммы kSn (f + mfc) и kSn(f-tnfc) также отстоят друг от друга на удвоенную частоту fc и что эти спектральные плот- ности содержат полосы, сосредоточенные около нулевой частоты, только при четном m-\-k и m^k. Следовательно, единственная {SXAf ^составляющая корреляционной функции на выходе нелиней- ного устройства, которая может фигурировать на выходе детек- тора, определяется (согласно (13.64)) равенством оо к RlSXN) (ti, *2) = 2 2 2 тг #тк cos /Пй)«т- к=1 тп=1 (по четным m-J-k) (5ХХ)-часть корреляционной функции на выходе детектора можно теперь найти путем подстановки в последнее равенство значения 7?п(т) согласно формуле (13.87) и выделения низкочастотных
13.5. Узкополосное воздействие 353 составляющих. Действуя таким образом, получаем 2 3 (13.89) fe=l m=l ( 9 ) 1 ( 9 ) ’• (по четным m-pt) К У ч У Сумма выражений (13.88) и (13.89) задает корреляционную функцию шума на выходе детектора. Если используемый в детек- торе фильтр низких частот не является полосовым, то можно применить методы, изложенные в гл. 9, и, используя их совместно с выражениями (13.88) и (13.89), найти истинную корреляцион- ную функцию шума на выходе детектора. Нелинейные усилители. В качестве второго примера рассмотрим нелинейный полосовой усилитель. Нелинейность усилителя может быть нежелательной и обусловленной практической невозможностью обеспечить достаточно широкий динамический диапазон или пред- намеренной, как, например, в «логарифмических» радиолокацион- ных приемниках и ЧМ-ограничителях. Тем не менее в обоих слу- чаях представляет интерес определить эффект, обусловленный нелинейностью. Как и в предыдущих разделах настоящего параг- рафа, мы будем предполагать, что воздействие на вход системы является суммой амплитудно-модулированного синусоидального сигнала и стационарного гауссовского шума, спектр которого сосредоточен в окрестности несущей частоты сигнала. Поскольку усилитель нелинеен, в нем могут возникать компо- ненты сигнала и шума, спектры которых сосредоточены около нулевой частоты, около несущей частоты входного сигнала /с и около всех высших гармоник fc. Система рассматривается как «усилитель», и поэтому для нас представляют интерес только компоненты, сосредоточенные около самой несущей частоты /с. Для удобства анализа будем рассматривать Нелинейный усилитель как последовательное соединение нелинейного устройства и идеаль- ного полосового фильтра; характеристику этого фильтра будем считать равной единице в некотором интервале частот со средней частотой /с и, нулю вне этого интервала. Если фильтр обладает иными характеристиками, то это может быть учтено применением методов, изложенных в гл. 9. Теперь мы можем использовать технику, развитую в предыду- щих параграфах, с тем чтобы выделить составляющие корреля- ционной функции на выходе нелинейного устройства, которые со- ответствуют составляющим, пропускаемым на выход усилителя. При этом можно показать, что (МХД/)-составляющая корреляцион- 23 Заказ № 57
усилителя равна ^Oh (G> 4) #v (Т) cos [<0ст4- 0 (т)] ,, о .mm' 2- •<13-90> 354 Гл. 13. Нелинейные системы; метод преобразований ной функции на выходе СО RzfNXN) Gi» t2) — 2 fe=l (по не четным к) а (5Х.¥)-составляющая корреляционной функции равна R: (SXN) (G> ^2) = cos [со /г + 0 (т)] - , ] о (по нечет- V z У V z / ным т-|-1) 13.6. Детекторы v-й степени1) Результаты, изложенные в предыдущих параграфах, являются общими в том отношении, что там не задавались точно характе- ристики рассматриваемых нелинейных устройств. Обратимся теперь к частному случаю детектора v-й степени. Мы будем предполагать, что детектор состоит из одно- или двухполупериодного (четного) нелинейного устройства v-й степени и следующего за ним идеаль- ного фильтра низких частот. Характеристики и переходные функ- ции устройств v-й степени были рассмотрены в § 13.2. Пусть воздействие на детектор v-й степени является суммой амплитудно-модулированного синусоидального сигнала и гауссов- ского шума. Если нелинейное устройство — однополупериодное v-й степени, то корреляционная функция отклика устройства задается выражением (13.50), где коэффициент Лтк(/£) в j?mfe(/x, ^2) равен &) = аТ- ал/7"- $ wh~v~1 ImехР dw,. (13.92) с+ • 7 что вытекает из (13.48), если подставить туда значение определяемое равенством (13.16). С другой стороны, если нели- нейное устройство — двухполупериодное (четное) v-й степени, то, согласно (13.17) и (13.18), {0 при нечетном т + й, о, ... . , , (13.93) 2/iwfe (/J при четном т + k, v где Awfe(^) определяется равенством (13.92). Если шум на входе узкополосен, то, согласно результатам предыдущего параграфа, с откликом детектора связаны лишь слагаемые, содержащие те 9 Ср. Райс (I, § 4.10), Миддльтон (II, § 4).
13.6. Детекторы v-й степени $55 из коэффициентов Для которых m-\-k четно. Различие в корреляционных функциях на выходах одно- и двухполупериод- ного детекторов v-й степени сводится, таким образом, только к множителю 2* 2 = 4Х). Вычисление Лт*(//)2). Вычислим теперь для устройства v-й сте- пени коэффициенты /гтй(^), задаваемые равенством (13.92). При этом мы используем в основном тот же метод, который мы при- меняли в § 13.2 для вычисле- ния С (у, т). Рассмотрим интеграл от / crtw2\ wk-v~lIm (ayPi)exp^—) по прямоугольному контуру, изображенному на фиг. 13.7. Пусть 11 — интеграл вдоль ли- нии w = е -f- jv в пределах от v= — Р ДО^=4-Р; /2 —инте- грал ВДОЛЬ ЛИНИИ W = и + /0 в пределах от и = е до и = 0; /3 — интеграл вдоль линии w = jv в пределах от v = — 0 до v = + 0 и /4 —интеграл вдоль линии w = и — /0 в пределах от и = 0 до и = 8. Так как, согласно(13.27), Фиг. 13.7. Контур интегрирования. функция Бесселя /т(г) при малых z изменяется как zm, а экспо- нента при малых z изменяется как z°, то при m-\-k — v — 1 >0 подинтегральная функция не имеет особенностей в начале коорди- нат. При этом, следовательно, подинтегральная функция внутри контура фиг. 13.7 и на нем самом является аналитической функ- цией, и, согласно теореме Коши, /i + Zg—/3 + /4 = 0. (13.94) Рассмотрим интегралы /2 и /4. Согласно равенству (13.30), интеграл /2 при больших значениях 0 приближенно ра_вен о 5 ' = (v4~ О 2— /(2л)3/2рУ« ехр [«Pi+gv/lgg. ] ехр[/(Р^+Р?Цр)] ----------------—----X---------------dU. («4-/0) 2 х) Ср. равенство (13.37) в § 13.2. 2) Ср. Ватсон (1, § 13.3) или Миддльтон (II, приложение III). 23*
356 Гл. 13. Нелинейные системы; метод преобразований При р—>оо функция ехр (— сг* 202/2) убывает быстрее, чем возрас- . 1 ,ov + |-fe тает функция 1/р 2 ; следовательно, для любых т, k и v 1^21 < (2Я)3/2рУ2 еХР ~2~/ pv+3/2-ft > ° ПРИ 0 ~> °° • Следовательно, при 0—»со имеем /2—>0, и аналогично /4—>0. Таким образом, при m + k — v — 1 > 0, согласно (13.94), hmk tfi) = V\ wh-v~iIm (wPi) exp ' ) dw = —jx> = аГ (v 4- 1)--------------- \ yfe-v-i jm (yp.) exp (--l2~jdv. Интеграл в этом выражении, называемый экспоненциальным интегралом Ганкеля1), равен (при m + k — v > 0) оо 0 У ръ хГР/2 (аЛ)ехр{ 2 )dv- 2m!(ol/2}(h-v^ x^iQ—; т+Ь (13.95) где 1F1(a; c;*[z) — конфлуэнтная гипергеометрическая функция, определяемая рядом2) оо ,F,(а; г; г) = 2 7^4 = 1 + Т-И + °(‘°+,)« + ('З.Эбу г=0 Используя]равенство (13.35), мы получаем, что при — v — 1 >0 х Р? л?п/2 ^mk (^i) fe—V X 2m!r[l-(m+*-v)/2]Q^-J 2 m + 1. (13 97) - Q1) См. Ватсон (I, § 13.3) или Магнус и Оберхеттингер (I, гл. 3, § 7). 2) См. Уиттекер и Ватсон (I, гл. XVI) или Магнус и Оберхеттингер (I, гл. VI, § 1). Удобные таблицы и графики конфлуэнтной гипергеометри- ческой функции содержатся в работе Миддльтона и Джонсона (I). Некото- рые графики, использующие символ М (а, у, х), имеются также у Янке и Эмде (I, гл. X). ,. '
13.6. Детекторы v-й степени 357 Можно, однако, показать, что при фиксированных т и k функ- ция hmk (fJ/Г (v -F 1), определяемая равенством (13.92), является однозначной аналитической функцией от v в любой ограниченной области. Правая часть равенства (13.97), будучи разделена на p^v-pl), также дает однозначную аналитическую функцию от v в любой ограниченной области; поэтому, используя теорию анали- тического продолжения, мы можем распространить соотношение (13.97) для Awfe(^) на все значения v и таким образом обойти ограничение tnA-k — v — 1>0. Следует отметить, что, поскольку [ Г (— п)\ = оо прим = 0, 1,2,..., коэффициент (/£) обращается в нуль всякий раз, когда т k — v есть четное целое положительное число. Сигнал и шум ла выходе. Впредь в настоящем параграфе мы будем предполагать, что воздействие на детектор v-й степени является суммой амплитудно-модулированного синусоидального сигнала и стационарного узкополосного гауссовского шума, спектр которого сосредоточен в полосе частот около несущей частоты сигнала. Предположим временно, что входной синусоидальный сигнал не модулирован; тогда среднее значение т0 сигнала на выходе детектора,. согласно (13.56), равно /н0=[Аоо(^)]р.=р, (13.98) г где для однополупериодного детектора v-й степени, согласно (13.97), ; 1; -§)• (13.99) Если теперь медленно менять амплитуду синусоидального сиг- нала, то среднее . значение сигнала на выходе также будет медленно меняться. Определим выходной сигнал как изменение среднего значения сигнала на выходе по отношению к его среднему значению в отсутствие модулирующего сигнала на входе1), т. е. s0 &) = Аоо (Ч) - [Лоо &)]р.=0- (13-10°) Применительно к однополупериодному детектору v-й степени это равенство принимает вид 1; -З)-1]- <13J01> г(т+‘> 2 ' *) Как4 именно нужно определять выходной сигнал, сильно зависит от назначения устройства. Введениее нами определение полезно для после- дующего анализа.'
358 Гл. 13. Нелинейные системы; метод преобразований Мощность выходного сигнала определяется как среднее значе- ние квадрата самого сигнала: so (Ч) = Е ({й00 ~ [Лоо &)]р.=0}2Ь (13.102) причем эта величина постоянна, если модуляция стационарна. Таким образом, мощность сигнала на выходе однополупериодного детектора v-й степени равна Т; 1; д2Г2(у-|-1) q2v Pl 2 g2 2 (13.103) Далее, (МХ’У)-составляющая корреляционной функции на выходе детектора, согласно (13.88), равна &>( NXN) /2) = 2 Tk V Е <13-104) ±2 (40 2^ (по четным fc) ' где, согласно (13.97), для однополупериодного детектора v-й степени Лоь&) = (13.105) Соответствующая мощность шума на выходе находится из ра- венства (13.104), если положить ^2 = /х 5 No(NXN')^i)= ? _ aT-lv + Da2’ у 2 ; 1; 2а-]} (13 106) 2 <13Л06> (по четным fc) v z У L 2 J ибо 2?v (Q) = /?п (0) = °2- Благодаря множителю Г ( 1 — , слагаемые в (13.104) и (13.106), соответствующие k > v, при четном v обращаются в нуль. Наконец, (ЗХХ)-составляющая корреляционной функции отклика детектора, согласно (13.89), равна р (f f \ V V £ 1лтй (<1) (^)l Ry (Т) ,«о1П7ч S3 рф7фр.'(13Л07) (по четным m+k) К Z К /
13.6. Детекторы v-й степени 359 где значения hmk (Q для однополупериодного детектора v-й сте- пени задаются равенством (13.97). Соответствующая мощность шума на выходе равна ^Г2(у+1)о2у х No (SXN) (h) —---л 4 4 (по четным m+k) Ч z / Ч & у Ч z у (13.108) Множитель Г[1 —(tn + k — v)/2] приводит к тому, что при целом четном v слагаемые в (13.107) и (13.108), для которых обращаются в нуль. Полная мощность шума на выходе детектора равна сумме мощностей (13.106) и (13.108). Небезынтересно отметить, что, как следует из этих выражений, полная мощность шума на выходе детектора не зависит от формы спектра шума на входе1). Этот факт является, конечно, следствием принятых допущений об узкополосном характере шума и выходном фильтре. Малое отношение сигнал/шум на входе. Полученные выраже- ния для мощностей сигнала и шума на выходе являются весьма сложными функциями мощностей сигнала и шума на входе. Существенно более простые результаты могут быть получены для очень малых и очень больших отношений сигнал/шум на входе: (13-109> Если отношение сигнал/шум очень мало, то удобно разложить конфлуэнтную гипергеометрическую функцию в ряд вида (13.96) Таким путем мы получаем из равенства (13.103), что с №(v+l)a2v £(Р|) Г S р /131101 2V+2r^-|y wirL>(Zi) J • (13Л10) Следовательно, при малом отношении сигнал/шум на входе детектора v-й степени мощность сигнала на выходе его изменяется пропорционально квадрату этого отношения. (Л/ХЛ/усоставляющая мощности шума на выходе равна, согласно (13.106), No (N N) (*i) = a«r2(v4-l)G2v 2v+2 (по четным k) 2 ) (13.111) I *) Миддльтон (II, § 3).
360 Гл. 13. Нелинейные системы', метод преобразований т. е. не зависит от отношения сигнал/шум на входе. Наконец, (ЗХМ)-составляющая мощности шума на выходе находится под- становкой (13.96) в (13.108): А''о (sxn) {it) __ a2r2(v + l)a2v _ 2v+‘ (по четным m+k) При малом отношении сигнал/шум на входе доминирующими в последнем выражении являются слагаемые, соответствующие tn = 1. Следовательно, приближенно No(SXN) (О = о2Г2(у+1) q2v FS, •. 1 1____________ ,.о 119ч 2-+> ( ’ 1 (по нечетйым k) Сравнивая формулы (13.111) и (13.112), мы видим, что при малом отношении сигнал/шум на входе шум на выходе обусловлен в пер- вую очередь (АЖУ)-составляющей. Комбинируя, приведенные выше выражения, мы находим, что отношение сигнал/шум на выходе равно 4^)о=ск/’(Л)] Г при 4(^)/ «(13-113> где постоянная C[v, р(Л)] = _ 1 ” r,G) ! (13.114) /72 / П?\ 00 V 7 ( ’ 2 fc==2 (по четным k) является функцией только v и распределения вероятностей про- цесса, модулирующего входной сигнал. То же самое выражение имеет место для двухполупериодного детектора v-й степени; таким образом, отношение сигнал/шум на выходе детектора v-й степени при малых отношениях сигнал/шум на входе и всех зна- чениях v пропорционально квадрату отношения сигнал/шум на входе. Это и есть эффект подавления «малого сигнала».
13.6. Детекторы v-й степени 361 Большое отношение сигнал/шум на входе. При большом отно- шении сигнал/шум на входе удобно разложить конфлуэнтную гипергеометрическую функцию в асимптотический ряд1): Р (г,- г- _ - г (с) V (а)г(а-с-Н)г = iri\a’ С’ Г(с—a)z“ ZJ . г!г' г=0 = Г<с) Г 1 1 а(а~с + !) , Г (с—а) г!1 L "Г z "г , а(а+1) (а—с+1) (а—с-г2) , Т 222 ’Г ' (13.115) Подставляя (13.115) в (13.103), получаем V4r4(yj2v-2 Е (pi) L J Приближенное равенство для (/УХА))-составляющей мощности шума на выходе находим, подставляя (13.115) в (13.106) и выде- ляя доминирующее слагаемое: No(nxn') (it) _ а2Г2 (v-j—1) <T2v E[P^V 2)] r s -]V-2 ~ r4<2.>2v+2 E(v~2)(Pb <- ( (13.117) Аналогично (£ХМ)-составляющую мощности шума на выходе нахо- дим, подставляя (13.115) в (13.108) и опять выделяя доминирую- щее слагаемое: д/ /П_ a2r2(v + l)o2v E[Pi(V °] Г S . -jv-i No (SXN) (ti) - £(V-1) (p2} L N J • (13.118) Сравнивая выражения (13.117) и (13.118), мы видим, что при больших отношениях сигнал/шум на входе шум на выходе обус- ловлен в первую очередь (ЗХ.¥)-составляющей. Комбинируя полученные выше результаты, мы находим выра- жение для отношения сигнал/шум на выходе: 4 (Oo=^[v,р<р£)] п₽и 4(^» L <13-119* где постоянная 9 £(P?V) М», Р(Л)1 = ^£,„2,у+2 (13.120) п п \ri ) ’) Магнус и Оберхеттингер (I, гл. VI, § 1).
362 Гл. 13. Нелинейные системы; метод преобразований является функцией только v и распределения вероятностей про- цесса, модулирующего входной сигнал. Таким образом, отноше- ние сигнал/шум на выходе детектора v-й степени при больших отношениях сигнал/шум на входе его для всех значений v прямо пропорционально отношению сигнал/шум на входе. Итак, все детекторы v-й степени ведут себя в основном так же, как и двух- полупериодный квадратичный детектор при тех же отношениях сигнал/шум. 13.7. Задачи 1. Непосредственным вычислением контурного интеграла1) показать, что е-Н'°° _L С Г«г(у+Ч1 exa,dw=\ ах при х>0’ 2л/ J L wv+‘ J (о прих^О, е—joo г (13.121) где е > 0, а—действительное число, a v—действительное неотрицательное число. 2. Пусть воздействие на нелинейное устройство имеет вид x(/)=s(04-n(/), (13.122) где s(t) и n(t) — выборочные функции независимых действительных гауссовских процессов с нулевыми математическими ожиданиями и с дисперсиями, равными соответственно о2 (st) и о2(п/). Показать, что корреляционная функция отклика устройства может быть представлена в виде оо оо Ry (G. £ l>lhm (У (<2)1 Rks (<i, (G. <2). (13.123) /г=0 m—0 где коэффициенты hkm(ti) равны (13.124) и где f (до)—.переходная функция нелинейного устройствам о| = о2 ($i)+a2(ni). 3. Пусть нелинейным устройством, указанным в задаче 2, является идеаль- ный ограничитель с характеристикой а при х>0, g (х)—\ 0 при х = 0, (13.125) — а при х < 0. Показать, что при этом коэффициенты, упомянутые в задаче 2, принимают вид ( ^J-m_n/2 2(fe+m>/2 H(ft+m)/2l fyvm (^i) = (—l)<fe+m J)/2 — при нечетном k4-m, V ' no£+m (13.126) 0 при четном k-\-m. х) Ср. Уиттекер и Ватсон (I. § 12.22).
13.7. Задачи 363 4. Воздействие на нелинейное устройство имеет вид х (/) = COS (р^ + 0) + ^ COS (^ + ф), (13.127) где —р | р, 0 и <р — независимые случайные величины, каждая из которых равномерно распределена в интервале (0, 2л), и где А — постоянная. Показать, что корреляционная функция отклика устройства может быть представлена в виде оо оо Ry(x)= 2 S &m^khmk cos tnpx cos kqx\ (13.128) 771=0 fc=0 здесь 8m и gfc—числа Неймана, а коэффициент hmk равен hmk = ~^T S f^^WI^wAydw, (13.129) c где /(до)— переходная функция нелинейного устройства, a Im(z)—модифици- рованная функция Бесселя первого рода. 5. Пусть нелинейным устройством, указанным в задаче 4, является идеаль- ный ограничитель с характеристикой (13.125). Показать, что при этом коэф- фициент hmk в задаче 4 принимает вид hmk — тпЦ-fe—1 (-1) 2 «Г „ /" m+k m—k . . 1 \ H-fe \ 2fl С 2 ’ 2 ’ ОТ+1; А2 ) 2 ' лЛтг(1 + -Ц^-^ ml при нечетном m-\-k и А > 1; (13.130) при нечетном m-\-k и 4 = 1; m-f-k—1 ( —1) 2 2 nrQ+^^-'^kl при нечетном m~}~k и А < 1; О при четном где 2^1 (а, 6; с; ?) — ги пер геометрическая функция1). 6. Пусть за нелинейным устройством, указанным в задачах 4 и 5, следует идеальный полосовой фильтр, настроенный на частоту р/2л и образующий совместно с нелинейным устройством идеальный полосовой ограничитель. Показать, что отклик фильтра z(t) имеет корреляционную функцию 2а2 Г 1 1 1 pr4-4cos (2?—р) т J (13.131) х) Ср. Магнус и Оберхеттингер (I, гл. II) или Уиттекер и Ватсон (I, гл. XIV).
364 Гл. 13. Нелинейные системы; метод преобразований при А > 1 и 2д2 Я2(т) = —— [4 cos рх-±- A2 cos qx-\-A2 cos (2p — q) т] (13.132) при А < 1. 7. Вывести равенства (13.90) и (13.91). 8. Пусть воздействие на однополупериодный линейный детектор является суммой немодулированного синусоидального сигнала и узкополосного действи- тельного гауссовского шума. Показать, что математическое ожидание отклика детектора приблизительно равно I V 2л то = \ аР I л Р2 при -у<ап» Р2 ' при (13.133) где а —масштабный множитель, Р — амплитуда синусоидального сигнала и —дисперсия шума. 9. Показать, что применительно к детектору и воздействию на него, ука- занным в задаче 8, мощность шума на выходе может быть с' дрстаточным приближением представлена в виде1) No 8л Р2 2а2 (13.134) 10. Пусть воздействие на двухполупериодное (нечетное) 2) устройство v-й степени является суммой амплитудно-модулированного синусоидального сигнала и стационарного узкополосного действительного гауссовского шума. Показать, что корреляционная функция отклика устройства равна • О1,У=2 2 ^£1^(<1)АтИУ1^(т)с<>5»ст, (13.135) тп=0 /г=0 (по нечетным m+k) где 8т — множитель Неймана, Rn(x)— корреляционная функция шума на входе, /с=(ос/2л — несущая частота сигнала, а коэффициенты hmk(t[) опре- деляются равенством (13.92) и, следовательно, равенством (13.97). И. Пусть за двухполупёриодным (нечетным) устройством л-й степени, упомянутым в задаче 10, следует идеальный полосовой фильтр, настроенный на частоту fc и образующий совместно с нелинейным устройством нелинейный усилитель v-й степени. Показать, что 3) 4 (Мо=С' (V) [£ (Mr] при -yVi < 1. (13.136) где постоянная С' (v) равна С' (v)=----------------------—-------------------------- (13.137) *) Ср. Райс (I, § 4.10). 2) Ср. § 13.2. 3) Ср. § 13.6.
13.7. Задачи 365 и, следовательно, отношение сигнал/шум на выходе нелинейного усилителя v-й степени при малом отношении сигнал/шум на входе и всех значениях v прямо пропорционально этому отношению. 4 12. Показать, что для нелинейного усилителя v-й степени, упомянутого в задаче И, 4(*i)o=K'[v>P(pi)] при 1. (13.138) где постоянная К' [v, p(Pi)] равна * 2 Е (Р?) К' [V. Р(Л)]=ТТ~г ----2-- 2v 2 ’ (13.139) 1-I-V2 Е (Р2) E(P?V~2) и, следовательно, отношение сигнал/шум на выходе нелинейного усилителя v-й степени при большом отношении сигнал/шум на входе и всех значениях v прямо пропорционально этому отношению. 13. Нелинейный усилитель v-й степени, упомянутый в задачах 11 и 12, при v = 0 превращается в идеальный полосовой ограничитель. На вход идеаль- ного полосового ограничителя подается сумма немодулированного синусоидаль- ного сигнала и стационарного узкополосного действительного гауссовского шума. Показать, что х) (4),=4(4), (4),«‘ И (4).=<4), - (4),»ь ,13'14'’ где (S/N)o и (S/N)j — отношения сигнал/шум соответственно на выходе и входе. 14. Показать, что последовательное соединение /V идеальных полосовых ограничителей эквивалентно одному идеальному полосовому ограничителю. х) Ср. Давенпорт (I).
Глава 14 СТАТИСТИЧЕСКОЕ ОБНАРУЖЕНИЕ СИГНАЛОВ В радиосвязи и радиолокации сигнал, предназначенный для пересылки сведений потребителю, в процессе передачи, прежде чем стать доступным на приемном конце, всегда частично маски- руется и искажается. Некоторые из этих искажений обусловлены естественными причинами, которые не могут быть устранены. Так, например, ни в каком приемном устройстве не может быть устра- нен тепловой шум; при радиолокационном наблюдении объектов в океане нельзя устранить отражения от волнующейся поверхно- сти моря; в линиях дальней радиосвязи при некоторых условиях невозможно устранить искажения формы сигнала, обусловленные распространением радиоволн различными путями. Поэтому даже при самом тщательном конструктивном выполнении всех элемен- тов системы радиосвязи или системы радиолокации с целью свести к минимуму влияние помех остаются некоторые искажения, кото- рые могут лишить потребителя по крайней мере части сведений, содержащихся в сигнале. Естественно возникает вопрос о том, как нужно поступать с принятым сигналом для того, чтобы извлечь из него настолько много информации, насколько это возможно. Если сигнал неиз- вестным образом искажается каким-либо агентом, действующим с некоторой статистической регулярностью, как это, например, имеет место в случаях, упомянутых выше, то при решении задачи о способах обработки сигнала на приемном конце целесообразно применить статистические методы. Настоящая глава посвящена предварительному изучению статистических методов обработки полученных сигналов. Здесь вводятся некоторые статистические приемы, которые затем применяются к нескольким типичным примерам из радиосвязи и радиолокации, не делается никаких попыток рассмотреть здесь практические, технические аспекты этих проблем радиосвязи и радиолокации; не делается также попытки систематически перечислить все те задачи, для которых есть практически удовлетворительные решения. Имеются некото- рые связи между задачами построения оптимального приемника и выбора оптимальной формы сигнала; однако вторую из этих задач мы не будем рассматривать вовсе. Рассматриваемые здесь вопросы построения оптимальных систем тесно связаны также
14.1. Применение статистических понятий 367 62 с вопросами, изученными в гл. 11. При изложении материала настоящей главы мы используем некоторые идеи и результаты двух разделов математической статистики: теории различения гипотез и теории оценки параметров. Они рассматриваются по необходимости очень кратко в §§ 14.2, 14.3 и 14.4. 14.1. Применение статистических понятий в вопросах радиосвязи и радиолокации Применимость статистики к вопросам конструирования радио- приемных устройств систем радиосвязи и радиолокации мы про- иллюстрируем двумя примерами. В качестве первого примера рассмотрим систему «телетайп» быстродействующей телеграфной радиосвязи, работающей, скажем, с частотной манипуляцией на частотах 5 и 15 мггц на расстоянии 2 — 4 тыс. миль. Алфа- вит системы «телетайп» содержит два символа, называемые посылкой (JA) и паузой (S). Каждая буква английского алфавита кодируется в виде последовательности пяти посылок и пауз; например A = MMSSS. При работе телетайпа каждая посылка и пауза имеют фиксированную длительность Т секунд. В системе с частотной манипуляцией посылка передается в виде сигнала несущей частоты f0 и длительности Т секунд, а пауза—в виде сигнала несколько иной несущей частоты и той же длитель- ности Т секунд. Таким образом, буква английского алфавита передается в виде сигнала s (/) = A cos [cd (01 + ср (0], t > 0, (14.1) где co(0 = 2rtf(ft) при (£-1)Т</<£Т, £=1,2, 3,4, 5, cp(O = q>(fe) при (£-1)Т <t^kT и где есть в зависимости от сообщения f0 или f19. a cp(fe) — фиксированный фазовый угол % при = и срх при = При указанных выше частотах и дальностях связи будут моменты, когда распространение радиоволн от передатчика к прием- нику происходит по нескольким траекториям. Радиоволны, рас- пространяющиеся по различным траекториям, пробегают путь от передатчика до приемника за различное время и испытывают неодинаковое затухание, причем времена запаздывания при рас- пространении и величины затухания меняются во времени. В радиоприемном устройстве к этому добавляются собственный шум антенны и тепловой и дробовой шумы. Предположим, что зд время передачи сообщения времена запаздывания не меняются, и будем также пренебрегать другими возмущающими факторами, как-то зависимостью постоянных распространения от частоты
368 Гл. 14. Статистическое обнаружение сигналов и небольшими допплеровыми изменениями частот. Тогда при передаче сигнала s(^) принятый сигнал описывается функцией У (О = «1 (0s(t- тх) + а2(/)s(/-т2) + ... 4-ак(0s(t-тЛ) + п(I), (14.2) где п (/) — стационарный гауссовский шум. Времена запаздывания тх, ...,Tn и затухания при распространении ах(/), . точ- но не известны; мы можем лишь обладать или не обладать не- которой информацией о них. Более того, даже количество N раз- личных траекторий распространения может не быть известным. Задача радиоприемного устройства состоит в том, чтобы для каждого интервала времени (k — 1)Т < t ^kT ответить на вопрос, передана ли в этот интервал времени посылка или пауза, т. е. частота fQ или Это и есть задача статистического решения; должна быть истинной одна из двух альтернативных гипотез: частота может быть равна или /0 или f±. Выбор между этими гипотезами должен быть основан на неполных наблюдениях при наличии лишь статистических сведений о n(t) и даже, быть может, отсутствии каких бы то ни было сведений об a^t) и Даже не изучая проблему детально, можно сделать следую- щие замечания. Если наибольшая разность между временами запаздывания xL мала по сравнению с Т, а аг(/) не сильно меняются в промежутке времени Т, то, за исключением разве небольшой интерференции с предыдущим символом в начале каждого последующего символа, эффект различия времен запаз- дывания сводится к суммированию синусоидальных сигналов с одинаковыми частотами, но разными фазами. Поскольку на приемном конце нужно измерять лишь частоту, добавление синусои- дальных сигналов той же частоты не приводит к значительным искажениям формы сигнала,, и по существу единственным источ- ником ошибок служит аддитивный шум. Однако различные синусоидальные волны могут при некоторых значениях аг (t) сло- житься таким образом, что они взаимно уничтожатся (фединг); при этом энергия сигнала в приемнике оказывается очень малой и шум п (/) полностью маскирует сигнал. В этом слу- чае оптимизация схемы приемника приносит мало пользы: если сигнал на входе приемника отсутствует, то никакие ухищре- ния в конструкции приемника не способны его восстановить. С другой стороны, при уменьшении Т (приводящем к увеличению скорости, с которой могут посылаться сообщения) до значений, при которых разности между становятся сравнимыми с Т или превосходят его, к возможному эффекту пропадания сигнала добав- ляется смазывание его на протяжении интервала наблюдения. При этом в приемнике обычно одновременно присутствуют компо- ненты с частотами, соответствующими- как посылке, так и паузе.
14.1. Применение статистических понятий 369 В такой ситуации, если доступна какая-либо информация об аг (t) и Ti, приемник с оптимальной в соответствии с подходящими ста- тистическими критериями конструкцией в среднем работает гораздо лучше, чем приемник, не являющийся оптимальным. С одним приемником мало что можно сделать для борьбы с федингом, обусловленным распространением радиоволн по раз- личным траекториям; тем не менее некоторые возможности про- тиводействия федингу известны. Одной из таких возможностей является одновременная работа на двух несущих частотах, т. е. использование так называемого разноса по частоте. При этом сочетание длин траекторий распространения, вызвавшее пропадание сигнала на волне одной длины, скорее всего не приведет к тому же самому на волне другой длины. Такое построение линии связи требует применения двух приемников, и решение находится сопо- ставлением данных, полученных от обоих приемников. При этом возникает статистическая задача о том, с какими весами должна быть использована информация, поступающая от каждого из прием- ников. Фиг. 14.1. Сигнал, излучаемый импульсным радиолока- тором. В качестве второго примера рассмотрим импульсную радио- локационную систему, работающую остронаправленным лучом и предназначенную для обнаружения кораблей в море. Несущая частота составляет, скажем, несколько тысяч мегагерц, а длитель- ность импульсов — несколько микросекунд. Если модулирующий сигнал А (/) — периодическая последовательность импульсов, изо- браженная на фиг. 14.1, то сигнал, излучаемый передающим устрой- ством, мйжет быть представлен в виде s (/) = 4'(/)Jcos (йсЛ Сигнал, излучаемый в некотором фиксированном направлении, возрастает до максимума, когда вращающаяся антенна поворачи- вается в этом направлении, и затем, при дальнейшем вращении антенны, падает до нуля. Это приводит ко второй, относительно медленной модуляции сигнала. Пусть G (t) — уровень (напряжение) сигнала в некотором фиксированном направлении при движении антенны; тогда сигнал, излучаемый антенной в этом направлении, 24 Заказ № 57
370 Гл. 14. Статистическое обнаружение сигналов имеет вид G(OA(/)cos(ocZ. Если излученная энергия отражается от неподвижного объекта, находящегося на расстоянии г от передатчика, и принимается той же антенной, то эхо-сигнал, принимаемый радиолокатором, равен где с — скорость распространения, a a (/) пропорционально отноше- нию напряженностей поля в падающем и отраженном сигналах в момент времени t. Если отражающий объект движется в радиаль- ном направлении с постоянной скоростью vf то возникает доппле- рово смещение частотного спектра сигнала, которое, в силу узко- полосного характера модуляции, может быть приближенно учтено заменой сос на фс 1 — -у-) . С учетом собственного шума прием- ника n(t) принятый сигнал оказывается Приближенно равным (14.3) где 2г т = , с 2v --- Если в то же самое время импульсы радиолокатора облучают другие отражающие объекты или имеется волнение на море, то одновременно с сигналом, отраженным от основного объекта и описываемым выражением (14.3), на вход приемного устройства поступают и другие сигналы той же формы, что и первое слагае- мое в (14.3). Волнение на море приводит к суперпозиции очень большого числа таких слагаемых, каждое из которых имеет отно- сительно малую амплитуду. Обычное назначение радиолокатора состоит в том, чтобы кон- статировать присутствие объекта и определить его положение по дальности и азимуту. Данными, имеющимися в приемном уст- ♦ ройстве, являются сигналы, частично искаженные случайным шумом и, быть может, отражениями от волнующегося моря, которые также являются случайными. Таким образом, решение должно быть принято на основе статистических данных; и если принято решение о наличии объекта, то дальность до него и азимут должны быть оценены также на основе статистических данных. Встает вопрос о том, как наилучшим образом использовать информацию о статистической природе шума и морского волнения, а также
14.1. Применение статистических понятий 371 о структуре сигнала с тем, чтобы сделать обнаружение объекта и определение его местоположения по возможности уверенно и точно. Конечно, в радиосвязи и радиолокации мы сталкиваемся с самыми различными сигналами и самыми различными видами случайных возмущений их. Общим для всех случаев является, однако, нали- чие дополнительного гауссовского шума, обусловленного тепловыми явлениями. Так как часто только аддитивный гауссовский шум является заметной случайной помехой, то значительное внимание было уделено решению задачи об обнаружении и выделении полез- ного сигнала для случая, когда принятым сигналом является сумма переданного сигнала (или кратной ему величины) и гауссовского шума. Вообще говоря, наличие каких-либо случайных искажений, отличных от аддитивного гауссовского шума, очень усложняет задачу. Иногда бывает, что сигнал в приемнике совершенно искажен, «перепутан», например, из-за распространения по нескольким траек- ториям, но тем не менее достаточно силен, чтобы можно было не принимать во внимание тепловой шум. В таких случаях задача приема сигнала может быть по существу дела задачей статисти- ческой, но может и не быть ею. Пусть, например, при дальней быстродействующей телеграфной радиосвязи с частотной манипуля- цией мы идеализируем ситуацию, предположив, что гауссовский шум отсутствует, но условия распространения таковы, что при- нятый сигнал мог возникнуть только из одного из двух возможных передаваемых сигналов. При этом никакой неопределенности в реше- нии вопроса о том, передана ли посылка или пауза, не возникает. Возможная неопределенность на приемном конце линии связи, работающей алфавитом, состоящим из двух букв, символически изображена на фиг. 14.2. Диаграмма 14.2,а показывает, что пере- даваемый сигнал s0 преобразуется в принятый сигнал z/0, а сигнал si"~B У г Таким образом, хотя yQ и у± отличаются от s0 и sx, они фиксированы и различны, и если мы на приемном конце имеем достаточно сведений о среде, в которой ведется передача, т. е. о канале связи, то при приеме не возникает никакой неопре- деленности. В общем случае, если имеется фиксированное взаимно однозначное преобразование, переводящее передаваемые сигналы в принятые, то на приемном конце всегда можно точно установить, что именно было передано. На фиг. 14.2,6 изображена ситуация, при которой оба передаваемых сигнала претерпевают случайные искажения, так что каждому из сигналов s0 и sx соответствует целое множество возможных принятых сигналов, но оба эти множества не имеют общих элементов. При этом на приемном конце также возможно установить наверняка, какой именно сигнал был передан. Проблему статистического различения между s0 и 8Х называют в этих слу таях сингулярной, поскольку здесь всегда 24*
372 Гл. 14. Статистическое обнаружение сигналов может быть принято правильное решение. В случае, изображенном на фиг. 14.2,в, некоторая часть возможных на приемном конце сигналов, а в случае, изображенном на фиг. 14.2, г,— все воз- можные сигналы могут возникнуть как из s0, так и из sv Всегда Область возможных значений сигналов, при- нимаемых при передаче Фиг. 14.2. Различные ситуации в приемном устройстве. в этом последнем случае и иногда в предыдущем для того, чтобы определить на приемном конце после приема сигнала, был ли пере- дан сигнал s0 или sb нужно принять нетривиальное решение. 14.2. Проверка статистических гипотез1) Настоящий и два последующих параграфа посвящены некоторым основным статистическим принципам и процедурам; при этом лишь бегло упоминаются их применения в радиосвязи и радиолокации. х) Статистические методы изучения задач обнаружения и выделения сигна- лов могут быть унифицированы и обобщены, если применить теорию статисти- ческих решений, связанную с именем Вальда. См. Миддльтон и Ван Метер (I).
14.2. Проверка статистических гипотез 373 Эти принципы и процедуры, конечно, не могут здесь быть рас- смотрены детально1). Начнем с рассмотрения задачи проверки двух альтернативных статистических гипотез, что представляет собой простейший случай проверки гипотез2). Итак, будем рассматривать следующую ситуацию. Наблюдается событие, которое может быть порождено одной из двух взаимно исключающих друг друга причин или которое сопутствует одному из двух взаимно исключающих друг друга явлений природы. Гипотеза о том, что событие обусловлено первой из двух причин, обозначается через Яо, а гипотеза о том, что событие обусловлено второй причиной, - через Hv Требуется установить подходящее правило для выбора между гипотезами HQ или Н1у т. е. для решения вопроса о том, которая из двух причин наблюдаемого события в каком-то смысле более правдоподобна. Правило, по которому отыскивается решение, должно быть установлено до наблюдения события. Очевидно, что для формулировки такого правила необходимо иметь некото- рые сведения о причинах событий и связях причин с событиями, которые могут происходить. В теории статистических решений эти сведения задаются в форме указания распределений вероят- ностей. Чтобы быть более точными, определим пространство Y всех возможных значений наблюдаемой величины (или величин), зави- сящей от двух взаимно исключающих друг друга причин Со и Clt одна из которых должна иметь место в действительности. Мы предполагаем, что если имеет место Со, то на Y задан известный вероятностный закон Ро, определяющий вероятность того, что наблюдаемая величина принимает любое значение из фиксирован- ного множества. Аналогично, мы предполагаем, что причине С\ соответствует другой известный вероятностный закон Р19 задан- ный на Y. Пусть, далее, эти распределения вероятностей обладают плотностями распределения соответственно pQ(y) и р-^у), где у — точки пространства Y. Мы будем также иногда предполагать, что известны вероятности л0 и где ^-4-^=1, появления причин Со и Сг Задача состоит в установлении разумного правила для решения вопроса о выборе между Но и НГ Это означает, что пространство Y надо разделить на две части так, чтобы для всякого результата наблюдения у можно было бы сказать, какую из причин, Со или Сх, мы считаем действительно имеющей место. ]) Изложение общих основ статистики читатель найдет у Муда (I), особенно существенны главы, посвященные проверке гипотез и оценкам. 2) Подробное изложение теории проверки гипотез, сделанное на более высоком уровне, чем в книге Муда, дано Леманом (I). По этому вопросу опубликовано много работ. В частности, интересны некоторые из ранних работ Неймана и Пирсона, которые внесли большой вклад в развитие вопроса. См., например, Нейман и Пирсон (I и II).
374 Гл. 14. Статистическое обнаружение сигналов Байесовское решение—апостериорная вероятность. Рассмотрим сформулированную выше задачу при известных вероятностях л0 и для Со и Cv Эти вероятности обычно называются априор- ными вероятностями. Если М — некоторое множество значений у, то, согласно закону Байеса, условные вероятности Со и Сг при заданном М равны Р(Л1) Р(С1|Л)='»1 (14.4а) (14.46) Взяв в качестве М совокупность значений y<^<y-\~dy и исполь- зуя введенные выше обозначения, получаем, что отношение услов- ных вероятностей равно р (Ср I У) — Ро (у) Яр Р (Ci | у) Pi (у) Л1 ‘ (14.5) Вероятности Р (Со | у) и Р (Сх] у) иногда называются апостериорными вероятностями событий Со и Сг. Очень разумным правилом для при- нятия решения во многих примерах является следующее правило: после того как сделано наблюдение у, следует выбрать гипотезу Но, если условная вероятность Р(С0\у) превышает Р(С1\у); сле- дует выбрать Hlt если Р(Сг\у) превышает Р(С0\у~), и следует выбрать любую из них, скажем Hlt если условные вероятности равны. Иными словами, следует выбрать гипотезу Но, если , (14.6) Pi\У) ло следует выбрать гипотезу Hv если или р0 (у) = pJy) = 0. Pi {У) яо Если нет различия в важности между обоими родами ошибок, т. е. между выбором HQi когда на самом деле имеет место Н19 и выбором Н19 когда на самом деле имеет место HQ, то, придер- живаясь этого правила, наблюдатель, обрабатывающий длинную последовательность повторных независимых наблюдений, может быть уверен в том, что вред, причиняемый неверными заключе- ниями, окажется минимальным. Если ошибки обоих родов неодинаковы по важности, то пред- ставляется целесообразным ввести критерий, связанный с пред- почтением ошибок одного из родов, и для этого умножить поро- говое значение лх/л;0 на некоторую постоянную, отличную от еди- ницы. О том, как это сделать точно, мы скажем более ясно при рассмотрении той же задачи с несколько иной точки зрения в следующем параграфе.
14.2. Проверка статистических гипотез 375 После того как решение принято, возможна одна из следующих четырех ситуаций: 1) правильной является гипотеза Но и решение принято, что верна Яо; 2) правильной является HQ, а решение принято, что верна Нг\ 3) правильной является Н19 а решение принято, что верна Яо; 4) правильной является Нг и принято реше- ние, что верна НГ Каждая из этих ситуаций соответствует полу- чению наблюдателем дополнительно к имевшимся у него знаниям некоторого количества истинной или ложной информации. Пред- положим, что мы можем связать с каждой из указанных ситуаций некоторую численную величину выигрыша или потери. Мы можем также говорить только о потерях, подразумевая, что отрицательная потеря —это выигрыш. Итак, свяжем с каждой из четырех пере- численных выше ситуаций значение потери, обозначив их соответ- ственно через Loo, Lol, L10 и Lu. Общие ожидаемые потери для наблюдателя будут тогда равны среднему от этих четырех величин, взвешенных в соответствии с вероятностью появления каждой из них. Иными словами, L = Е (потерь) = 3 LjkP (правильна Н, и выбрана Hk). (14.7) j=o, 1 fc=0,l Фигурирующие здесь вероятности зависят от принятого решающего правила. Обозначим через Yo совокупность точек у из У, такую, что если результат наблюдения есть у, то мы выбираем Яо, и через Yt остальную часть У, в которой мы выбираем Нг. Тогда равенство (14.7) принимает вид Ь = Е (потерь) = S (14.8) i=0,l fe=o,i где (Yk) — вероятность того, что у попадает в область Yki если гипотеза является истинной. Требуется выбрать Уо (и, значит, Y X = Y — Уо) так, чтобы потери были наименьшими. Для решения этой задачи наложим на значения потерь Ljh одно совершенно естественное ограничение: предположим, что, какая бы гипотеза ни была правильной, ложное решение приводит к большим потерям, чем правильное. Тогда L<H > ^00 > Liq > Ln. (14.9) Используя тот факт, что Л(^)=5 Pi(y)dy Yh
376 Г л. 14. Статистическое обнаружение сигналов получаем из (14.8), что L = 4“ £цЛ14" [ ло (^oi ^оо) Ро (f/) + Л1 (Alo Ln) рх (у)] dy. (14.10) Первые два слагаемых в (14.10) постоянны и потому не зависят от выбора Уо; поэтому для обеспечения минимума L область Уо должна выбираться так, чтобы интеграл в (14.10) был минимален. Сделать это нетрудно, ибо первое слагаемое в подинтегральном выражении всегда <0, а второе слагаемое всегда >0; поэтому достаточно выбрать за Уо совокупность тех точек, в которых первое слагаемое подинтегральной функции по абсолютной величине боль- ше, чем второе. Таким образом, Уо состоит из тех точек у, в которых Ро (у) > Л1 (Мо Ьц) (14 J J \ Р1(У) ЛО(ЬО1 — Loo)’ V ’ 7 К Ух относится остальная часть У, включая и те точки у, в ко- торых р0(у) = Р1(у) = 0- При Lio — Ln = LQ1 — Lqq принятое правило сводится к тому, которое задается неравенством (14.6). Если L10 —= Ли— Лю, то решение, задаваемое неравенством (14.11), определяет Уо, обеспечивающее наименьшую общую вероятность ошибки. Итак, минимизируя вероятность ошибки, мы приходим к правилу решения, которое идентично следующему правилу: следует выбрать ту из гипотез HQ и Hlf которая обладает боль- шей апостериорной вероятностью. Решение задачи проверки двух гипотез, даваемое неравенством (14.11), мы будем называть байесовским решением. Оно пред- ставляется удовлетворительным в тех случаях, когда оно может быть применено. Однако на практике нередко возникают трудно- сти в задании величин потерь; кроме того, на семантические и практические трудности наталкивается и определение априорных вероятностей. В байесовское решение входят только разности £10 —и L01—Лоо; это позволяет, не ограничивая свободы выбо- ра, всегда полагать Lu = Лоо = 0. Таким образом, необходимо задать значения L10 и Л01, отражающие относительную величину потерь, связанных с ошибками обоих родов. Нетрудно предста- вить себе обстоятельства, при которых это сделать нелегко, ибо все последствия ложных решений того и иного вида могут быть неизвестны. Пусть, например, задача состоит в том, чтобы решить, означает ли эхо-сигнал радиолокатора наличие на море некоторого объекта или нет; при этом значительно более серьез- ной ошибкой явится решение, что объекта нет, когда на самом деле он есть, чем решение о наличии объекта, когда на самом деле его нет. Но редко можно утверждать с уверенностью, что ошибка первого рода в тысячу раз серьезней ошибки второго рода.
14.2. Проверка статистических гипотез 377 Деликатным является и вопрос о смысле априорных вероятностей. Если приписать вероятность л0 гипотезе HQ в том смысле, в ко- тором мы использовали термин вероятность, то нужно будет рас- сматривать Но как событие, т. е. как подмножество выборочного пространства. Решение вопроса о том, окажется ли Но правиль- ной или нет, зависит от исхода случайного опыта. Однако на практике истинность или ложность HQ часто определяется не случайностью, а известными естественными законами или, может быть, волей какого-то индивидуума; и единственной причиной для введения статистических критериев является то, что наблю- датель не знает истинного положения вещей. При таких ’ обсто- ятельствах нельзя представить себе случайный эксперимент^ имеющий возможным исходом гипотезу HQ- Тот, кто вводит априорную вероятность, вводит и кажущуюся случайность, яв- ляющуюся расплатой за его неведение. Так, в примере приема сообщений быстродействующей телеграфной радиосвязи передача посылки или паузы есть результат преднамеренного разумного* выбора, сделанного тем, кто посылает информацию. В этом случае введение определенных априорных вероятностей разных символов можно оправдать лишь тем, что факт передачи в некоторый мо- мент времени некоторого частного сообщения является результатом1 того, что можно рассматривать как случайное стечение обсто- ятельств. Эти краткие замечания показывают, что понятие априорной вероятности не всегда совпадает с обычным определением вероят- ности при помощи приписывания весов подмножествам выборочно- го пространства. С другой стороны, можно утверждать, что субъективные вероятности, характеризующие степень уверенности в наступлении событий, можно совершенно законно использовать в качестве априорных вероятностей1). Однако если даже кто-либо допускает, что имеет смысл постулировать априорные вероятности для гипотез, то он будет, вероятно, вынужден согласиться, что при некоторых обстоятель- ствах затруднительно указать правильные значения л0 и В упомянутом выше примере быстродействующей телеграфной радиосвязи практических трудностей не возникает; если HQ есть гипотеза о том, что переданным сигналом была пауза, то вполне естественно принять в качестве л0 относительную частоту появ- ления пауз в кодированном английском тексте. Иначе, однако,, обстоит дело в задаче о радиолокационном обнаружении объекта; пусть, например, HQ — гипотеза о том, что корабль находится, скажем, на участке площадью 1 км2 на предельной для данного х) Авторы вновь затрагивают здесь сложные проблемы, связанные с обо- снованием понятия вероятности. См. по этому поводу примечание на стр. 15.— Прим. ред.
378 Гл. 14. Статистическое обнаружение сигналов радиолокатора дистанции, а какие-либо дополнительные сведения о движении корабля отсутствуют; при этом определить сколько- нибудь достоверную величину л0, очевидно, затруднительно. Итак, подводя итоги, можем сказать, что байесовское решение, определяемое неравенством (14.11), гарантирует минимум, ожидае- мых потерь для наблюдателя. Нередко возникают трудности с при- менением этого решения, во-первых, из-за трудности в задании проигрышей и, во-вторых, из-за трудности в задании априорных вероятностей. Если потери, связанные с ошибками обоих родов, одинаковы, то процедура сводится к более простому байесовскому критерию (14.6), который минимизирует общую вероятность ошиб- ки или максимизирует апостериорную вероятность правильной гипотезы. Остановимся на этом последнем положении. Есте- ственным поведением наблюдателя является стремление обеспечить минимум ожидаемых потерь, т. е. использовать процедуру, опре- деляемую неравенством (14.11), если имеется достаточно инфор- мации для того, чтобы это было возможно. Если информа- ции недостаточно и невозможно задать частные значения потерь, то естественно (и так обычно и поступают на практике) обеспечить наименьшую вероятность ошибки, т. е. использовать критерий, определяемый неравенством (14.6). Но это означает, что исполь- зуемое решающее правило совпадает с правилом, основанным на уравнивании значений отдельных видов потерь, даже если наблюдатель вводит критерий, вовсе не использующий понятие по- тери. 14.3. Критерии отношения правдоподобия Простые гипотезы. Не вводя в задачу проверки гипотез апри- орных вероятностей, мы не можем вычислить общие ожидаемые потери или вероятность ошибки. В этом случае решающее пра- вило должно основываться на несколько иной идее. Более или менее очевидную основу для выработки решающего правила дает нам так называемый принцип наибольшего правдоподобия, согласно которому мы- заключаем, что на самом деле имеет место та при- чина (или состояние природы), которая с наибольшей вероятно- стью порождает наблюдаемое значение. Иными словами, если Ро(У) > РАУ)* то следует выбрать Яо; если Pi(y)>Po(*/)> следует выбрать Н1 (где опять-таки при р0 (у) = (г/) выбор может быть сделан произвольным образом). То же самое можно сформулиро- вать следующим образом: нужно выбрать в качестве Уо множество значений у, для которых pQ (у) =# 0 и < Ро(У)/Р1(у)> 1- (14.12) Такая формулировка определяет критерий, не основанный на апри- орной вероятности или потерях и дающий те же результаты, что и байесовский критерий с (L1<y — L^) = л0 (L01 — Loo).
14.3. Критерии отношения правдоподобия 379 Все рассмотренные до сих пор критерии содержали отношение р0(у)/Рх(у). Эта функция от у, которую мы обозначим через / (у), называется отношением правдоподобия. Так как р0 (у)/рг (у) не опре- делена при ро (У) = Pi (У) = О, то функция I (у) требует в этих точках специального доопределения; мы положим Z(у) = 0 при pQ(y) = = Pi(y) = Отношение правдоподобия играет центральную роль при проверке статистических гипотез; ниже обнаружится, что все крите- рии, используемые нами при проверке гипотез, являются критериями отношения правдоподобия, хотя временами вводится более общая форма отношения правдоподобия. Поскольку фуш&хия I (у) опреде- лена в выборочном пространстве Y (пространстве результатов наблюдений), она является случайной величиной. Она имеет два различных распределения вероятностей. Если правильна гипоте- за Hq, то закон распределения вероятностей в Y определяется при помощи р0(у), так что функция распределения величины I равна Ро (Z < а) = Ро (у) dy. (14.13) РО (^) Р1 (р) Если правильна гипотеза Нъ то функция распределения величины I равна РЛКа)=\ Pdy)dy. (14.14) РО (р) п Pl (р)< Для дальнейшего изложения целесообразно ввести некоторые статистические термины, относящиеся к проверке гипотез. До сих пор мы рассматривали только проверку одной гипотезы относи- тельно другой. Такие отдельные гипотезы называются простыми, в отличие от ситуации, которую мы рассмотрим ниже, где фигу- рируют так называемые сложные гипотезы, являющиеся группами простых гипотез. Как следует из предыдущего, любое решающее правило для проверки двух простых гипотез сводится к разделе- нию пространства наблюдений У на две части, Уо и Уг Если в результате наблюдений мы получаем значение у, относящееся к Уо, то надлежит выбрать Яо; если у относится к Уь то вы- брать надлежит НГ Правило выбора гипотезы определено, если опре- делено одно из множеств У о или Ух, так как второе является дополни- тельной частью У. Обычно проверка гипотез рассматривается с точки зрения одной из гипотез, например HQ. Тогда Уо называется обла- стью принятия гипотезы, а Ух — областью отвергания гипотезы, или, что более обычно, критической областью. Если наблюдаемое значение у попадает в Ух, так что мы отвергаем Но, а на самом Деле гипотеза Но является истинной, то мы говорим, что допу- стили ошибку первого рода\ если у попадает в Уо, а правильной
Гл. 14. Статистическое обнаружение сигналов является Hlt то мы допускаем ошибку второго рода. Вероятность 7%^) отвергнуть гипотезу 7/0, когда она является правильной, называется уровнем значимости или объемом критерия. Вероят- ность Рг (УД отвергнуть гипотезу HQt когда она является ложной, называется мощностью критерия. Введенные определения повто- рены на фиг. 14.3. Область принятия S' 4 (HQ принимается) —-и'С. Критической область -----\ (Но отвергается) / У-выборочное пространство Фиг. 14.3. Проверка двух гипотез. Как было упомянуто выше, при неизвестных априорных веро- ятностях нельзя определить ожидаемые потери или полную веро- ятность ошибки и поэтому невозможно ввести критерий, приме- нение которого обеспечило бы минимум какой-либо из этих величин, j Было сказано, что критерием, на котором в таких случаях может £ основываться проверка, является принцип наибольшего правде- f подобия. Другой принцип, который может быть применен при f различных обстоятельствах и является, пожалуй, более убедитель- ным, состоит в том, чтобы поддерживать вероятность ошибки пер- вого рода меньшей или равной некоторой наперед заданной вели- | чине и обеспечивать минимум вероятности ошибки второго рода. Известная теорема Неймана — Пирсона х) утверждает, что критерий наибольшего правдоподобия удовлетворяет этому принципу. Точнее, Д если т] — действительное неотрицательное число, то критическая об- ластьУ\ (т)), состоящая из всех у, для которых (y)/pQ (у) > т], опреде- ляет критерий выбора между HQ и Н19 обладающий максимальной мощностью из всех критериев с уровнем значимости <Р0 ITiCn)]* 5 Доказательство этой теоремы состоит в следующем. Пусть а = = Д/УД “ уровень значимости критерия. Пусть, далее, 7\ —некото- рая область в У, для которой PQ(T^) <а. Мы покажем, что мощность критерия, имеющего критической областью Ух, не меньше мощности критерия, имеющего критической областью 7\. Пусть U — подмно- жество в У, содержащее точки, входящие в 7\ и Ух (U может ц быть пустым), и пусть запись Yt — U обозначает множество точек у, входящих в Ух, но не входящих в U. Во-первых, для всякой точки у, входящей в Ух и, следовательно, в Y1—Ui имеет место % См. Леман (I, § 2.1) или Нейман и Пирсон (I, § III).
14.3, Критерии отношения правдоподобия 381 неравенство р1(«/)>т)Ро('/); следовательно, Л(Г1-^)= $ Р1(У)аУ>П Ро(У)аУ = ,{\ро(У1-^)- (14.15) Yi-U Yj-U Поэтому Р1 (Л) = Р1 (Х1 -U) + P1 (£/) > (Л - U) + Р. ((/). (14.16) Однако пЛ> (Л - U) + Pt (U) = т)Р0 (Xi) - пЛ> (U) + Pi(U), (14.17) и так как, по предположению, Р0(Т1)<а = Р0(У1), то имеем пРо (Л) - nPo ,U) + P1 (U) > ЯРо (Л) - nPo (U) + Pi (f/). (14.18) Далее, ПРо (Л) - т]Ро (О) + Pi (U) = r)Po (Л - U)+P1(U). (14.19) Так как точки, входящие в Tj^—U, не принадлежат Ylt то Pi (у) < ЛРо (у) Для всех у в Tt — U. Следовательно, пРо (Л - {/) + Л (t/) > Pi (Л - U) + Р, (U). (14.20) Наконец, Pi (Л - U) + Pi (U) = Рх (Л). (14.21) Комбинируя равенства (14.16) — (14.21), получаем Л(Л)>Л(Т1), что и требовалось доказать. Заметим, что если ц возрастает, то размеры области У\ убы- вают и также убывает (или, строго говоря, не возрастает) уровень значимости критерия а = Р0(У\). В общем случае о функциональ- ной зависимости а от т] больше ничего сказать нельзя. В частности. Уровень значимости а не обязательно должен принимать все значения между нулем и единицей; это означает, что а как функция ц мо- жет иметь разрывы в виде скачков. Можно также отметить, что в качестве множества Yt можно выбрать множество, состоящее из тех значений у, для которых р!(у)/ро (у) > т] (вместо >); формулировка и доказательство теоремы при этом остаются, неизменными. Раз- ница состоит лишь в том, что уровни значимости а, соответству- ющие одному и тому же т], могут оказаться различными. Если в качестве Yx принимается Множество тех у, для которых
382 Гл, 14. Статистическое обнаружение сигналов Pi(Z/)/Po(i/) то уо будет множеством, в котором Pi(y)/p0(y) < т], что эквивалентно р0 (у)/рх (у) > 1/т]- Согласно предыдущему заме- чанию, это означает, что У"о есть критическая'область максималь^ ной мощности для критерия проверки относительно Но с уров- нем значимости /3i(V0). Пример 14,3.1. Пусть пространством наблюдений^ являются действитель- ные числа. Пусть HQ—гипотеза о том, что наблюдаемые значения обладают гауссовским распределением с нулевым средним значением и дисперсией, рав- ной единице. Пусть, далее, Нг — гипотеза о том, что наблюдаемые значения Фиг. 14.4. Критерий оценки среднего значения для гауссов- ского распределения. обладают гауссовским распределением с равными единице средним значением и дисперсией (см. фиг. 14.4). Мы хотим проверить гипотезу Яо относительн Тогда 1 — У2 "•““/к “р — Z ч 1 Г “р 1—г- и Поскольку при положительных значениях аргумента логарифм есть действи- тельная монотонно возрастающая функция, мы можем заменить условие эквивалентным ему условием ,og-^74=«/-4->i°gti=ii’« Ро \У) z
14.3. Критерии отношения правдоподобия 383 Если Т)' = —1/2, то Ki—множество всех положительных действительных чисел, а Уо—множество, состоящее из всех отрицательных действительных чисел и нуля. Уровень значимости критерия равен тогда а = Л(Л)=у . а мощность критерия— Л(г')=Йг СО В общем случае Yi есть множество чисел у >> ’П'Ч-1/2; уровень значимости равен тогда • а=~йг~ С ехр(—ir'W У2Я Ч4/2 k 7 а мощность— 1 /2л со Пример 14.3.2. Пусть Y—множество всех действительных чисел от 0 до Зе Пусть р0 (у) и р! (у) имеют вид и ро(,)={;/2 при О у 2, при других у 1/2 при 1 у 3» в 0 при других ул Тогда Pi (у) _ Ро (У) О при 1 при 4-00 при 0<£/ < 1, 1 < У< 2, 2 < у < 3. Если V] > 1, то У\ — множество чисел 2 < i/^З. Уровень значимости крите- рия равен нулю, а мощность равна 1/2. Если 1» то У1 есть множество чисел 1С у 3; в этом случае уровень значимости равен 1/2, а мощность равна 1. Рассмотренный случай является простым примером так называемого сингулярного случая в задаче проверки гипотез, когда некоторое подмно- жество У обладает ненулевой вероятностью при одной гипотезе и нулевой вероятностью при другой. Пример 14.3.3. Задача состоит в сравнении двух W-мерных гауссовских распределений с одинаковыми матрицами ковариаций, но различными средними значениями. Пространством результатов наблюдений, У служит W-мерное век- торное пространство; иными словами, каждое наблюдаемое значение у является
384 Гл. 14. Статистическое обнаружение сигналов вектором у = (у^ ...» ys). Предположим, что система координат выбрана так. что ylf ...» ум—некоррелированные случайные величины. Гипотезами являются ^о: Ро(Уи •••»!№) — _________1________ (2n)N/2 ... Р N [-4з^]. (14.22а) Я Г- Р1(У1> •> Уя)== ___________1________ (2л)^/2 Ох .. . 0N Р N 1 Y (yk—bk)2 . (14.226) Таким образом, a = (alt есть среднее для плотности р0 и Ь~ ~(blt ..., b^)—среднее для плотности pt. Отношение правдоподобия равно /(01.. ч Po(01. •••» 0^_. Pl (01 0/v) N N =exp [43 (Ук — Ьь)* 1 G/fe—afe)2l 01 2 2j al L k=l fc=l J N = exp [43 /о о V+2^’4 L a k=l fe=l A J (14.23) Критерий отношения правдоподобия определяется выбором множества Уо, содержащего те y = (ylt ..., у^), для которых I (У1....0лг) > П> . П > °- Мы можем также рассматривать логарифм от I (уи ..., #ty), и удобно так и сделать. Тогда критерий принимает вид 10g 401.....Un)> logT) = r)'. Это приводит к неравенству, определяющему Уо: N N » 2«‘2тги>ч’-42±4г=»>»'=- <><«> k=\ ‘ h=\ Геометрический смысл этого неравенства состоит в том, что Уо есть некоторое полупространство в W-мерном пространстве (если с>0, то полупространство, не содержащее начала). Граничная гиперплоскость перпендикулярна к век- тору, проведенному из начала и имеющему компоненты --bi #2--^2 , fyv] . а1 а2 aN J расстояние этой гиперплоскости от начала равно с N Г у (Qfe~~frfc)2 lfe=l °k |»/s
14,3. Критерии отношения правдоподобия 385 Так как ^ — независимые гауссовские случайные величины, то N ?=2 Qk — bk (14.25) * k=l ft также является гауссовской случайной величиной. Если справед теза Яо, т0 N £o(1)=2 а----к7Ьк} < лива гипо- (14.26a) Ь=1 It N к=1 (ak-bk)2 °k (14.266) Если справедлива Ях, то N . 2 bk(ak-bk) (14.27a) fe=l ft N <*12(£)=2 (gfe—6fe)2 og (14.276) fc=l ft Вероятности ошибок находятся теперь подстановкой соответствующих пара- метров в гауссовское распределение. Так, например, уровень значимости =Р0(У1)=: 1 /2л о0 (?) —оо 1 [£-£0(?)12 2 0?(5) (14.28) где Ео (g) и о§(£) определяются выражениями (14.26а) и (14.266). Сложные гипотезы. До сих пор мы рассматривали проверку гипотез, когда каждая из двух гипотез соответствовала единствен- ной возможной причине наблюдаемой величины. Иными словами, каждая гипотеза была простой. Мы хотим теперь рассмотреть вопрос о проверке гипотез в том случае, когда одна или обе гипотезы соответствуют целой совокупности возможных причин, т. е. являются сложными. Обозначим через Q. совокупность сим- волов или индексов, относящихся ко всем возможным простым гипотезам, так что простые гипотезы будут обозначаться симво- лом где со— элемент из Q. Пусть Qo —некоторое подмножество множества Q, a — совокупность всех точек Q, не вошедших в Qo, Q, = Q - Qo. Каждому со соответствует определенный в У закон распределения вероятностей с плотностью р®(у). Сложная гипо- теза Hq состоит в том, что плотность распределения вероятностей, управляющая в действительности наблюдаемыми величинами у, равна где со —элемент Qo; сложная гипотеза Н1 состоит 25 Заказ № 57
386 Гл. 14. Статистическое обнаружение сигналов в том, что плотность р<о'(у) связана с со', являющимся элемен- том Qr Такая формулировка включает в себя также случай проверки простых гипотез; если каждое из множеств Qo и Qx содержит по одному элементу, то гипотезы простые. Если й0 со- держит только один элемент, a Qx — много элементов, то задача состоит в проверке простой гипотезы HQ относительно сложной альтернативы; такая ситуация встречается в статистике довольно часто. В представляющих для нас интерес задачах сложные гипотезы обычно возникают из-за существования неизвестных параметров, влияющих на результаты наблюдений. Например, в радиолокаци- онной задаче, упомянутой в § 14.1, Яо можно рассматривать как гипотезу о том, что отраженное от объекта из некоторой области эхо отсутствует. Тогда — гипотеза о наличии отраженного эха. Однако, поскольку мы не знаем размеров отражающего объекта, а условия распространения меняются, амплитуда отраженного сигнала неизвестна. Таким образом, на результат наблюдений отраженного сигнала влияет не только наличие или отсутствие объекта, но также и интенсивность отражения от него, если он есть, и Н1 является сложной гипотезой. Множество Q склады- вается из множества Qo, содержащего только одну точку соо и определяющего простую гипотезу #0, и множества Qx, содержа- щего бесконечное число точек (соответствующих бесконечному количеству возможных амплитуд) и определяющего гипотезу Нг. Если задано распределение вероятностей на й, т. е. совокуп- ность априорных вероятностей всех возможных причин, то критерии, основанные на минимизации величины ожидаемых потерь или вероятности ошибки (байесовское решение), могут быть получены по существу тем же путем, что и в случае простых гипотез. Действительно, если л (со) — априорная плотность распределения вероятностей в Q, то ^QPQ(Yk) в (14.8) заменяется выражением § po(Yk) Jt((D)dco, k = 0, 1, Йо a л1Р1(У^ —выражением Ло (У\) л (со) d(d, k = 0, 1. Й1 Область Yq является тогда множеством точек у, для которых У PG)(^)^(CD)dCO > (14.29) J (i/) Л ((d)’dto ^oi—^oo ’ Й1 что аналогично условию (14.11).
14.3. Критерии отношения правдоподобия 387 Если в В не задано никакого априорного распределения веро- ятностей и если одна или обе гипотезы являются сложными, то отыскание удовлетворительного решающего правила нередко ока- зывается затруднительным. Мы обсудим кратко два возможных подхода к задаче проверки гипотез при отсутствии априорных ве- роятностей и сложных гипотезах: непосредственное применение принципа наибольшего правдоподобия и максимизация мощно- сти критерия при поддержании фиксированным его уровня значи- мости. Эти две идеи были использованы в предыдущем разделе при рассмотрении простой альтернативы. Принцип наибольшего правдоподобия, тесно связанный с оценкой наибольшего правдоподобия, состоит в том, что наблюдатель дол- жен выбрать из Q такое со, при котором наблюдаемое значение у становится наиболее вероятным. Иными словами, наблюдая у, он должен выбрать со так, чтобы обеспечить максимум po(t/). Тог- да, если выбранное со принадлежит Qo, то наблюдатель выбирает /70; если выбранное со принадлежит Qx, то он выбирает Нх. Этот критерий может быть выражен через критерий отношения правдо- подобия для общего случая как тах Р(00 (01 где соо принимает все значения ш из Qo, а сох —все значения со из Qjг). Обобщенный критерий отношения правдоподобия есть критерий, в котором Уо есть множество точек у, удовлетворяю- щих неравенству I (у) > п, где т) — некоторое заранее заданное неотрицательное число. В некоторых применениях принцип правдоподобия не заслужи- вает доверия. Очевидно*, если наблюдатель использует критерий отношения правдоподобия, когда в Q имеется распределение ве- роятностей, которое, однако, ему не известно, то он может прий- ти к критерию, существенно отличающемуся от того, который обеспечивает минимальную вероятность ошибки. Обращаясь к критериям наибольшей мощности при заданном уровне значимости, рассмотрим в целях простоты частный случай, *) Обычное определение отношения правдоподобия имеет вид тах Р(00 1(у) = ^------т-v , max ра (у) со где со соответствует всему множеству Q. В настоящей главе удобнее исполь- зовать определение (14.30); по существу оба эти определения эквивалентны. 25*
388 Гл. 14. Статистическое обнаружение сигналов когда 'нулевая гипотеза HQ простая, а альтернативная гипотеза Н± сложная. Тогда для каждого со из Qx нужно провести провер- ку с уровнем значимости <а гипотезы Но относительно простой гипотезы, соответствующей со. Критерий наибольшей мощности, производящий такое сравнение, должен иметь критическую область У©, состоящую из всех тех х, для которых при некотором r]w Если критические области У© идентичны для всех со в то кри- терий с критической областью У1 = УЮ, где со принадлежит Q1? называется равномерно наиболее мощным критерием проверки ги- потезы HQ относительно гипотезы Н1 с уровнем значимости а. Если возникает такая счастливая ситуация, то наблюдатель, произ- водящий проверку гипотезы HQ относительно Н1У оказывается в столь же хорошем положении, как если бы гипотеза Нг была простой. Не- определенность, возникающая из-за того, что гипотеза Ях—слож- ная, в этом случае оказывается несущественной. В некоторых полезных примерах, как мы увидим ниже, действительно су- ществует равномерно наиболее мощный критерий. Если это не имеет места, то не существует простого принципа для выделения наилучшего критерия с уровнем значимости а. При этом ситуа- ция, может быть, несколько прояснится, если обратиться к функ- ции мощности. Функция мощности критерия с критической обла- стью Ух — это вероятность критической области Ух как функции Фиг. 14.5. Графики функций мощности. от со. Предположим, что Q — некоторый интервал на действитель- ной оси, так что каждый элемент о> —это действительное число*, заключенное, скажем, между а и Ь. Тогда типичные графики функций мощности имеют вид, указанный на фиг. 14.5, где соО"” точка в Q, соответствующая 7/0, так что значение функции мощ- ности при соо есть уровень значимости критерия. Каждая из кри- вых на фиг. 14.5 есть график функции мощности для различных
14.3. Критерии отношения правдоподобия 389 критериев; все они имеют уровень значимости а. Если существует такой критерий, что график его функции мощности лежит выше всех остальных и имеет то же самое значение при соо, подобно кривой (а) на фиг. 14.5, то это и есть равномерно наиболее мощ- ный критерий с данным уровнем значимости. Обычно всякая функ- ция мощности при некоторых значениях со1 лежит ниже, чем функ- ция мощности какого-либо другого критерия, как это имеет место для кривых (6) и (с) на фиг. 14.5. Если равномерно наиболее мощный критерий отсутствует, то для выделения «наилучшего» критерия можно ввести какой-либо иной принцип. Для этого имеются различные возможности; класс рассматриваемых критериев может быть сужен путем рассмотрения только критериев, обладающих некоторыми частными свойствами.1 Тогда может оказаться, что существует равномерно наиболее мощ- ный критерий в этом более узком классе. Один такой класс об- разуют несмещенные критерии, функции мощности которых мини- мальны при соо; кривые (а) и (&) на фиг. 14.5 являются функция- ми мощности несмещенных критериев, тогда как кривая (с) тако- вой не является. Другая возможность состоит в оценке качества критериев того же уровня значимости в соответствии с некото- рыми общими свойствами функции мощности1). Пример 14.3.4. Видоизменим пример 14.3.3, положив flfc = 0, £=1, ... ...» W и заменив на где р—неизвестное действительное положитель- ное число. Тогда HQ—простая гипотеза: N 2 .....<1431а| гипотеза же Н1 — сложная: И1 '-Рц(У1...Ук) = Р>°- (143‘Ч Покажем теперь, что для этого примера критерий отношения правдоподобия для проверки гипотезы HQ относительно гипотезы f/i является равномерно наиболее мощным критерием с соответствующим уровнем значимости. Во-пер- вых, заметим, что при невырожденных гауссовских плотностях, как в данном примере, уровень значимости а является при фиксированном р непрерывной и монотонной функцией, пробегающей все значения от нуля до единицы. Сле- довательно, можно найти по крайней мере одно значение т] = Т](р), соответ- ствующее любому заданному уровню а. В соответствии с примером 14.3.3 при фиксированном значении р критическая область У^ для наиболее мощного критерия проверки HQ относительно Но с уровнем значимости а состоит из тех У = (У1, • •., Ун), Для которых N ----------- Л=1 k См. Леман (I, гл. 6).
390 Гл. 14. Статистическое обнаружение сигналов или Л=1 к Р (14.32) Если теперь для двух разных значений 0, 01 и 02 величина k (0J строго больше, чем &(02), то и3 неравенства (14.32) следует, что У^2 содержит во всяком случае все точки у = (у^ ...» у$), входящие в Однако Ро(Ур2) = <х = Ро(УЭ1). Следовательно, Р0(Ур2—Ур1) = 0. Тогда, согласно принятому нами соглашению относительно значений у, для которых ро(#) = О, в определении критической области критерия наибольшей мощности имеем Y^2 = Y^. Следовательно, все Ур равны друг другу, и мы можем положить Y1==Y^. Это означает, что все критерии наибольшей мощности с уровнем значимости а для проверки гипотезы Но относительно любой из простых гипотез, составляющих Hlt одинаковы; значит, данный критерий есть равномерно наиболее мощный кри- терий проверки HQ относительно Hv Пример 14.3.5. Видоизменим теперь предыдущие примеры с тем, чтобы получить пример, в котором обе гипотезы являются сложными. Пусть 0 — неизвестное действительное число. Требуется произвести выбор между двумя гипотезами: н0-.. р0(У1, да; Р)= N <—) и Hi'- Pi(Pi. •••. да; Р)= N <14'ззб> Мы можем найти обобщенное отношение правдоподобия, определяемое ра- венством (14.30): maxp0(ylt да; Р) I (У) = —----7----------ох • max рг (у!...да; Р) ₽ Максимум р0(У1, ..., у^; 0) имеет место при том же значении 0, что и максимум 1о&ро(У1, .у^\ 0). Поскольку log р0 (t/x, ..., yN\ 0) является полиномом второй степени относительно 0, мы можем найти его экстремальную точку, приравняв нулю его производную. Таким образом, N i°gPo(i/i.да; p)=const—у 2 ^к~^ак)* 2 ы к N h=l
14.3. Критерии отношения правдоподобия 391 N 2 N РА ««-A * (14.34) N 2ykUk о fe=l ₽ = ^v ak Из вида log Pq ясно, что это значение 0 определяет максимум log р0 и, сле- довательно, максимум pQ. Значение 0, при котором} имеет место максимум Pi (Уъ •••» Ух> 0)> находится аналогично: N 2УкЬк ₽=-^--------. (14.35) v Л Подставив эти значения 0 соответственно в выражения несложные упрощения, получаем для р0 и рл и сделав (14.36) Пусть (14.37) N о N .2 ft=l fe=l ft Тогда log1 (У1> N N oj 2^(2j J k=A R=I (14.38) Уо есть область, где это выражение больше, чем logt).
392 Гл. 14. Статистическое обнаружение сигналов 14.4. Статистические оценки Статистическая оценка может быть кратко описана следующим образом: наблюдается событие, которое может быть вызвано лю- бой одной причиной из семейства взаимно исключающих друг друга возможных причин (или связано с любым одним явлением из семейства возможных явлений природы). Каждой из этих возможных причин приписано значение определенного параметра или совокупности параметров. Требуется по результатам наблюде- ния определить, которая из причин скорее всего имеет место, т. е. найти соответствующее значение параметра или совокупности па- раметров. Итак, как и в случае статистической проверки гипотез, мы зададим пространство У всех возможных значений некоторой “ наблюдаемой величины (или величин) и совокупность известных вероятностей Ра в У, где со принадлежит к множеству Q. Однако теперь Q разделяется на совокупность попарно не пересекающихся подмножеств Qa, где а —число или вектор, характеризующий дан- ное подмножество. Подмножества Qa могут состоять каждое толь- ко из одного элемента со, входящего в Q. Оценка а — это функ- ция d(t/), определенная в У, причем подразумевается, конечно, что она должна давать достаточно хорошую оценку истинного значения а. Таким образом, оценка —это случайная величина, заданная на пространстве наблюдений. Эта абстрактная формулировка станет, может быть, более яс- ной, если мы разъясним ее на простом примере. Пусть известно, что некоторая величина у определяется гауссовским распределе- нием с неизвестным средним значением tn и дисперсией о2, и тре- буется найти оценку для т. Пусть сделано N независимых изме- рений величины у. Обозначим их уг, у2, Тогда простран- ство результатов наблюдений У есть N-мерное векторное простран- ство и точка у в У имеет координаты (уг, ...,yN)- Множество Q есть верхняя половина плоскости, в которой абсцисса точки со представляет среднее значение tn, а ордината (которая положи- тельна) — дисперсию о2. Подлежащий определению параметр а — это tn, а подмножества Qa - вертикальные линии, проведенные от горизонтальной оси. Примером оценки для т служит выборочное среднее1) a */i+#a + • • • т =, являющееся функцией точки у пространства Y. При тех же усло- виях можно поставить задачу оценки т и о2. Тогда Y и Й —те же, что и ранее, но а есть теперь вектор с координатами (т, о2), а Qa —точка в полуплоскости Й. !) См. § 5.2.
14.4. Статистические оценки 393 Согласно определению оценки, ею является всякая функция от у, независимо от того, дает ли она хорошее, отличное или смехотворно произвольное значение для истинного значения пара- метра. Существуют различные критерии, позволяющие судить о пригодности и качестве оценки. Во-первых, когда распределения в Y полностью определяются заданием а, так что каждая плот- ность из семейства плотностей распределений вероятностей в У может быть записана в виде ра(у), мы говорим, что оценка а вели- чины а является несмещенной1), если она дает в среднем правиль- ное значение; иными словами, а есть несмещенная оценка, если для всех а Еа(а) = а, (14.39) где Еа (а) — математическое ожидание а, когда а истинно. Это же условие можно записать в виде a(y)pa(y)dy = a. Y Если распределение вероятностей в У не определяется полностью одним параметром, то условие, соответствующее (14.39), тем не менее может быть написано; однако в этом случае оно представ- ляет собой более сильное ограничение. Так, например, если семей- ство распределений определяется двумя параметрами а и Ь, то мы можем сказать, что оценка а параметра а является несмещенной, если для всякого а Eatb(a) = a ПРИ всех (14.40) Несмещенность не является достаточной гарантией качества оценки. Оценка а (у) может быть несмещенной, и тем не менее при повторении идентичных независимых опытов мы получим значе- ния, которые будут широко флуктуировать вокруг истинного зна- чения. Это обстоятельство связано с тем, что для некоторых мно- жеств плотностей ра(у) оценка а (у), рассматриваемая как случай- ная величина, может иметь распределение, при котором распреде- ление вероятностей не концентрируется близко к среднему значе- нию. Одной из мер флуктуации а (у) вокруг ее среднего значения может служить ее дисперсия ва(а)= Еа{[а—Еа(а)]2}* (14-41) Если а (у) — несмещенная оценка, то последнее равенство прини- мает вид ОЦа) = Еа[(а-аП (14.42) 1) См. Крамер (I, § 32.3).
394 Гл. 14. Статистическое обнаружение сигналов Условие оптимальности оценки, которое мы будем употреблять, будет состоять в том, что среди всех несмещенных оценок данного класса оптимальная оценка должна будет обладать минимальной дисперсией1). Как и при проверке гипотез, нередко представляет интерес, насколько улучшаются статистические выводы с увеличением чис- ла независимых наблюдений. Пусть дана последовательность оце- нок (у), где aN (у) — оценка, определенная на пространстве сов- местных результатов N независимых наблюдений. Если эта после- довательность обладает тем свойством, что для любого истинного значения параметра а оценка aN(y) сходится по вероятности2 3) к а, то последовательность оценок называется состоятельной2). Оценка наибольшего правдоподобия. Принцип наибольшего правдоподобия, изложенный в предыдущем разделе, применим также и к оценкам. Интуитивная идея такого применения состо- ит в следующем. Пусть при некотором частном наблюдении полу- чено значение у и при этом известно, что в у действует какая-либо плотность из семейства плотностей распределения вероятно- стей Ра\у). Тогда естественно предположить, что истинным значением а является то, которое задает в Y распределение ве- роятностей, делающее наиболее вероятным наблюденное значение у. Иными словами, параметр предполагается таким, что он обес- печивает максимум ра(у); при этом ра(у) рассматривается как функция от а; у называется функцией правдоподобия и иногда обозначается через % (у; а). При положительных значениях аргумен- тов логарифм является действительной монотонно возрастающей функцией; поэтому мы можем при отыскании значений а, обеспечи- вающих максимум ра (у), вместо X (у; а) рассматривать log % (у; а). Обычно это оказывается более удобным. Если log % (у; а) обладает непрерывной производной по а, то мы часто можем надеяться найти значение или значения а, обеспечивающие максимум прав- доподобия, среди решений уравнения д0) = °' (14.43) Это уравнение называется уравнением правдоподобия. Решение его относительно а есть функция а (у), являющаяся некоторой оцен- кой для а. Возможны решения, имеющие вид a=const4); они не т) См. Крамер (I, § 32.3). 2) См. § 4.6. 3) См. § 5.3. 1 —(и—а2)2 4) Например, если Л (у; а)= ехР —т° тождество а = 0 есть решение уравнения правдоподобия.
14.4. Статистические оценки 395 являются разумными оценками, так как не зависят от у, и мы исключим их из рассмотрения. Остальные решения уравнения (14.43) называются оценками наибольшего правдоподобия. Известно, что оценки наибольшего правдоподобия обладают свойствами, которые позволяют найти при некоторых обстоятельствах иные оправдания их применения, помимо изложенного выше грубо интуитивного оправдания. При определенных условиях оценки наибольшего прав- доподобия обладают минимальной дисперсией в широком классе несмещенных оценок1). При более общих условиях оценки наиболь- шего правдоподобия являются состоятельными и обладают асимп- тотически минимальной дисперсией2). Если имеется п различных подлежащих оценке параметров ах, ..ап, то метод наибольшего правдоподобия состоит в реше- нии п уравнений log % (у; alt ап) = 0, i = (14.44) относительно ах, ..., ап. Если известно априорное распределение вероятностей для значений параметра с плотностью распреде- ления л (а), то существует байесовская оценка, получающаяся максимизацией для каждого у величины л(а)ра(у). Здесь есть близкая аналогия с ситуацией, которую мы имели при проверке гипотез с заданными априорными вероятностями. Пример 14.4.1. Пусть У есть n-мерное векторное пространство. Пусть задана совокупность гауссовских Af-мерных плотностей Pp(^) = Pp(^i> •••’ ^v) = N — 1 ехпГ 1 У (№ —P°fe)2] (14 451 и требуется оценить р. Оценку наибольшего правдоподобия применительно к этой задаче мы уже получили в примере 14.3.5. Согласно равенству (14.34), N ч у Уь°ь 1) Крамер (I, § 33.2). 2) Крамер (I, § 33.3).
396 Гл. 14. Статистическое обнаружение сигналов Эта оценка является несмещенной, поскольку [₽(</)] = 2^3(уь) ak п=1 N а2 2ak fc=l (ЦАТ} Так как независимы, то дисперсия $ (у) равна N (14.48) и не зависит от р. Дисперсия этой оценки не зависит от р, так как пара- метр р влияет только на среднее значение распределения в Y. Оценка $(у) линейна, т. е. если у = (уъ ... , у^) и z = (zt1 ... , zy)— два наблюдаемых значения, а сг и с2— постоянные, то Р (С1У 4- C^z) = cj (у) 4- с2(5 (г). Мы можем теперь показать, что среди всех несмещенных линейных оценок р оценка обладает наименьшей дисперсией. Всякая линейная оценка Р' (у) может быть записана в форме N ₽'(</)= 2d^’ <14-49) fe=l где dk — некоторая совокупность чисел. Для того чтобы Р' была несмещенной оценкой, должно быть N N Ер ip' (у)] = 2 d*E» (yk)= Р 2 ^=₽; поэтому числа должны удовлетворять следующему соотношению: N ч 2«^=1- (14-5°) h=l ✓ Дисперсия Р' (у) равна N о| [Р' (!/)]= 2 (14.51) fe=l Согласно равенству (14.50) и неравенству Шварца, N N N N 2 fe=l у k=l k=l k=l k
14.4. Статистические оценки 397 и, следовательно, [₽' (f/)] = 3 > -JT— = °? Ф Ml- ь=1 хп al Наблюдения и статистики. До сих пор, рассматривая как про- верку гипотез, так и задачи, связанные с оценками, мы предпола- гали заданным пространство результатов наблюдений У, или вы- борочное пространство. Во многих классических процедурах про- верки гипотез производится некоторое число N наперед заданных измерений или наблюдений, которые и доставляют статистические данные. Эти N измерений дают совокупность N действительных чисел yr, которые можно представлять себе как коорди- наты точки у = (z/1? ..., уы) в ^-мерном векторном пространстве У —выборочном пространстве. Если методика измерений определе- на, то тем самым фиксировано пространство У. Пространство У содержит весь исходный материал, на основе которого должны быть сделаны статистические выводы. Однако в задачах некоторых типов, и в частности в применениях, которые мы здесь рассматри- ваем, имеется слишком много исходных данных, чтобы их можно было обрабатывать непосредственно; поэтому анализ обычно раз- бивается на два этапа. Сначала рассматриваются первоначальные данные эксперимента и из них выбирается более узкая совокуп- ность данных, а затем к последней применяются статистические процедуры. В таких ситуациях выборочным пространством У яв- ляется пространство возможных значений этой более узкой сово- купности данных. Предположим, например, что с помощью радиолокатора, рабо- тающего импульсами, определяется наличие отражающего объекта в определенном направлении на расстоянии от 20 до 21 мили. В идеальном случае данные, которые поступают на приемное устрой- ство радиолокатора и на основе которых мы можем делать не- обходимые выводы, состоят из последовательности отрезков, по одному на каждый импульс, с непрерывной записью напряжения как функции времени, длительностью 2/186000 сек. (время, в те- чение которого радиоволны пробегают 2 мили). Непрерывная за- пись такого рода содержит несчетное множество значений. Умень- шить это количество данных можно различными путями. Так, например, можно отсчитывать каждый отраженный импульс лишь однажды, т. е. в течение каждого интервала времени, соответ- ствующего дистанциям от 20 до 21 мили, один раз измерять ампли- туду принятого сигнала. Предположим, что радиолокатор работает в данном направлении в течение времени, достаточного для излу-
398 Гл. 14. Статистическое обнаружение сигналов чения и возвращения обратно К импульсов. Тогда выборочная точка имеет К координат и пространство У является /(-мерным. Сокращение количества данных при переходе от исходного’ пространства измерений к выборочному пространству можно рас- сматривать как отображение или преобразование. Если исходное пространство результатов наблюдений обозначить через Му а вхо- дящие в него точки через /и, то каждое наблюдение т опреде- ляет точку у в выборочном пространстве. Таким образом, задается отображение у (т) пространства М в пространство У; такое ото- бражение называется статистикой. Вообще, всякое отображение пространства результатов наблюдений в выборочное пространство» или одного выборочного пространства в другое называется стати- стикой. В частности, в ситуации, описанной в предыдущем парагра- фе, отображение, переводящее принятый сигнал в точку /(-мер- ного пространства, является статистикой. Если, далее, вычисляется среднее значение координат у1У ...,ук точки в пространстве Y_ то это есть отображение У в новое одномерное выборочное про- странство, являющееся другой статистикой — выборочным средним. Совершенно очевидно,, что выбор статистики является частью общей статистической задачи и что его нужно делать с должным вниманием. Обычно при сокращении исходных данных часть инфор- мации, пригодной для отыскания решения, теряется; однако это происходит не всегда. Так, например, можно показать1), что если про некоторую систему величин известно, что эти величины рас- пределены в соответствии с гауссовским законом распределения вероятностей с неизвестными средним значением и дисперсией, и если производятся п независимых испытаний, то выборочное сред- нее и выборочная дисперсия содержат столь же много информации о распределении, как и п выборочных значений. Здесь статистика с двумя координатами — выборочным средним и выборочной диспер- сией — отображает n-мерное выборочное пространство в двумерное. Гренандер ввел термин «наблюдаемые координаты» для начальной статистики, используемой для получения статистических выводов, касающихся вероятностных процессов. Этот термин кажется под- ходящим для ситуаций, которые мы здесь рассматриваем, и мы будем пользоваться им в последующих параграфах. 14.5. Передача информации фиксированными сигналами на фоне гауссовского шума2) В качестве первой из статистических задач о приеме сигналов мы рассмотрим следующую. В фиксированном интервале времени х) Крамер (I, стр. 494, пример 1). Выборочное значение и дисперсия явля- ются «достаточными оценками», из чего и вытекает приведенное выше утверж- дение. 2) Материал настоящего параграфа является непосредственным применением части теории, разработанной Гренандером (I, в особенности §§ 3 и 4).
14.5. Передача информации фиксированными сигналами 399 О < t < Т передается один из двух возможных известных сигна- лов so(O и Переданный сигнал искажается под действием накладывающегося на него стационарного гауссовского шума с известной корреляционной функцией, так что принятый сигнал y(t) имеет вид t/(O = si(/) + n(/), i = 0,1, (14.52) где п(/) —шум. Задача состоит в том, чтобы в точке приема решить, который из двух сигналов, $0(/) или sx(/), был на самом деле передан. Если s0 (t) и sx (t) — синусоидальные сигналы раз- личных частот, то данная задача совпадает с рассмотренной в § 14.1 задачей о телеграфной радиосвязи, работающей с частот- ной манипуляцией. Однако теперь сигналы si (t) могут быть совсем произвольными, и поэтому задача, о которой идет речь сейчас, является более общей. Как мы увидим в § 14.7, она возникает также и при рассмотрении радиолокационных устройств. Основная идеализация в задаче, описанной выше, применительно к боль- шинству практических приложений состоит в том, что здесь не вводятся параметры, учитывающие произвольный характер ампли- туды и фазы сигналов (/). Изменения, обусловленные введением неизвестной амплитуды и неизвестной фазы, будут рассмотрены ниже. Поставленная задача есть задача о проверке статистических гипотез. Гипотеза Но состоит в том, что фактически переданным сигналом был а гипотеза Н1 — в том, что фактически пере- дан был сигнал s1(/). Результатом наблюдения является действи- тельная функция y(t) на фиксированном интервале 0<£ < Т; про- странством результатов наблюдений служит множество всех таких функций. Выбор между этими двумя гипотезами мы сделаем с помощью критерия отношения правдоподобия. Уровень значи- мости критерия отношения правдоподобия и величина порога зависят от того, какая именно конкретная задача имеется в виду. Например, применительно к системам телеграфной связи обычно целесообразно полагать априорные вероятности равными л0 — 1/2, лх=1/2 и приписывать ошибкам обоих родов одинаковые потери. Тогда порогом при использовании критерия отношения правдопо- добия будет 1. Первым этапом является выбор статистики, или системы наблю- даемых координат, и, следовательно, задание выборочного про- странства, в котором вычисляется отношение правдоподобия. Сле- дуя Гренандеру х), мы примем в качестве наблюдаемых координат множество взвешенных средних значений y(t), определяемое сле- дующим образом. Согласно результатам § 6.4, мы знаем, что 1 Гренандер (I, § 3).
400 Гл. 14. Статистическое обнаружение сигналов шум n(t) может быть записан в виде »(0 = 5здй(0. (14.53) где т zk = n(t}<&(t)dt, (14.54) E(zfe) = O, (О при кфт. ^(zfez*)= , nL ъ (Ok при k = m и где <pft (f) — система ортонормированных функций, удовлетворяю- щих условию т Rn(s-t)<pk(f)dt = al<ph(s), 0<s<7\ (14.55) о Поскольку 7?n (t) — действительная функция, ф&(/) также могут быть выбраны действительными1), и мы будем предполагать, что так оно и есть. Выберем в качестве наблюдаемых координат т Ук= 5 y^Vk^dt, 6 = 1,2............. о Если мы определим ак и bh, k= 1, 2, ..., равенствами т ah= J о т Ьк = 5 sl{t')^(t)dt, о то, согласно (14.56), (14.57) и (14.54), будем иметь ( ak + zft при i = 0, Ук~\ bk+zk при i = l. (14.56) (14.57) (14.58) х) Пусть Rn(t)— действительная функция; тогда, если ср/г.(Z) — собственная функция, то [фь (/)] и 3 [фй (/)] также являются собственными функциями. Можно показать, что если Ф1 (0, - -чфлИ — система линейно независимых комплексных функций, то некоторая система из К их действительных и мни- мых частей является также линейно независимой. Следовательно, если задана система К линейно независимых комплексных собственных функций, соответ- ствующих собственному значению %, то можно найти систему К линейно неза- висимых действительных собственных функций, соответствующих тому же %, и поэтому можно найти систему К действительных ортонормированных собствен- ных функций.
14.5, Передача информации фиксированными сигналами 401 Из (14.54) в соответствии с принципом, изложенным в § 8.4, сле- дует, что любая конечная совокупность величин zk обладает гаус- совским совместным распределением. Каждая величина гк имеет нулевое среднее значение, и. любые две различные величины zk не коррелированы; следовательно, все zk являются взаимно неза- висимыми (гауссовскими) случайными величинами. ак и Ьк суть не случайные величины, а числа. Следовательно, при 1 = 0 все ук являются взаимно независимыми гауссовскими случайными вели- чинами со средними значениями ак и дисперсиями а|. Аналогично при i = 1 все ук — взаимно независимые гауссовские случайные величины со средними значениями Ьк и дисперсиями аД. Причина такого выбора наблюдаемых координат теперь ясна. Координаты ук взаимно независимы, и поэтому можно прямо написать плотность совместного распределения вероятностей для (f/i, • • •, Z/n) при произвольном N. Мы можем написать прибли- женное выражение для отношения правдоподобия, учитывающее только и затем перейти к пределу при А/—>оо. Важным является именно то, что данный выбор наблюдаемых координат приводит к независимым случайным величинам. Такое построение, использующее разложение п (/) по ортогональному базису, является бесконечномерным аналогом приведения к диаго- нальному виду матрицы ковариаций конечной системы случайных величин. 4 Если на 7?п (/) не наложено никаких ограничений, кроме того, что это корреляционная функция, то ортонормированные функ- ции (/) могут образовывать или не образовывать полную систему1). Если система функций ф^(0 не является полной, то существуют функции ф(/), ортогональные ко всем qk(t), т. е. обладающие тем свойством, что для всех k т § ^(f)^k{t)dt = O. (14.59) б Если некоторая функция ф(/), удовлетворяющая при всех k усло- вию (14.59), кроме того, удовлетворяет еще и условию т т ty(t)S1(t)dt, (14.60) б о то с вероятностью единица можно принять правильное решение. Это можно показать следующим образом. Пусть ф(/) —функция, х) См. приложение 2, § 2.1. 26 Заказ № 57
402 Гл. 14. Статистическое обнаружение сигналов удовлетворяющая при всех k условиям (14.59) и условию (14.60); тогда ? 1 о Т т Ф (0 So (0 dt + ф (/) п (/) dt при I = О, о о т т si(t) dt + ty(t)n(t)dt при z = l. о о Вторые интегралы в правых частях обоих выражений равны нулю, так как ф(/) ортогональна ко всем (pft(/), и, следовательно, ^сог- ласно (14.53), ортогональна к n(t). Итак, если был передан сиг- нал s0(/), то т т Ф(0 Ф (0 SO (/) dt = Со, о о а если передан был сигнал s^t), то т т 5 ty(t)y(p)dt= ty'(t)s-i(t)dt = c1, О о причем cQ и с± различны. Ситуацию, описанную в этом абзаце, Гренандер называет экстремальным сингулярным случаем. В обыч- ных задачах такая ситуация не имеет места, ибо если п(/) — фильтрованный белый шум, то cpfe(/) образуют полную систему ортонормированных функций х). Интуитивно ясно, что экстремаль- ным сингулярным случаем является тот случай, когда от шума можно полностью «отстроиться» (в качестве простого примера см. задачу 14.5). Обратимся теперь к обычной ситуации, когда не существует функции ф(/), ортогональной ко всем <pft(Z) и удовлетворяющей условию (14.60). Это тот случай, при котором функции cpfe(/) образуют полную систему. Так как (yv ..., у^) есть система взаимно независимых гауссовских случайных величин с диспер- сиями (of, ..., и средними значениями (ах, ..., а^ согласно гипотезе HQ и (bv ...,bN) согласно гипотезе то натуральный логарифм отношения правдоподобия для первых N наблюдаемых г) См. приложение 2, § 2.3.
14.5. Передача информации фиксированными сигналами 403 координат, согласно выражению (14.25), равен N 2 2 N logMft......w)-4 2 2 k=l k=l (14.61) Критерий отношения правдоподобия, основанный на этих Н наблюдаемых координатах, приводит тогда, согласно (14.24), к вы- бору HQ при N V „ ak—bk Ук~аГ~ k=l k N logn-y 2 fe=l ,2 2 ^=^- = с (14.62) Gk и к выбору Нх в остальных случаях. Прежде чем рассматривать предельные соотношения при полезно выразить отношение правдоподобия в другой форме. Пусть N мп= 2 fe=l (14.63) Тогда l°g In (У1, ..., у n) = N N k=i h=i N -4 s fe=l N 1 ak Л d/ + fe=l т SQ (0 + Sl (0 J (14.64) 0 Заметим также для использования в дальнейшем, что, (U.63), согласно N j T 0 Т N Rn(u-t)fN(t)dt= 2 («л —<«)- 0 fe=l (14.65) 26*
404 Гл. 14. Статистическое обнаружение сигналов Можно показать, что log 1к(Уп сходится1) при /V—>оо (если одна из гипотез справедлива). Итак, предельная форма кри- терия отношения правдоподобия определяется неравенством т log/(y)=lim \ fN(t) Г y(t)~ Sfl(Z)+S1(<) 1 dt> log т). (14.66) 2V~>OO Q L J Если co V 4-00, (14.67) fe=l то с помощью относительно несложных вычислений, используя неравенство Чебышева, можно показать, что log Zn (t/ь ..., t/iv) —> + оо по вероятности, если справедлива /70, l°g^v(t/i, ..*Лу)“->—°о по вероятности, если справедлива Hv Это также сингулярный случай, когда в пределе возможно идеаль- ное обнаружение. Если бесконечный ряд (14.67) сходится к конеч- ному пределу (что является единственной возможной альтерна- тивой, поскольку ряд состоит из положительных членов), то предельное отношение правдоподобия не сингулярно, и мы назы- ваем этот случай регулярным. В некоторых системах наложенные на сигнал и шум естественные ограничения гарантируют сходи- мость ряда (14.67). Если, например, рассматривать шум как белый шум, вводимый на вход приемника, то сингулярный случай не может иметь места. Доказательство этого предложения состав- ляет содержание задачи 14.6. Обратимся теперь к рассмотрению регулярного случая. Фиксированный сигнал в гауссовском шуме — регулярный слу- чай. Критерий отношения правдоподобия в форме (14.66) неудобен в тех случаях, когда отношение правдоподобия находится в виде предела и функция fN (t) определяется суммой, которая при N —> оо превращается в бесконечный ряд. Формально можно заметить, что если не возникает затруднений с переходом к пределу и если предел fn (/) обозначить через f(/), то, согласно равенствам (14.64) и (14.65), т log/(y) = 5 /Ю [j/(O-So(°tS?(<)-] dt, (14.68) О !) Гренандер (I, § 4).
14.5. Передача информации фиксированными сигналами 405 где f(t) есть решение интегрального уравнения Т оо оо 5 /?п(«-0/(0^= 2 адЛ(«)- 3 Ш(«) = о k=l k=l = s0(«) — s1(u), 0<u<7\ (14.69) Можно строго показать1), что если сходится в среднеквад- ратичном смысле к интегрируемой в квадрате функции f(t), то отношение правдоподобия определяется равенством (14.68) и /(/) удовлетворяет интегральному уравнению (14.69). Обратно, если интегрируемая в квадрате функция f(f) является решением урав- нения (14.69), то она может быть использована в (14.68) для задания отношения правдоподобия. Если собственные функции Rn(t) не образуют полной системы, то функция f(t) — не един- ственная. В оставшейся части этого параграфа мы будем предполагать, что отношение правдоподобия определяется равенствами (14.68) и (14.69). Во-первых, отметим тесную связь, которая имеется между критерием отношения правдоподобия и фильтром, обеспе- чивающим максимум отношения сигнал/шум, рассмотренным в § 11.7. Предположим для удобства, что sr (Z) =г 0. Определим функ- цию g(t) равенством g(T — t) = f(t), Q<t<T. Тогда уравнение (14.69) принимает вид т т So{u)— Rn(u — t)g(T—t)dt = Rn(u + v — T)g(v)dv, о * о или т s0(T-t)= Rn(v — f)g(v)dv, (14.70) о а неравенство, определяющее критерий, принимает вид т " т g(T-t)y(t)dt>± J g(T-/)s0(Orff + logT|. (14.71) b b Согласно уравнению (14.70), g(t) есть весовая функция фильтра, обеспечивающего максимум отношения сигнал/шум в момент Т при входном сигнале s0(t), 0</<Т, и корреляционной функции шума Rn(f). Следовательно, критерий, определяемый неравенством *) Гренандер (I, § 4.6).
406 Гл.' 14. Статистическое обнаружение сигналов (14.71), требует подачи принятого сигнала y(t) на фильтр, обес- печивающий максимум отношения сигнал/шум и сравнения отклика его с откликом того же фильтра на сигнал s0(y). Вероятности ошибок обоих родов могут быть вычислены непо- средственно, так как при обеих гипотезах log 1{у) является гаус- совской случайной величиной. Если фактически передан был сигнал sx(^), то, используя (14.68), имеем т mZ1 = £ [log/(«/)] = 1 —so(0]^, (14.72) о т т о2 (/) = о2 [log/(«/)]=£ £ f(t)ti(t)f(u)n{u)dtdu~^ = о б = \ Rn(t-u)f(t)f(u)dtdu. (14.73) б о Из (14.69) следует, что может быть записано в форме т т mi1= — у Rn(t — u)f(t)f{u)dtdu. (14.74) о о Теперь вероятность того, что принятый сигнал идентифицируется с s0(/), тогда как фактически был передан сигнал sx(/), равна 1 С Г 1 mh)2l л <т(/)/2Н 3 ехр L 2 <т*(/) \dx' к ' log Т] ИЛИ оо тЬ 5 exp(-4«2)du. (14.75) log n/o(0+o(0/2 Вероятность того, что принятый сигнал идентифицируется с sx(/), тогда как фактически был передан сигнал s0(Z), равна logn /а(0-о(1)/2 тЬ 5 ехр du- (14-76) —оо Если шум является белым шумом и его корреляционной функцией служит импульсная функция Rn (t) = (t), то равенство (14.69) принимает вид Nf(u) = s0(u) — sx («),
14.6. Сигналы с неизвестными параметрами 407 где yv — мощность шума. Подставляя этот результат в (14.68), получаем т т \ ^(tyy^dt-^^s^y^dt- о о т т ~^\sW)dt + ±\s\(t)dt. (14.77) О о Если теперь оба сигнала s0 (t) и Sj (t) обладают равными энергиями, то последние два слагаемых в (14.77) взаимно уничтожаются, и при т) = 1 критерий правдоподобия оказывается очень простым: следует выбрать HQ, если т т \sQ(t)y (t)dt > С sr(t)y(t)dt, (14.78) о о и Нх в остальных случаях. Детектор, осуществляющий критерий (14.78), называется корреляционным детектором. Конечно, кор- реляционная функция, строго говоря, не может быть импульсной функцией; однако постольку, поскольку это связано с интеграль- ным уравнением (14.69), приближенное представление корреля- ционной функции с помощью импульсной возможно, если спек- тральная плотность шума постоянна в диапазоне частот, значи- тельно более широком, чем диапазон частот, занимаемый сигналом. Такая аппроксимация вполне уместна в обычном случае узко- полосных сигналов и узкополосного белого шума; необходимо лишь, чтобы средняя частота соо была намного больше ширины полосы шума, а эта последняя—больше ширины полосы сигнала. 14.6. Сигналы с неизвестными параметрами в белом шуме Более реальную модель принятого радиосигнала, чем та, которая дается выражением (14.52), мы получим, вводя параметры, учитывающие неизвестность амплитуды и фазы сигнала, допол- нительные слагаемые, обусловленные распространением по несколь- ким траекториям, и т. п. Простейшая модель сигнала в гауссов- ском шуме, учитывающая такие факторы, имеет вид У (!) = (/) 4- п (t), 0 < t < Г, / = 0,1. (14.79) Рассмотрим детектирование сигнала, имеющего форму (14.79), при двух статистических предположениях: что ₽ —случайная величина с известным распределением вероятностей и что 0 пол- ностью неизвестно.
408 Гл. 14. Статистическое обнаружение сигналов Используя обозначения предыдущего параграфа, имеем вместо (14.58) Ук = / Pflfe + Zfe при г = 0, I + при г = 1, £= 1, 2, ... . (14.80) Предположим, что 0 — случайная величина, не зависящая от шума n(t) и обладающая плотностью распределения вероятностей р(0). Тогда в выборочном пространстве для первых N из величин yk имеем следующие выражения для плотностей распределения вероятностей: Ро(У1, ;Уя) = — СО ' k=i II РЛУк •••» Уп) ~ оо N - S ехр[-i2рМ- <14-82) — оо ' 1 Л=1 где фактически переданными сигналами являются соответственно 80(^)из1(/). Отношение правдоподобия ^(У1> ,Ук) равно тогда ^(l/i. •, Уп) co N ( ехр [ ₽(₽)</₽ -оо k—l co N (ехр [-42 —оо k=i —Pfrt)2 ]р(М (14.83) Предел lN при Af —> оо есть отношение правдоподобия в выбороч- ном пространстве всех величин yk. Если о величине 0 известно в действительности очень мало, то может быть естественным приписать 0 равномерное распреде- ление между двумя предельными значениями 0L и 02. Тогда р(Р) = |р2-Р1 П₽И I 0 при других р. (14.84)
14.6. Сигналы с неизвестными параметрами 409 После сокращения обоих множителей отношение правдоподобия принимает вид ₽2 N N . ....№) - -й------. С р„п ( о V ЬкУк Р2 V Ьк Л HR Vxplp2j-5|—2 2j-5fJdP Pi fe=l n k=l В очень простой форме выразить его нельзя. Если мы положим V _ V акУк Л2 _ V к yo--2j-52-> Л -2j k=l R h=l * ^=2^' k=i * k=l к TO /jv (У1, • • • > Уя) = - L evn ( ZL _ZLA /?(РгЛ-У,М)-Г(Р,Л-У0М) . " А еАр<2Д2 2В2^ F(p2B-Yi/B)-F(fi1B-Y1/B) ’ где F — нормальная функция распределения — CO В принципе нетрудно ввести параметры с известными плотностями вероятностей, однако, как было показано выше, даже в этом относительно простом примере вычисления оказываются очень громоздкими. Если параметр 0 неизвестен и априорная информация о нем отсутствует, то решение в месте приема сигналов вопроса о том, был ли передан сигнал s0(£) или 5Х(/), сводится к задаче провер- ки двух составных гипотез. Обобщенное отношение правдоподобия в пространстве первых N наблюдаемых координат было вычислено в примере 14.3.5 и определяется равенством (14.38). Предел этого отношения при N —» оо есть отношение правдоподобия в простран- стве всех yk. Такой критерий отношения правдоподобия также можно интер- претировать с помощью фильтров, обеспечивающих максимум отношения сигнал/шум. Используя обозначения cn и djy, введен- ные в (14.37), предположим, что величины с2 = Игл Сп> d2 = lim (14.86) N-+co Д7->оо
410 Гл. 14. Статистическое обнаружение сигналов конечны и что интегральные уравнения т ^о(0Яп(«-0^ = 5о(«), 0<Ы<Т, (14.87) о т 5 fi(t)Rn(u-t)dt = s1(u)t (14.88) о обладают интегрируемыми в квадрате решениями fQ(t) и /х(/). Тогда с помощью рассуждений, аналогичных проведенным при выводе уравнения (14.69), получаем ;o(0=Y-»W, 0</<Т, (14.89а) ±i 0</<7\ (14.896) Л=1 k Согласно (14.38), это дает для логарифма отношения правдоподо- бия в пространстве всех yk выражение т т 10g/(!/) = 2^[ ^o(0i/(0^]2-2^[ $ Если теперь функции gQ (t) и g± (t) определяются равенствами go(T-t) = fo(t), и о< ;t<T, (14.90а) ‘И gAT-t) = M), 0< ;t<T, (14.906) то, согласно (14.71), имеем т т ^gl(y) = ^ [\g0(T-t)y(t)dty- 1 2d2 \gi(T-t)y(t)d4 > L 0 0 (14.91) где go(t) и gi(t) удовлетворяют уравнениям 'Г $ Rn^-t)g0(t)dt = s0(T- V), (14.92а) 0 и т 5 Rn(v-t)g1(t)dt = s1(T- 0 -V), 0<Z<T. (14.926)
14.6. Сигналы с неизвестными параметрами 411 Таким образом, выражения в скобках в (14.91) можно рассматри- вать как сигналы на выходах фильтров, максимизирующих отно- шение сигнал/шум соответственно для сигналов s0(/) и Если сигналы нормированы, так что c2 = d2 и порог правдоподо- бия т)-= 1, то оценка наибольшего правдоподобия может быть осуществлена путем пропускания принятого сигнала через эти два «согласованных фильтра» и выбора s0(t) или sx(Z) в зависи- мости от того, в котором из двух фильтров сигнал на выходе оказывается больше в момент Т (см. фиг. 14.6). Согласованный фильтр для Sj(t) Фиг. 14.6. Оптимальное приемное устройство для приема двоичных сигналов на фоне гауссовского шума. Очевидно, что обобщенный критерий наибольшего правдоподо- бия, который мы только что применили, эквивалентен следующей статистической процедуре. Предполагая правильной гипотезу Но, мы делаем оценку наибольшего правдоподобия для неизвестного параметра (или параметров); оцененное таким образом значение (или значения) используется далее вместо истинного значения параметра при задании плотности вероятностей в выборочном пространстве в условиях гипотезы HQ. Затем делается другая оценка (или оценки) в предположении, что правильной является гипотеза Н19 и найденное значение используется при определении плотности вероятностей в условиях гипотезы Hv Отношение этих двух плотностей есть обобщенное отношение правдоподобия. Та- ким образом, оценка параметра является составной частью всей процедуры проверки гипотез. Рассмотрим вкратце задачу оценки Рит при у (/) = ps (t-т) + п (/), 0 < t < Г, (14.93)
412 Гл. 14. Статистическое обнаружение сигналов где s(t) предполагается теперь определенным как внутри интер- вала 0<£<Т, так и вне его. Пусть т ММ)=$ $s(t-x)<pk(t)dt. (14.94) О ‘ Тогда плотность распределения вероятностей первых N наблю- даемых координат при фиксированных 0 и т равна Р(У1, • Уп', Р> т) = N = (2^'4 ... a.v еХр { “Т 2 [№-sfe(P. г)]2 1 Ok J Уравнения правдоподобия имеют вид •••> z/v; ₽. т)= N — Т)] dsk($, Т) Й=1 log Р (yv..., yN\ ₽, т) = N __ yi , [fffe—Sfc (fl, Т)] dsfe(fl, Т) (14.95) (14.96) Решения этих уравнений для Рит как функций от ylf ...,ум дают оценки наибольшего правдоподобия. Об этих решениях труд- но сказать что-либо, не уточнив формы s (/). Предположим, на- пример, что s(t) в интервале 0<?<Т есть синусоида с целым числом периодов, s (/) = cos т(оо t, соо = у-, и оценим т. Согласно (14.94), т sk (Р, т) = Р $ C0S dt = о = $ck cos /псоот + pdfe sin /жоот, где т ck = cpfe (/) cos т($о1 dt, о т dk = фь (/) sin mxdQtdt. о (14.97) (14.98) (14.99а) (14.996)
14.6. Сигналы с неизвестными параметрами ♦ 413 Подставляя в (14.95) и (14.96) значение sfe(0, т), определяемое равенством (14.98), и производные от sfe(0, т) и исключая 0, полу- чаем tg тсо0т = N N 2 N N (2^)(2Д)-(2^)(2^) — _ _ _ - - ft— 1 ft— 1 ft— 1 ft— 1 (14.10Э) Если пределы существуют, то последнее выражение принимает вид Т т Е J y(t)g{t)dt-C j y(t) h (0 dt tg/n®or = -4--------------, (14.101) £ j y(t)h(t)dt—D ly{t)g(t)dt 6 6 где 2 ,2 = 2Д. я=2Д. £ = У ck dh h=i Rn (u — t)h (t) dt = sin пг(доч, т Rn (u — t)g (0 dt = cos о O^u^T, 0<a<7\ Если шум является белым шумом, то равенство (14.101) приво- дится к виду т J у (/) sin mw$t dt tg /П(йот = 4--------------, (14.102) J у (t) cos m(oQt dt 6 что и следовало ожидать. Главное значение для т, вычисленное из равенств (14.100), (14.101) и (14.102), является тогда оценкой фазы сигнала s(t\ Общие замечания. Сделанный нддои выбор наблюдаемых коор- динат является в известном смысле наиболее естественным приме- нительно к задачам, в которых фигурируют белый шум ц конеч-
414 Гл. 14. Статистическое обнаружение сигналов ное время наблюдений; однако он, конечно, не является един- ственным возможным. Другой естественный способ наблюдений состоит в отсчитывании принимаемого сигнала в дискретные мо- менты времени. Если интервалы между отдельными моментами выбора существенно больше, чем «время корреляции», то выборки являются приблизительно независимыми гауссовскими случайными величинами; следовательно, сравнительно несложно написать при- ближенные выражения для плотности совместных распределений вероятностей отдельных выборок и отсюда вычислять отношение правдоподобия. При этом часть информации, содержащейся в при- нятом сигнале, теряется. Если интервалы между моментами вы- бора взяты короткими, то для вычисления плотности совместного распределения вероятностей выборок нужно обратить соответст- вующую корреляционную матрицу. С помощью выборок в дискрет- ные моменты времени была изучена задача об обнаружении сину- соидального сигнала на фоне шумах). В пределе, когда интервалы между выборками становятся нулевыми, обращение, матрицы пе- реходит формально в решение интегрального уравнения (14.69). В §§ 14.5 и 14.6 мы ограничились случаем так называемой синхронной связи, при которой все символы представляются функ- циями времени с одинаковой длительностью. Быстродействующая радиосвязь с помощью телетайпов обычно удовлетворяет этому условию; код Морзе —не удовлетворяет. Однако символы кода Морзе можно представлять себе разделенными на символы дли- тельностью в основной интервал, удовлетворяющие этому усло- вию* 2). Еслй'точка, тире, промежуток между символами и проме- жуток между буквами имеют относительные длительности, ска- жем, 1,3, 1,3, то длительность точки может быть принята за основной интервал и каждый символ кода Морзе может быть выражен при помощи посылок и промежутков длительностью в этот основной интервал. Вообще, всякий код, состоящий из сим- волов, длительности которых относятся как рациональные числа, может быть, конечно, преобразован в более элементарный код, все символы которого имеют одинаковую длительность. Мы также ограничились посимвольным исследованием приня- того сигнала. При более полном изучении вопроса нужно анали- зировать связи между символами. Параметры, которые мы рас- сматривали как неизвестные постоянные, могут быть действительно постоянными, но могут и меняться во времени, правда, достаточно медленно для того, чтобы на протяжении длительности одного символа их можно было считать приблизительно постоянными. В обоих случаях при приеме каждого символа мы в неявной *) См., например, Райх и Шверлинг (I). 2) Строго говоря, это скорее возможно при автоматической манипуляции, чем при работе вручную.
14.7, Радио локационные сигналы 415 форме получаем информацию, которая может быть полезна при оценке значений параметров, связанных с последующими симво- лами. Одной из наиболее трудных практических задач радиосвязи, к которой может быть плодотворно применена статистическая теория, является упомянутая в §14.1 задача о многоканальном распространении радиоволн на дальние расстояния. Для того чтобы учесть искажения, обусловленные распространением по многим траекториям, необходимы довольно сложные статистические модели принимаемых сигналов. В этой области были получены некоторые результаты, которые читатель может найти в литературе1). Дополнительное ограничение общности выводов §§ 14.5 и 14.6 состоит в том, что материал, изложенный в этих параграфах, относится только к алфавитам, содержащим два символа. Однако наличие более чем двух символов не очень меняет задачу, если только общее число символов остается конечным. Если суще- ствуют априорные вероятности символов, можно найти решение, обеспечивающее минимальную вероятность ошибки; если априор- ные вероятности не заданы, то можно обеспечить максимум правдо- подобия. В обоих случаях ход вычислений по существу остается тем же, что и выше. Если связь осуществляется не с помощью дискретной системы символов, а непрерывными сигналами, как это, например, имеет место при обычной радиотелефонной связи, то задача приема сиг- налов состоит в возможно более точном восстановлении формы переданного сигнала. Таким образом, задача приема сигнала является задачей о сглаживании, аналогичной рассмотренной в гл. 11. Метод наибольшего правдоподобия был применен также и к выделению непрерывно-модулированных сигналов на фоне шума2). 14.7. Радиолокационные сигналы на фоне гауссовского шума Большинство ранних применений статистических методов обна- ружения радиосигналов относится к области радиолокации3). Ис- ходная задача состояла в отыскании оптимального приемника для обнаружения на фоне шума сигналов, излучаемых импульсным передатчиком и.отраженных от объекта; мы ограничимся здесь рассмотрением этого вопроса. Однако статистические методы при- менимы и к изучению многих других радиолокационных задач, таких, например, как обнаружение цели при наличии волнения х) См. Прайс (I и III), Тьюрин (I) и Рут и Питчер (II). 2) Юла (I). 3) См., например, Лоусон и Уленбек (I), Маркум (I), Ганзе (I), Шварц (I), Миддльтон (IV).
416 Гл. 14. Статистическое обнаружение сигналов на море, точное измерение дистанции до цели и ее радиальной скорости с помощью как импульсных радиолокаторов, так и радио- локаторов непрерывного действия, точное измерение азимута и склонения, особенно с помощью сканнирующих локационных устройств. Мы рассмотрим «обычное» радиолокационное устройство, излу- чающее периодическую последовательность прямоугольных импуль- сов радиочастоты. Таким образом, сигнал имеет форму, изобра- женную на фиг. 14.1. Для упрощения будем считать цель непод- вижной и обладающей фиксированной отражающей поверхностью, а радиолокатор — постоянно работающим в одном направлении. Тогда выражение (14.3) для сигнала, отраженного от цели, нахо- дящейся на дистанции г, принимает просто вид у (t) = A (t — т) cos соо (/ — т) + п (/). (14.103) Наконец, будем предполагать, что дальность до цели меняется дискретно с фиксированным интервалом дистанции. Это означает, что промежуток между импульсами разделен на равные интервалы времени, соответствующие интервалам дистанции, и для каждого из интервалов требуется ответить, присутствует ли в нем отражен- ный сигнал или нет. Длительность импульса Т принимается рав- ной длительности этих интервалов (см. фиг. 14.7). Фиг. 14.7. Отраженные импульсы в импульсном радиолокаторе, работающем с дискретным изменением дальности до цели. Если мы обратимся к какому-либо из таких интервалов ди- станции, то задача сводится к’выбору между двумя альтернатив- ными гипотезами: Н^ — что цель отсутствует й Нх~что цель имеется. Будем предполагать, что если цель имеется, то она на- ходится в начале соответствующего интервала дистанции. Таким образом, для одиночного импульса HQ есть гипотеза о том, что некоторая часть принятого сигнала длительностью Т секунд является только шумом, а Нг — гипотеза о том, что эта часть сигнала является суммой синусоиды и шума. Итак, мы имеем здесь дело со специальным случаем задачи о проверке гипотез,
14.7. Радиолокационные сигналы 417 рассмотренной в § 14.5. В соответствии с равенствами (14.70) и (14.71) мы видим, что, согласно критерию наибольшего правдо- подобия, выбирается Я1, т. е. делается вывод о наличии цели, если т — t)y(t)dt > const, (14.104) где g(t) задается равенством т Rn(v-t)g(v)dv=cos(dQ(T-t), (14.105) о а константа зависит от уровня значимости критерия. Согласно обычной радиолокационной терминологии, коэффициентом ложной тревоги называется среднее отношение числа ложных обнаруже- ний цели к общему числу наблюдений, при которых цель отсут- ствует. Таким образом, коэффициент ложной тревоги равен веро- ятности отказаться от гипотезы Но в тех случаях, когда на са- мом деле HQ правильна; иначе говоря, коэффициент ложной тре- воги равен уровню значимости критерия. В примере 14.3.1 было показано, что критерий наибольшего правдоподобия для ylf ..ух является равномерно наиболее мощным критерием проверки нуле- вой гипотезы Но относительно составной гипотезы, включающей в себя все положительные амплитуды сигнала. Развитые там соображения непосредственно переносятся на предельный случай /V —>оо, и, следовательно, описанный выше критерий является равномерно наиболее мощным для своего уровня значимости (или коэффициента ложной тревоги) критерием проверки гипотезы о том, что в принятом сигнале содержится отраженное от цели эхо любой положительной амплитуды. Обычно в практике радиолокации приходится иметь дело с последовательностью отраженных импульсов, а не одним импуль- сом. Предположим, что радиолокатор работает в одном направле- нии достаточно долго для того, чтобы могли вернуться К отра- женных импульсов, и опять-таки рассмотрим только один интервал дистанции. Характерный образец принятого сигнала изображен на фиг. 14.7. Будем, далее, предполагать, что вполне естественно, полосу частот шума настолько широкой, что значения шума, отстоящие одно от другого на период повторения, можно считать полностью некоррелированными. Таким, образом, шум, наклады- вающийся на всякий отраженный импульс (см. фиг. 14.7), не зави- сит от шума, накладывающегося на другие импульсы. Пусть период повторения импульсов равен То, а время изме- ряется от переднего края рассматриваемого интервала дистанции, следующего за каждым импульсом. Пусть, далее, y(1)(O = f/(O> 27 Заказ № 57
418 Гл. 14. Статистическое обнаружение сигналов — сигнал, принимаемый после излучения первого импульса, у<2> ц) = у (t + То), 0 < t < Т, — сигнал, принимаемый после излуче- ния второго импульса, и т. д. Предположим, что модулирующие импульсы строго фазированы относительно несущей частоты, так что сигналы s^t) для всех излученных импульсов одинаковы. Пусть т т y^={y^(t)<fm(t)dt, (14.106) Ъ т y™=\yW{t^m{t)dt. о Тогда, поскольку у(т не зависят от ym\ р ¥= q, мы имеем для плотностей распределения вероятностей Ро• • • > № ...у№ = 1 х Хехо!--L У У Х Р1 2 2J < 2 ZJ а*т (14.107) ш=1 если цель отсутствует, и PM",--; У&', У?.....У^\..., <>1 = 1 X (2k)nk^ ...О*Х {N -4 S т—1 1 N b I2 1 x1 L”m °ml 2 2j — (14.108) если цель имеется. Логарифм отношения правдоподобия равен к N Ьг N uayb N uiK>b i°bW....... m=i m=l m=i (14.109) Переходя к пределу и определяя функцию f(t) уравнением (14.69), получаем т log/(»)= Vw[y(1)W + ^(2) (0+--.. +р(К)(0—(14.110)
14.7. Радиолокационные сигналы 419 Эта формула для log I (у) позволяет, как и раньше, интерпрети- ровать критерий отношения правдоподобия при помощи фильтра, максимизирующего отношение сигнал/шум. При этом имеем сле- дующий результат. Принятый сигнал, соответствующий выбран? ному интервалу времени, после излучения каждого импульса подается в такой фильтр. Отклики фильтра в конце каждого интервала сохраняются, и после получения К импульсов все отклики суммируются. Если их сумма превосходит некоторый установленный ' порог, то принимается решение о наличии цели. Это опять-таки равномерно наиболее мощный критерий для своего уровня значимости относительно любой положительной амплитуды сигнала. Согласно равенству (14.110), log I (у) является гауссовской случайной величиной, так что вероятность ошибки каждого рода может быть вычислена по средним значениям и дисперсиям. При обозначениях, принятых в (14.72) и (14.73), вероятность того, что цель не будет обнаружена, равна или 1 ]/2л оо к log Т] ОО ехр — dx, 1 (х-Кт^Л 2 Ка2(/) (14.111) 1 /2лКп(/) а вероятность ложной тревоги— W 5 ехр(-|В")й,. (14.112) При /С=1 эти вероятности ошибок переходят, конечно, в выра- жения (14.75) и (14.76). Формулы (14.111) и (14.112) для вероятностей ошибок такие же, как если бы вместо Л импульсов принимался бы только один импульс, но с амплитудой, в ]//( раз большей. В этом легко убедиться, умножая sjj) на "|/7С и подставляя в (14.69), (14.72) и (14.73). Итак, эффективное отношение сигнал/шум по напряже- нию на выходе приемника (при детекторе рассмотренного типа) пропорционально квадратному корню из числа принятых независи- мых отраженных импульсов. Детектор, выделяющий огибающую. В предыдущем разделе «принятый» сигнал, который мы теперь будем обозначать через z(/), считался равным z(/) = Si(/) + "(0, * = 0, h 0<Z<T, so(f) = 0, (14.113) 27*
42J Гл. 14. Статистическое обнаружение сигналов где п (/) — гауссовский шум. Согласующие фильтры, разработан- ные для оптимального приема таких сигналов, иногда затрудни- тельно выполнить практически, так как они чувствительны к фазе радиочастоты. Поэтому часто желательно сначала получить огиба- ющую сигнала, т. е. выпрямить сигнал и обычным образом про- пустить его через фильтр низких частот так, чтобы перед спе- циальной обработкой сигнала в нем остались только составляющие модулирующих частот. Следует понимать, что некоторая часть содержащейся в сигнале информации при этом теряется. Имея дело с сигналом z\t), описываемым равенством (14.113), целесообразно разложить z(t) в ортогональный ряд, используя собственные функции корреляционной функции шума, так как случайные коэффициенты такого разложения являются гауссов- скими и независимыми. Мы, однако, ничего не выиграем, разлагая в такой ряд огибающую z(t), ибо при этом коэффициенты не являются уже ни гауссовскими, ни независимыми. Следовательно, нужно выбрать другую систему наблюдаемых координат. Обычная процедура, которой мы будем следовать здесь, состоит в том, что в качестве наблюдаемых координат берутся выборочные зна- чения огибающей через равные интервалы времени, достаточно большие для того, чтобы отдельные выборки можно было с удовле- творительным приближением считать независимыми. Как и прежде, будем предполагать, что период повторения импульсов разделяется на интервалы равной длительности и что требуется определить наличие эха от отражающего объекта в каждом из этих интерва- лов. Упрощающие предположения, сделанные в предыдущем раз- деле, сохраняются и здесь. Предположим также, что радиолокатор работает в заданном направлении настолько долго, что принято К отраженных импуль- сов, и рассмотрим некоторый частный интервал дистанции. В ка- честве наблюдаемых координат .., ук выберем последователь- ность значений огибающей по одной в рассматриваемом интервале времени после каждого излученного импульса. Сигнал на входе второго (демодулирующего) детектора прием- ного устройства радиолокатора равен, как и прежде, z(0 = 5i(0 + "(0> f = О, 1, so(/) = 0. Его можно записать в форме узкополосного сигнала. Согласно равенству (8.82), имеем z(t) = Aicoscocf + хс(/)cos— xs(^)sincD^, i = 0, 1, (14.114) Ло = 0, = const, где xct и xst — гауссовские случайные величины, обладающие свой- ствами, изложенными в § 8.5. Пусть детектором служит идеаль- ный детектор, выделяющий огибающую; тогда сигнал на выходе
14.7. Радиолокационные сигналы 421 его у (/), согласно (8.79) и (8.85а), равен «/(0 = {[А + ^(0]2 + ^(0}’/2. » = 0, 1. (14.115) Согласно равенству (8.91), плотность распределения вероятностей огибающей в момент t в предположении, что измеряемым сигналом является только шум, равна yt ^•ехр рЛу^ = у1 \ при при yt < О, (14.116) где Оп = ^п(0). Если измеряемым сигналом является сумма сину- соиды и шума, то, согласно (8.115), плотность распределения вероятностей для огибающей равна yt ! yt+Al\ , (AiVt\ . Л 7^ехР(-----при у»>0’ ип \ zun / \ ип / при yt < 0. Поскольку отдельные yk приближенно независимы, отношение вероятностей для выборок уг = yti, ..., ук = yt с хорошим при- ближением может быть записано в виде к П PM к , ,2 X ( А X Мй.......--------------(14-1|7) П *=‘ Итак, критерий отношения правдоподобия состоит в выборе гипо- тезы Нг (цель имеется), если К 2 log/0(^)>-1оёП += const (14.118) fe=l Функция Бесселя /0(z) имеет разложение в ряд ОО VI z2m Zo (z)= 2j 22т(т!)а ". 771=0 Если, следовательно, отраженный от цели сигнал имеет малую амплитуду (малое отношение сигнал/шум), то верно приближенное равенство
422 Гл 14. Статистическое обнаружение сигналов Используя следующее приближение, верное для малых значений аргумента, log(l+a) = a, (14.120) критерий, определяемый равенством (14.118), можно свести при малых сигналах к критерию к 3 У1 > const, ”fe=l или просто 1 yl > const. (14.121) k=l На практике применение аппроксимации, пригодной для слабых сигналов, часто оправдывается следующими соображениями: де- тектор, близкий к оптимальному, необходим только для слабых эхо-сигналов, ибо сильные сигналы могут быть обнаружены и с по- мощью приемника, далекого от оптимального. Вместе с тем описан- ный выше критерий легко применить, так как у% суть попросту сигналы на выходе квадратичного детектора, отсчитываемые через равные промежутки времени. Вероятности детектирования приме- нительно к квадратичному детектору, выделяющему огибающую, табулированы Маркумомх). Фазовый детектор. В качестве заключительного примера рас- смотрим так называемый фазовый детектор, который может быть полезным при обнаружении движущихся объектов. Мы опять-таки будем искать критерий наличия эхо-сигналов, отраженных отдели в фиксированном интервале дистанции. Предположения, сделанные в предыдущих примерах, сохраняются и здесь. Сигнал на входе детектора определяется равенством (14.114), которое может быть переписано в виде z (0 = уг (0 cos [cocZ + (/)], i = 0, 1, (14.122) где 1/о(О = [^(О + ^(О]1/г. i/i(0H[A+*c(0]2+*W/s И ’•(f>=arcts[4t>L <14Л23> P1(O = arctg[^W,)]. l) Маркум (I).
147. Радиолокационные сигналы 423 В качестве наблюдаемых координат берется последовательность К значений фазы ср (t) по одной в рассматриваемом интервале времени после каждого излученного импульса (эти значения фазы сами по себе должны находиться с помощью соответствующей проце- дуры оценки; см. § 14.6). Если имеется только шум, то плотность распределения вероятностей для фазы в некоторый момент t имеет вид / ч ( при — Л<ф<Л Ро(ф1)= 2я I 0 при других ф. (14.124) Если, помимо шума, в сигнале присутствует синусоидальная составляющая, то плотность распределения вероятностей для ф4 равна произведению р(фр ф) на 2л0, как это следует из (8.118). При большом отношении сигнал/шум, когда Af/2an много больше 1, ф(/) обычно мала и в качестве приближенного выражения для плотности р(ф<? ф) можно использовать формулу (8.114). Заме- няя cos ф* на 1 и зтф, на ф, и умножая на 2л с тем, чтобы полу- чить плотность р(фг) для фиксированного ф, находим Pl(<pt)= 1 41 / О при -л<(р«,л, при других ф. Тогда отношение правдоподобия для К независимых выборок равно 1‘^...’ и мы приходим к следующему критерию правдоподобия: цель отсутствует, если к 2 ф! > const. (14.125) k=i Этот критерий можно слегка изменить и сделать применимым к обнаружению целей, движущихся относительно радиолокатора с известной постоянной скоростью. Движение объекта приводит к допплеровскому изменению частоты. При импульсах обычной длительности и для таких целей, как корабли или самолеты, это изменение частоты на протяжении одного импульса при- водит к почти незаметным изменениям фазы. Таким образом, можно считать, что чистый эхо-сигнал на протяжении одного импульса имеет постоянную фазу, но от импульса к импульсу фаза эта нарастает по линейному закону. Следовательно, k-n отра-
424 Гл, 14. Статистическое обнаружение сигналов женный импульс должен иметь фазу yk, где у —постоянная, зави- сящая от скорости цели. В этом случае в качестве наблюдаемых координат выбираются не cp(/ft), а cp(/fe) — ky, и условие отсут- ствия цели, обладающей заданной скоростью, принимает вид к 3 (фь — kyY > const. 14.8. Задачи I. Найти критерий проверки гипотезы Но относительно обеспечивающий минимум ожидаемых потерь, в следующих предположениях. Яо есть гипотеза о том, что наблюдаемое действительное число х имеет равномерное распре- деление Ро W = — при О при других х, а Н1—гипотеза о том, что х имеет распределение г . 1 Г х2Л Априорные вероятности равны: зт0= 1/4; л1 = 3/4. Потери, связанные с ошиб- ками обоих родов, одинаковы. Найти полную вероятность ошибки. 2. а) Показать, что отношение правдоподобия, определяемое равенством (14,30). дает критерий проверки гипотез, эквивалентный критерию, исполь- зующему тах АоО i'(y)= aQ , х тахрю(1/) (О или тахр (у) /"(у)=—------TV ' тахрш(у) (0 б) Пусть HQ—простая гипотеза, состоящая в том, что наблюдаемое^дей- ствительное число х распределено по закону ^w=i4e-x2/2’ а Нг (Ь)— простая гипотеза, состоящая в том, что е-Ь|х|. Наконец, пусть —сложная гипотеза, включающая в себя все НА (Ь) при b > 0. Найти обобщенное отношение правдоподобия для проверки гипотезы //0 относительно Нг, ' " 3. Пусть р\у,а) — семейство плотностей распределений вероятностей Р(*Л «) = при у< а—1, при а—1 С #<«, при а< #< «4-1. 0 у+1—а — уЛ~ 1 + я 0 при «4~1 < У-
14.8. Задачи 425 Оценить параметр а, максимизирующий отношение правдоподобия, если а) сделано одно наблюдение уг величины у: У1 = 2; б) сделаны три независимых наблюдения величины у: </1 = 1. </а = 2у, у3==2. 4. Из совокупности, о которой известно, что она распределена по гаус- совскому закону с неизвестными средним значением т и дисперсией о2, полу- чено N независимых выборок уи ... , у у. а) Показать, что оценкой наибольшего правдоподобия для среднего являет- ся выборочное среднее у, определяемое выражением • у=ъ 2 /1=1 ' а для дисперсии— выборочная дисперсия s2, равная N 42^- fe=l б) Показать, что у есть несмещенная оценка для т, a s2—смещенная^оценка для ст2. В частности, £ (s2) —* о2 5. Пусть форма принимаемого сигнала описывается равенством у (t) = si (O+n(0, 0<Z< 2л, /=0, 1, где s0 (/) = cqs 3t, (0=cos 2/, n (t) = cos t-\-x2 sin t, a Xj и x2— независимые гауссовские случайные величины с нулевыми средними значениями и дисперсиями о2. Найти функцию ф (/), для которой с вероятностью* единица 2л { “ n₽“s°g’ J Y 4 7 y v f I b при Si (0, 0 где a^b. Это пример экстремального сингулярного случая, описанного* в § 14.5. Заметим, что, согласно приведенному выше выражению для шума п(0, он уже разложен в ортогональный ряд, определенный в § 6.4. 6. Пусть s0(0 3=0, st(0 = O, 0<Z<7\ В § 14.5 показано, что при при- нятых нами обозначениях сингулярный случай имеет место [т. е. возможно идеальное обнаружение сигнала s0 (0 на фоне шума], если
426 Г л. 14. Статистическое обнаружение сигналов Предположим, что система связи или радиолокации может быть изображена в виде схемы, приведенной на фиг. 14.8. Шум n(t) образуется в результате прохождения белого шума, возникающего в антенне, через входной фильтр приемника. Наводимый в антенне сигнал также проходит через этот фильтр. *(t) Передающее устройство Фиг. 14.8. Приемное устройство Белый шум Схема к задаче 6» y(t)=s(t)+n(t) Сигнал х (f), излучаемый передатчиком, произволен, за исключением того, что «он должен быть интегрируем в квадрате. а) Исходя из того, что Т a-k— <Ph(Oso(0^, О показать, что 4-00 ah= X(f)H(j2nf)Ok(f)df, —ОО «где 4-00 X(f) = x(t)e~j2n/tdt — ОО И 4-оо Т ®k(f) = <pk(l)e~}2nft dt= Фк(0е-,2я/‘ dt. —ОО 6 б) Показать, что +°° ( 2 < J [Я* (/2л/) Фт (f)] [Н (j2«f) Ok (/)] df= ( ™ —OO в) Исходя из результата пункта б), показать, что для некоторой системы 'чисел Ck X(f}=^-^-H* (j2nf) Ok (/) + и (f), k к где f U(f)H(J2xf)<Dk(f)df=0. — OO
14.8. Задачи 427 г) Используя результаты пунктов а), б) и в), показать, что 2 +°° 51х2(0|Л k —со я, следовательно, идеальное обнаружение сигнала в данной ситуации невоз- можно. 7. В связи с приближением для оптимального фильтра, основанным на введении полосового белого шума, рассмотрим интегральное уравнение т R(t—u)f (u)du = s(t), (14.126) О Предположим, что s(t)—узкополосный сигнал со средней угловой часто- той сос, а /?(/)— корреляционная функция узкополосного шума с той же средней частотой. Запишем s (/) = a (t) cos cocZ-(-6 (0 sin <ocZ, R (t) = Rip (t) cos toct. а) Показать, что при больших <ос функция f (и) определяется выражением f (u) = g(u) cos сос«+Л(и) sincocH, где g (и) и h (и) удовлетворяют уравнениям т Rlp(t—u)g(u)du = 2a(t), О т Rlp(t—u)h(u) du = 2b(t). b б) Пусть RLp(t) — pe~~^ 1*1 и a (t) = cos coMZ, 6(0-нО. Показать, что если ширина полосы шума много больше чем ширина полосы сигнала 0 > (о^, то функция f (и) = cos (i)MU cos соси приближенно удовлетворяет уравнению (14.126) всюду, кроме крайних точек интервала 0 t <1 Т. 8. Пусть принимаемый сигнал равен = Z = 0, 1, где т sl(t)dt=\, Z=0, 1, О т s1(t)so(t)dt = O, о a n(t) — белый шум с корреляционной функцией R (t) = Nd (Z). На приемном конце принимается решение о том, что было передано s0 (Z), если т т y(i)sa(f)dt> y(f)S!(t)dt, 6 о
428 Гл. 14. Статистическое обнаружение сигналов и о том, что было передано s2 (/), в остальных случаях. Априорные вероят- ности как $э (0, так и Si (t) равны 1/2. Найти полную вероятность ошибки при jV=O,l; 0,5; 1; 2. 9. Найти отношение правдоподобия, определяемое равенством (14.83), если р(0)— гауссовская плотность со средним значением т и дисперсией а* 2. 10. Пусть 62 где n(t)—стационарный гауссовский шум, s(t)—известная функция, а 0 неиз- вестно. Найти оценку £ для 0: I. Имеющую вид Т 0 = f (14.127) о где /(/) — интегрируемая в квадрате функция. II. Несмещенную, т. е. такую, для которой (0) = 0. III. Оценку, обладающую среди всех оценок, удовлетворяющих условиям I и II, наименьшей дисперсией. Найти эту оценку, непосредственно минимизируя дисперсию 0, задавае- мую равенством (14.127), при условии II. Если уь и определяются соответственно равенствами (14.56), (14.57) и (14.54), то в результате полу- чается оценка, являющаяся пределом оценки (14.46) при N—>оо. 11. Согласно равенству (14.121), критерий обнаружения слабого сигнала прй использовании оптимального детектора выделяющего огибающую, имеет вид К 2 > T) = const, где плотность распределения величины yk задается равенством (14.116) гв слу- чае чистого шума и равенством (14.117) в случае суммы сигнала и_шума. Показать, что вероятность ложной тревоги равна Р (ложной тревоги) = П (К-1)1 e~z dz, а вероятность обнаружения цели, когда она действительно есть, равна г) оо Р (обнаружения) = е~*~Ку dz, И где у = ^2/20п- (Указание: использовать преобразование Фурье оо 1 С 1 Г jncrk 1 . ч,, 2л J (1—A)n ехр L1—A J ехР(— —оо = Cw^)(n 1/2>е_г_па/п-1 (2/пог) n=i; 2, ... , которое можно путем замены переменной получить из обычного интегрального представления In (г) 2).) х) Маркум (I). 2) Уиттекер и Ватсон (I, § 17.1)
ПРИЛОЖЕНИЕ 1 ИМПУЛЬСНЫЕ ФУНКЦИИ П.1.1. Определения Единичная импульсная функция б(х--х0), называемая также дельта-функцией Дирака, по определению,'равна бесконечности, когда ее аргумент равен нулю, и нулю при остальных значе- ниях аргумента, причем площадь под ее графиком равна единицех). Таким образом, со при х = х0, о (х — х0) = < л [ 0 при х Ф xQ (П.1.1) и (П.1.2) Далее, часто желательно определять эту импульсную функцию так, чтобы она была четной функцией своего аргумента: б (х — х0) = б (х0 — х). (П. 1 .За) В этом случае *0 +°о б(х — x0)dx = y= б(х —x0)dx. (П.1.36) х0 Предположим, что единичная импульсная функция интегрируема по интервалу ( —оо, । X). Тогда результат интегрирования будет лавен нулю, половине или единице в зависимости от того, будет ви X соответственно меньше х0, равно х0 или больше х0. Следо- рательно, х б (х — х0) dx = U (X — х0), (П. 1.4) —оо где U (х—х0) — функция единичного скачка: | 0 при х < х0, U(x — х0) = < при х=х0, (П.1.5) ( 1 при х > х0. 1) См Гиймен (I, гл. VII, §§ 24 и 25) или Ван дер Поль и Бреммер (I, гл. V)’.
430 Приложение 1. Импульсные функции Таким образом, функция единичного скачка является интегралом от единичной импульсной функции, и мы, следовательно, можем рассматривать единичную импульсную функцию как производную от функции единичного скачка. Итак, U' (х — х0) = 6 (х — Xq). (П. 1.6} Единичная импульсная функция и функция единичного скачка изображены на фиг. П.1.1. Площадь равна единице ---< и—......।+ о -- а--------------------------------------------------------б Фиг. П. 1.1. Сингулярные функции: а—единичная импульсная функция; б—функция единичного скачка. Хотя с математической точки зрения определение импульсной функции не вполне корректно1), свойства ее часто оказываются весьма полезными. Например, с помощью единичной импульсной функции мы распространили понятие плотности распределения вероятностей на случай дискретных случайных величин. Для того чтобы сделать введение единичной импульсной функции, или, вернее, операции, которые мы будем производить с ее помощью, более обоснованными, часто удобно рассматривать единичную импульсную функцию как предел бесконечной последовательности обычных функций. Рассмотрим прямоугольную импульсную функцию fa(.X-X0) = при х0 — а < х < х0 + а, 0 при других х, (П.1.7) где а>0. Эта функция изображена на фиг. П. 1.2. Для нее при всех а > 0 4-00 ) fa(x-x0)dx=\. —оо Если мы теперь положим а—>0, то ширина импульса будет стремиться к нулю, высота —к бесконечности, а площадь под х) Корректные определения импульсных функций даются в теории обоб- щенных функций. См., например, Гельфанд и Шилов (I). — Прим, ред.
П. 1.2. Интегралы с дельта-функцией 431 графиком будет оставаться постоянной и равной единице. Таким образом, единичную импульсную функцию можно рассматривать как предел последовательности прямоугольных импульсных функций: б(х — x0) = limfa(x — х0)- (П.1.8) а->0 Прямоугольная импульсная функция является простым и удобным прототипом импульсной функции, но она. разрывна. В некоторых Фиг. П.1.2, [а—прямоугольная импульсная функция; б—гауссовская импульсная функция. задачах более удобно использовать в качестве такого прототипа функции, обладающие производными. Одной из них является гаус- совская импульсная функция ёа (х - Хо) = -pL- ехр [ - а2 (х - х0)2], (П. 1.9) где а > 0. Эта функция также изображена на фиг. П.1.2. Для всех значений a > 0 *) +°° ga(x-x0)dx = 1. —оо Далее, при а-г>оо высота ga(x — х0) стремится к бесконечностиТ а края сближаются к нулю. Таким образом, в пределе при а—> оо гауссовская импульсная функция удовлетворяет определению еди- ничной импульсной функции, и мы можем положить б (х — х0) == lim ga (х — х0). (П. 1.10) а->оо П.1.2. Интегралы с дельта-функцией Рассмотрим интеграл /= f(x)6(x— x0)dx, —оо 1 1) См. Двайт [I, равенство (861.3)].
432.Приложение 1. Импульсные функции где 'функция f(x) непрерывна в точке xQ. Согласно свойствам единичной импульсной функции, подинтегральное выражение / отлично от нуля только в точке х = х^. Таким образом, интеграл зависит от значения f(x) только в точке х = х0, и мы можем написать 1 = н*о) б(х — x0)dx. ' —оо Поэтому,. используя (П.1.2), имеем +» f (х) б (х — х0) dx = f (х0). (П.1.11) Итак, для [вычисления интеграла от произведения некоторой заданной функции на единичную импульсную функцию в точке х0 нужно просто вычислить значение заданной функции в этой точке. П.1.3. Преобразования Фурье Преобразование Фурье А (и, х0) единичной импульсной функции б(х — х0) равно A (u, х0) = 6(x—x0)e~3UXdx. (П.1.12) —ОО Согласно сказанному в предыдущем параграфе, Д(а, х0) = ^% (П.1.13) и, следовательно, Д(«, 0)=1. (П.1.14) Формальное применение обратного преобразования Фурье дает 4-00 $ e~iuxoeiuxdu = 8(x-xo) (П.1.15) —оо И 4-оо leiuxdu = d(x). (П.1.16) —оо Из равенств (П.1.3) и (П.1.14) мы видим, что как единичная импульсная функция б (х), так и ее преобразование Фурье — четные
ПЛ.4. Производные импульсных функций 433 функции. Следовательно, 4-00 6 (х) cos их dx = 1 — оо и 1 Г 2^ \ lcos«xdx = 6(x). (П.1.17) —-ОО В соответствии с равенствами (П.1.12) и (П.1.15) и тождеством eivxo 1 e~iuxo cos их0 =-------------------------~, получаем пары преобразований Фурье 4-00 [б(х — x0) + 6(x4-x0)]e“,uxdx==cos их0 — ОО И 4-00 cos ихое,их du = ±-[&(х — х0) + б(х + х0)]. (П.1.18) —оо Поскольку как cosux0, так и оба импульса являются четными функциями, последние равенства можно переписать в виде оо у [б (X — Хо) + 6 (х + х0)] cos их dx = cos их0 —оо и 1 V° 1 \ cos их0 cos их du = [6 (х — х0) +6 (х + х0)]. (П.1.19) —оо П.1.4. Производные импульсных функций1) Согласно равенствам (П.1.5) и (П.1.7), прямоугольная импульс- ная функция может быть выражена через функцию единичного скачка: fa (X - х0) = A. {U [х _ (х0 _ а)] _ и [х - (х0 + а)]}; (П. 1.20) х) См. Ван дер Поль и Бремер (I, гл. V § 10). [Или Гельфанд и Шилов (I, гл. 1, § 2).—Прим, ред.] 28 Заказ №57
434 Приложение 1. Импульсные функции следовательно, производная ее, согласно (П.1.6), равна + Ф (п.1.21) Проинтегрируем теперь произведение этой производной на неко- торую функцию f(x), имеющую в точке х = х0 непрерывную про- изводную. Используя равенство (П.1.11), получим 4-00 5 f(x)f'a(X-X0)dx = —ОО 1 Г = 27 \ fW{6[^-(^0-«)]-6[x-(x0 + a)]}dx = _ f (х0—a)—f(x0+a) 2а Предел этого выражения при а —»0 равен взятому с обратным знаком значению производной от f(x) при x = xQ: lim f (х) fa (х — х0) dx = — f' (x0). (П.1.22) a->0 J —oo ' Определим производную от единичной импульсной функции как соответствующий предел производной одного из ее прото- типов; например, 6' (х — х0) = lim fa (х — х0). (П. 1.23) а->0 Тогда мы можем переписать равенство (П. 1.22) в виде’ 101 4-00 { f(x)6'(x-x0)dx =-f'(xj. (П.1.24) V — оо Следовательно, интеграл от произведения некоторой заданной функции с непрерывной при х = х0 производной на производную от единичной импульсной функции в точке х0 равен взятому с обратным знаком значению производной от заданной функции в этой точке. Аналогично п-я производная от единичной импульсной функ- ции может быть определена как предел n-й производной одного из ее прототипов. При этом можно показать, что если f(x) имеет в точке х = х0 непрерывную п-ю производную, то f(x)6(n\x-x0)dx = (-- \)nf™(x0). (ПЛ.25)
П.1.4. Производные импульсных функций 435 Поэтому 'преобразование Фурье от n-й производной импульсной функции равно -4-00 Дп («, хо) — § 6<п> (х — хо) e~iux dx = (ju)ne~,vxo. — ОО единичной (П.1.26) Следовательно, согласно (П.1.13), Дп (u, х0) = (Jи) A (u, Xq). (П.1.27) 28*
ПРИЛОЖЕНИЕ 2 ИНТЕГРАЛЬНЫЕ УРАВНЕНИЯ1) В гл. 6, 9, 11 и 14 мы имели дело с некоторыми линейными интегральными уравнениями. Это были или уравнения вида R (s, t) ф (/) dt = Ахр (s), а < s < b, (П.2.1) где а и Ь — постоянные, 7? (s,/) —корреляционная функция, аА и ф(0 —неизвестные, или уравнения вида (П.2.2) где a, b, 7?(s, t) имеют тот же смысл, у (s) — известная, а х(0~ неизвестная функция. Как в (П.2.1), так и в (П.2.2) функция 7?(s, t) называется ядром уравнения. Мы изложим здесь неко- торые стандартные результаты теории интегральных уравнений, относящиеся к уравнениям вида (П.2.1) и (П.2.2). Сначала, однако, необходимо ввести ряд определений. П.2.1. Определения2) Действительная или комплексная функция f (/) действитель- ного переменного t называется интегрируемой в квадрате в интер- вале если (П.2.3) Из определения следует, что если функция f(t) интегрируема в квадрате, то таковы же комплексно сопряженная с ней функ- ция /*(/) и модуль |f(OI- х) См. также Смирнов (I, т. IV и т. V).— Прим. ред. 2) См. Курант и Гильберт (гл. II и III). Эти авторы рассматривают главным образом класс кусочно-непрерывных функций, являющийся подклассом функ- ций, интегрируемых в квадрате.
П.2.1. Определения 437 Для двух интегрируемых в квадрате функций f(t) и g(f) можно показать (используя неравенство Шварца), что интеграл ъ а существует. Если ь р (t)g* (t)dt = O, (П.2.4) а то функции /(/) и g(f) называются ортогональными друг другу в интервале Если ь $|/2(0|^ = 1, а то функция f(t) называется нормированной. Система функций fk(t) (конечная или бесконечная) называется ортогональной, если всякая пара функций этого класса ортогональна. Если, кроме того, все fk(t) нормированы, то они образуют ортонормированную систему функций. Система ортогональных функций fh (t) называется полной в классе функций, интегрируемых в квадрате в интервале если произвольная функция g(t), интегрируемая в квадрате на может быть сколь угодно точно в среднеквадратичном смысле аппроксимирована линейной комбинацией функций т. е. если существуют такие константы ак, что lim N-»oo К [g(0-S ahfk(t)]2dt = O. fe=i (П.2.5) Мы запишем это в виде g(f) = l.i.m. 1] ahfh(t), К->оо /г==1 где «l.i.т.» означает предел в среднем (limit in the mean). Функция, непрерывная в конечном интервале всюду, за исклю- чением, быть может, конечного числа точек, и имеющая в этих точках с обеих сторон конечные пределы, называется кусочно- непрерывной. Такая функция всегда интегрируема в квадрате в любом конечном интервале а</<6. Однако существуют функ- ции, интегрируемые в квадрате, но не кусочно-непрерывные. Функция двух переменных t), удовлетворяющая условию K(s, = s), (П.2.6)
438 ? Приложение 2. Интегральные уравнения называется симметричной1}. Если /С (s, ^ — действительная функ- ция, то последнее условие принимает, конечно, вид K(s, = s). Симметричная функция /<(s, /), обладающая тем свойством, что для всякой интегрируемой в квадрате функции g(s) ъ ъ К (s, t)g(s)g*(t)dsdt>O, (П.2.7) а а называется неотрицательно определенной2). Еслй здесь символ > можно для всякой функции g*(?), удовлетворяющей условию ь 5 \g(t)\2dt > о, а заменить символом >, то функция К (s, t) называется положительно определенной2). Как было показано в гл. 6, корреляционные функ- ции /?(s, t) удовлетворяют условиям (П.2.6) и (П.2.7); следова- тельно, они являются неотрицательно определенными. Они могут быть, но могут и не быть положительно определенными. П.2.2. Теоремы Теперь мы можем сформулировать без доказательства основные теоремы3), относящиеся к интегральным уравнениям вида (П.2.Г). Если функция /? (s, t) симметрична и ь ь ^|#(s, t)\2dsdt < ОО, (П.2.8) а а то уравнение (П.2.1) удовлетворяется по крайней мере при одном действительном числе А, #= 0 и некоторой функции ф(/), для которой ь о < 1ф(0М< а Число % и функция ф(/), удовлетворяющие уравнению (П.2.1), называются соответственно собственным значением и связанной *) См. Курант и Гильберт (I, стр. 122). 2) Эта терминология не является установившейся. Часто, например, вместо нашего термина «неотрицательно определенная» употребляется термин «поло- жительно определенная», а вместо нашего «положительно определенная» — «строго положительно определенная». 3) Курант и Гильберт (I, гл. III, §§ 4 и 5). См. также Рисе и Надь (I, гл. IV).
П.2.2. Теоремы 439 с ним собственной функцией интегрального уравнения. Они обла- дают следующими свойствами: 1. Если фх(/) и Ф2(0~ собственные функции, связанные с соб- ственным значением X, то афх(0 + &ф2(0> гДе а и Ь — произволь- ные числа, также есть собственная функция, связанная с X. В частности, каждому собственному значению X соответствует по крайней мере одна нормированная собственная функция. 2. Если Х& и Хт —различные собственные значения, то соб- ственные функции фь(^) и фгп(/)> связанные соответственно с Xft и Хт, ортогональны. 3. Имеется не более счетного множества (последовательности) собственных значений Xft, и всегда можно указать константу А < оо, для которой при всех k | Kk | < А. 4. Со всяким собственным значением Xfe связано не более чем конечное число Nk линейно независимых собственных функций. Целое число Nk называется кратностью собственного значения Xft. Всякие Nk линейно независимых собственных функций можно с помощью процесса Грама —Шмидта преобразовать в Nk орто- нормированных собственных функций. Таким образом, если считать каждое значение Xfe столько раз, какова его кратность, то можно построить последователь- ность собственных значений Хх, Х2, ... (конечную или бесконеч- ную) и соответствующую последовательность ортонормированных собственных функций фх(^), ф2(0> •••> в которой всякая функция Фь(0 будет связана с соответствующим Xft, причем не будет суще- ствовать собственных функций, ортогональных ко всем qk(t). 5. Всякая интегрируемая в квадрате функция g(t) допускает сходящееся в среднеквадратичном смысле разложение к g(/) = /i(0 + l-i.m. 2 £ьфй(0> (П.2.9) К->оо k=l где ь gb=\g(t)tf(t)dt, (П.2.10) а a h(t) — некоторая функция, удовлетворяющая условию ь /?(s, t)h(t)dt = Q. (П.2.11) а 6. Ядро 7?(s, t) может быть разложено в ряд к R(s, 0 = l.i.m. 2 Ш(5)Ф*(0- (П.2.12) К->со k=l
•:-‘S 440• Приложение 2. Интегральные уравнения : 7. Если 7? (s, t) неотрицательно определено, то все отличные от нуля собственные значения являются положительными действительными числами. 8. Если 7?(s, 7) положительно определено, то ортонормиро- ванная система собственных функций является полной и функцию | h(t) в (П.2.9) можно принять равной нулю. Иными словами, -| всякая интегрируемая в квадрате функция g(t) может быть раз- j ложена в обобщенный ряд Фурье по ортонормированным собствен- v ным функциям: g(0 = l.i.m. 2 gk<fh(t), (П.2.13) К->оо k=A где gk определяется равенством (П.2.10). В дополнение к изложенному имеется теорема Мерсера1), внешне аналогичная свойству 6, однако более сильная в тех слу- 1 чаях, когда она применима: если 7? (s, f) неотрицательно опреде- лено, то f! Я(з, t)= (П.2.14) j k=i I где сходимость равномерна по s и /, удовлетворяющим условиям a<s<&, а<7<&. Интегральное уравнение (П.2.2) тесно связано с (П.2.1). Оче- видно, если у (s) — собственная функция уравнения (П.2.1) с соб- ственным значением X, то у (s)IK есть решение уравнения (П.2.2). Более общо, если f/(s) = a1cp1(s)+ ... 4-anq>„(s), I то, очевидно, решением уравнения (П.2.2) будет x(s) = -g-<p1(s)+...+^<pn(s). i С известными ограничениями это распространяется и на тот слу- । чай, когда y(s) есть бесконечная линейная комбинация собствен- ных функций. Общая теорема, принадлежащая Пикару2), состоит в следующем: Уравнение (П.2.2) имеет интегрируемое в квадрате решение x{t) в том и только в том случае, когда j n I t/(0 = l.i.m. 2 «/пФп(0. N->oo n=l | ----------------------------------------------------------------------- I x) Курант и Гильберт (I, гл. Ill), а также Рисе и Надь (I, гл. IV). ! 2) См. Курант и Гильберт (I, гл. III). !
П.2.3, Рациональный спектр 441 где ь Уп= а и выполняется условие оо |Уп|* 2 (П.2.15) Решение, если оно существует, имеет вид N x(0 = l.i.m. У тп-фп(0. Лг->оо Лп (П.2.16) и является единственным, если система фа(/) полна. П.2.3. Рациональный спектр Итак, мы изложили в самой общей форме-условия существо- вания решений задачи о собственных значениях (П.2.1) и некото- рые важные свойства их. При этом остается открытым вопрос о способах отыскания собственных значений и функций. Для одного специального класса корреляционных функций 7?(s, t), весьма важного в технических приложениях, уравнение (П.2.1) всегда можно решить явно относительно и фь (/). Речь идет о функ- циях 2? (s, t), имеющих своим преобразованием Фурье рациональные функции. В этом случае ядро 7?(s, t) имеет вид R(s—t) (строго говоря, мы должны были бы ввести другой символ, ибо первая функция R есть функция двух аргументов, а вторая —одного), причем /? (S - 0 = У? (т) = ^2л/т s df> (П.2.17) —оо где S(f) — неотрицательная рациональная интегрируемая четная функция. Неотрицательность и интегрируемость, S (f) необходимы для того, чтобы функция R (т) была неотрицательно определенной, т. е. чтобы она могла быть корреляционной функциейх). Четность S (/) делает /? (т) действительной. Вводя переменную р = j2nf и используя специальные свойства S(f)2), можем написать ОО Я(т)= 5 (П.2.18> х) См. Курант и Гильберт (I, § 6.6). 2) См. там же § 11.4.
442 Приложение 2. Интегральные уравнения где N (р* 2) — полином n-й степени относительно р2, a Z) (р2) — поли- ном d-й степени относительно р2. Полином D(p2) может не иметь действительных корней и всегда d > п. Легко понять эвристи- чески, что для того, чтобы функция ф(£) была решением урав- нения (П.2.1), она должна удовлетворять линейному дифферен- циальному уравнению с постоянными коэффициентами. В самом деле, заменяя /?(s, f) в (П.2.1), согласно (П.2.18), имеем Ъ оо ' Xq>(s)= a<s<&. (П.2.19) а —оо Дифференцирование правой части по s эквивалентно умножению тюдинтегрального выражения на р. Следовательно, Ъ оо w Ф(») ( Ф Р)Л $ df] = а —со Ъ =л/(^И6(5~0ч,(0Л= а = Л/С’^)ф(г5)’ a<s<b' (И-2-20) Для того чтобы решить уравнение (П.2.1), нужно сначала решить однородное дифференциальное уравнение (П.2.20). Решение будет содержать параметр % и 2d произвольных постоянных cv с2, ..., c2d. Это решение подставляется вместо cp(s) в интегральное уравнение (П.2.1). При этом оказывается, что интегральное уравнение может удовлетворяться только при дискретной системе значений X = Xft, к = 1, 2, ..., и что для каждого значения постоянные q, ..., c2d должны удовлетворять определенным условиям. Эти являются •собственными значениями. Любая функция ср (s), удовлетворяющая уравнению (П.2.20) при значениях постоянных ...^^удовле- творяющих условиям, налагаемым на них при % = Xfe, является •собственной функцией cpft(s), связанной с Если имеется более чем одна линейно независимая функция <p(s), связанная с Xfe, то они могут быть ортогонализированы с помощью процесса Г рама — Шмидта1) и затем нормированы. Строгое доказательство того, что уравнение (П.2.20) налагает необходимое условие на (p(s) и что решения этого уравнения заведомо задают собственные значения и собственные функции cpft(s), дано Слепяном2). При- мер такой процедуры приведен в § 6.3. Часто оказывается полезным разложение произвольной инте- грируемой в квадрате функции в обобщенный ряд Фурье вида х) См. Курант и Гильберт (I, гл. II). 2) Слепян (I, приложение I).
П.2.3. Рациональный спектр 443 (П.2.13). Поэтому полезно знать условия, при которых <pfe(0 образуют полную систему. Достаточное условие для того, чтобы •собственные функции уравнения ь (s — t) ф (/) dt = Хф (s), а < s < &, а образовывали полную систему, состоит в том, что R (f) должно быть преобразованием Фурье от спектральной плотности1). Таким образом, в рассмотренном случае, когда R(f) есть преобразование Фурье от рациональной спектральной плотности, система ф&(0 всегда полна. Далее, если корреляционная функция, являющаяся ядром, задается равенством (П.2.18), то интегральное уравнение (П.2.2) может быть непосредственно решено элементарными методами2). Найдем решение, ограничившись случаем действительной функ- ции R(t). Метод решения, который мы здесь приведем, до неко- торой степени аналогичен подходу Слепяна к задаче о собствен- ных значениях. Как и в задаче о собственных значениях, можно показать, что решение х (/) интегрального уравнения должно удовлетворять линейному дифференциальному уравнению. В этом случае a<t<b. (П.2.21) Рассмотрим сначала случай N(p)=z 1. При этом, согласно равен- ству (П.2.21), решение, если оно существует, должно иметь вид = a<t<b. (П.2.22) Задача теперь состоит в том, чтобы выяснить, каким условиям должна удовлетворять y(t), чтобы функция х(/), определяемая равенством (П.2.22), удовлетворяла интегральному уравнению. Мы найдем эти условия, подставляя x(t) из (П.2.22) в интеграль- ное уравнение и выполняя повторные интегрирования по частям. Во-первых, мы должны установить некоторые факты относи- тельно поведения Согласно равенству (П.2.18), в рассматри- ваемом случае оо W) = 5 7^df (П-2.23) ’) См. Юла (I, приложение А) или Рут и Питчер (II, приложение I). 2) См. Заде и Рагаццини (I).
444 Приложение 2. Интегральные уравнения И оо —оо /г = О, 1,2, ..., 2d—2. (П.2.24) Эти интегралы абсолютно сходятся, и R<k> (/) существует при всех t, если £<2d —2. Кроме того, если Г—замкнутый контур, содержащий* внутри себя все вычеты, находящиеся в верхней полуплоскости плоскости f, то, в силу обычных соображений теории вычетов, 5 />0‘ (П.2.25) Из (П.2.25) следует, что R(t) при />0 имеет производные всех порядков и 7?<h,(0 = -£^df, t>0, 6 = 0,1,2.......(П.2.26а) Г Аналогично, бели Г'~замкнутый контур, содержащий внутри себя все вычеты, расположенные в нижней полуплоскости пло- скости /, то 2?(fe)(/) = ^<0, 6 = 0, 1,2,.... (П.2.266) Вычислим теперь T?(2d ^(-Ь 0) — J?(2d 1J( —0). Пусть коэффициент при p2d в D(p2) равен a2d; тогда n(2d-Dz. _ 02^ С f2d~^ft * ( ) ~ a2d (j2n)2d J • • • (f-z2d) a' ~ 2d > г (П.2.27) 3— V (вычетов в верхней полуплоскости), t > 0, . a2d где вычеты под знаком суммы —вычеты подинтегральной функции в (П.2.27). Аналогично /?(2d~4)( —/) = —— V (вычетов в нижней полуплоскости), t > 0, Я 2d где под знаком суммы вычеты те же, что и в предыдущем равен- стве. Следовательно, /?(2d-1>(Z) — ^(2d-D(__ = -^-2 вычетов, ^>0, и ^(2d-i)( + 0)-^(2d-1)(-0) = — lim У вычетов, t > 0, (П.2.28) ^2d f_>0 1 a2d
П.2.3. Рациональный спектр 445 Из результатов § 11.4 мы знаем, что О(р2) может быть представ- лено в виде произведения D1(j2nf) D2(j2nf), где £>х(/2nf) — поли- ном, все нули которого расположены в нижней полуплоскости плоскости f, a D2 (/2л/) — полином, имеющий все нули в верхней полуплоскости f. Таким образом, согласно (П.2.25), = ‘>0’ (П-2-29) Г T^dl=0' t<0' (П-2'30) Г' и d(^)/?(O = o, t^o. (П.2.31) Запишем W)= 3<W2k; (П.2.32) k=Q тогда X (0 = 2 а* ( 4У у (0, а < t <Ь. (П.2.33) fe=0 Таким образом, ь d t х (т) /? (/ — т) dx = 2 a2k (т) — т) dr + a k=0 а d Ъ + 2 У(2К) (*) dx. fe=o 7 Интегрирование по частям дает b d t х (т) R (t - т) dr = 2 a2ky<2k~i'> (т) R (t - т) | + a fe=l а d Ъ d t + 2 (т) (t - т) + 2 (т) R'(t-x)dx + k=l k=l а d b b + 2j a2fe (T) R' (t — x)dx + a0^ у (r) R(t — x) dx. (П.2.34) h=l t a
446 Приложение 2. Интегральные уравнения Слагаемые в двух первых суммах, соответствующие т = t, взаимно уничтожаются, так что эти суммы принимают вид d d -[2 a2hy<2k-^(a)]R(i-a)+[^ а*у&-» (b)] R(t-b). (П.2.35) k==l ’ k=l Интегрируя по частям интегралы третьей и четвертой сумм в (П.2.34), получаем d t d b 2 <W2ft~2)(r) R' (t - T)| + 2 W2fe-2)(*) R' tf - T)| + k=l a k=l t d t d b + 2 M y(2k~2) (T) R" ('-*)+2 My(2ft-2) (T) R” R -T) dt- fc=l a k=l t (П.2.36) . Слагаемые в двух первых суммах, соответствующие t = r, опять- таки взаимно уничтожаются, а оставшиеся слагаемые этих сумм дают d d - [ S a2hy^-i\a)\ R' (t - a) + [ 2 a2hy^ (6)] R' (t-b). (П.2.37) k=i k=i Процесс интегрирования по частям повторяется 2d раз, причем всякий раз остаются непроинтегрированными интегралы вида $ y(x)R™(t —t)dx. а После каждого; интегрирования, кроме последнего, средние слагае- мые в проинтегрированных выражениях взаимно уничтожаются. В результате остаются линейные комбинации производных от у в двух граничных точках, умноженные на производную от R (/) • [см. равенства (П.2.35) и (П.2.37)]. Итак, %после 2d интегрирова- ний по частям мы получаем ь x(y)R(t-x)dx = YQR(t-a) + ZQR{t-b) + Y1Rf (t-a) + а + Z1R,(t-b)+ ...+ Y2d-2R(2d~2) (t~a) + Z2d-2R(2d~2) (t-b) + + a2dy (0 R™~1} (+ 0) - a2dy (t) R(2d~^ (- 0) + b 2d + \ y(r) 2 a2hR(2k\t-x)dx, (П.2.38) a k=Q
П.2.3. Рациональный спектр 447 где Yh и Zfe —линейные комбинации производных от y(t) соот- ветственно в точках а и Ь. Последний интеграл в (П.2.38)^ согласно (П.2.31), обращается в нуль, и, используя (П.2.28), мы получаем ъ х (т) R (t — т) dx = а 2d—2 2d—2« =y(t) + 2 YkRw(t-a) + 2 Z^(fe) (П.2.39) fe=0 ’ Итак, функция x(t), определяемая равенством (П.2.18), удовле- творяет интегральному уравнению в том и только в том случае,, когда наложенное на у (/) однородное линейное граничное условие 2d—2 2d—2 2 YkRw (t-a)+ 2 ZkR{k>(b-t) = Q (П.2.40) fe=0 fe=0 тождественно удовлетворяется при всех t, <С Ь. Для выпол- нения условия (П.2.40) достаточно, чтобы все Yk и Zh были равны нулю; но это не необходимо. В самом деле, так как О2(Р) имеет степень d и ^(4)^^=°’ />0> то всякая производная /?(fe)(f —a), A = d, d + 1, . . ., 2d —2, может быть представлена в виде линейной комбинации первых d — 1 произ- водных от R (t — d), t > а. Первые 2d — 2 производных существуют и непрерывны всюду; следовательно, это справедливо и для точки, в которой t — а = 0, т. е. для / = а. Таким образом, первую сумму в (П.2.40) можно заменить суммой d— 1 линейно независимых слагаемых. В силу аналогичных же соображений вторая сумма в (П.2.40) также заменяется суммой d— 1 линейно независимых слагаемых. Итак, остается 2d —2 линейно независимых условий, которым должны удовлетворять y(t) и ее производные в гранич- ных точках а и Ь. Легко видеть, что так как уравнение (П.2.2) непременно имеет решение, если y(s) есть собственная функция уравнения (П.2.1), имеющего то же ядро, то все эти собственные функции удовле- творяют линейным граничным условиям (П.2.40). Если уравнение (П.2.2) при определяемом равенством (П.2.23), строго говоря, не имеет решения в силу того, что y(s) не удовлетворяет условиям (П.2.40), то тем не менее это урав- нение всегда имеет сингулярное решение, т. е. такое, которое содержит импульсные функции и их производные. Чтобы пока-
448 Приложение 2. Интегральные уравнения зать это, прибавим к х(/), задаваемому равенством (П.2.23), сумму 2d—2 3 [bk^(t-a)-Ycki>W{t-b)}, (П.2.41) fc=0 коэффициенты которой пока неизвестны. Подставляя эту сумму в левую часть уравнения (П.2.2), получаем выражение 2d—2 3 [bkRW(t-b) + c^{b-t)\. (П.2.42) fe==0 Следовательно, при Ьк= — Yk и ck= — Zk граничные условия исключаются и интегральное уравнение всегда может быть удо- влетворено. Откажемся теперь от ограничения jV(p2)== 1; иными словами, предположим лишь, что задается равенством (П.2.18). Выше мы показали, что решение интегрального уравнения x(t) должно быть также решением дифференциального уравнения (П.2.21). Покажем сейчас, что уравнение (П.2.2) при (/), задаваемом равенством (П.2.18), имеет решение в том и только в том случае, если имеет решение какое-либо уравнение из некоторой системы связанных с ним уравнений только что рассмотренного типа. Пусть z (t) — некоторое решение уравнения = (П.2.43) Рассмотрим интегральное уравнение ь х(т)/?(/-- x)dx = z(t), a<t^b, (П.2.44) а где оо # (0 = 5 £>(р2) — ОО Нетрудно видеть, что ь ъ N 5 x(T)£(/-T)dT= $ x(r)R{t-r)dt = y(t); а а следовательно, если х(т} есть решение уравнения (П.2.44) при некоторой функции z(t), удовлетворяющей (П.2.43), то оно есть также решение уравнения (П.2.2). Наоборот, если х(т) есть решение уравнения (П.2.2) при R (t), задаваемой равенством (П.2.18), то ъ (т)£-т)Л = w(О,
П.2,3. Рациональный спектр 449 где ^1(0 — выбранное произвольно решение уравнения (П.2.43). Пусть ъ е(/)= x(T)£(f — r)dx — Zj^), а<7<6; (П.2.45) а тогда »(О-о. Пусть, далее, . 2(0-21(0 + 8(0; (П.2.46) тогда z(0 есть решение уравнения (П.2.43) и, согласно (П.2.45), х(т) есть решение уравнения (П.2.44) при z (0 = 2(0- Итак, х(т) есть решение уравнения (П.2.2) в том и только в том слу- чае, когда оно является решением уравнения (П.2.44), в котором z(0 есть одна из функций, удовлетворяющих (П.2.43). Таким образом, практический метод решения уравнения (П.2.2) состоит в применении оператора D(d2/dt2) к общему решению уравнения (П.2.43) и подстановке полученного выражения обратно в интегральное уравнение. Если интегральное уравнение имеет обычное решение, то при соответствующем выборе произволь- ных постоянных им является найденное выражение. В противном случае, как было сказано выше, нужно прибавлять импульсные функции£и их производные. */< 29 Заказ № 57
ЛИТЕРАТУРА1) Бартлетт (Bartlett М. S.) I. Введение в теорию случайных процессов, Издатинлит, М., 1958. Беннетт (Bennett W. R.) I. Response of a Linear Rectifier to Signal and Noise, Journ. Acoustical Soq. America, 15, (3), 165—172, January 1944. II. Methods of Solving Noise Problems, Proc. IRE, 44, 609—638, May 1956. Беннетт и Райс (Bennett W. R. and Rice S. O.) I. Note on Methods of Computing Modulation Products, Philosophical Magazine, series 7, 18, 422—424, September 1934. Берджесс (B urgess R. E.) I. The Rectification and Observation of Signals in the Presence of Noise, Philosophical Magazine, series 7, 42 (328), 475—503, May 1951. Бла н-Л апьер и Форте (В lan c-L a p i e r r e A. and F о r t e t R.) I. Theorie des functions aleatoires, Masson et Cie, Paris, 1953. Боде (Bode H. W.) I Теория цепей и проектирование усилителей с обратной связью, Издатинлит, М., 1948. Боде и Шеннон (Bode Н. W. and Shannon С. Е.) I Упрощенное изложение линейной минимально-квадратичной теории сглаживания и прогнозирования, в сборнике Теория информации и ее приложения, Физматгиз, М., 1959, стр. 113—137. Бозе и П и з* а р и с (Bose A. G. and Р е z а г i s S. D.) I. A Theorem Concerning Noise Figures, IRE Convention Record, part 8, pp. 35—41, 1955. Бунимович В. И. I. Флюктуационные процессы в радиоприемных устройствах, Изд-во «Советское Радио», М., 1951. Б у т о н^(В о о t о n R. С. Jr.) I. An Optimization Theory for Time-varying Linear Systems with Nonstationary Statistical Inputs, Proc. IRE, 40, 977—981, August 1952. x) Несколько названий русских книг добавлено редактором и перевод- чиком. Они отмечены звездочкой. Для цитируемых автором русских книг или книг, переведенных на русский язык, приводятся только русские назва- ния. —Прим. ред.
Литература 451 Вакс (Wax N.) I. Selected Papers on Noise and Stochastic Processes, Dover, New York, 1954. В аллей и Уоллман (Valley G. E. Jr. and Wai Iman H.) I. Vacuum Tube Amplifiers, MIT Rad. Lab. Series, 18, McGraw-Hill Book Co., New York, 1948. Ванг и Уленбек (W ang Ming Chen and U h 1 e n b e c k G.E.) I. On the Theory of the Brownian Motion II, Rev. Modern Physics, 17 (2 and 3), 323—342, April—July 1945. Перепечатано в книге Вакса (I), стр. 113—132. Ван дер Зил (Van der Ziel А.) Флуктуации в радиотехнике и физике, Госэнергоиздат, М.—Л.? 1958. Ван дер Поль и Бреммер (Van det Pol В., В re m- m е г Н.) I. Операционное исчисление на основе двустороннего преобразова- ния Лапласа, Издатинлит, М., 1952. Ван Флек и Миддльтон (Van Vleck J. Н. and Middle- ton D.) I. A Theoretical Comparison of Visual, Aural, and Meter Reception of Pulsed Signals in the Presence of Noise, Joum. Applied Physics, 17 (II), 940—971, November 1946. Ватсон (W a t s о n G. N.) I. Теория бесселевых функций, части I и II, Издатинлит, М., 1949. Вильямс (W i 1 1 i a m s F. С.) I. Thermal Fluctuations in Complex Networks, Journ. Inst. Electr. Eng. (London), 81, 751—760, 1937. Винер (W i e n e r N.) I. Generalized Harmonic Analysis, Acta Mathematica, 55, 117— 258, 1930. II. The Fourier Integral and Certain of Its Applications, Cambridge University Press, New York, 1933. (Также Dover, New York.) III. Extrapolation, Interpolation, and Smoothing of Stationary Time Series, John Wiley, New York, 1949. Ганзе (Hanse H.) I. The Optimization and Analysis of Systems for the Detection of Pul- sed Signals in Random Noise, докторская диссертация, Massachusetts Institute of Technology, Cambridge, Mass., January 1951. Гантмахер Ф. P. I* Теория матриц, Гостехиздат, Мм 1958. Гарднер и Барнес (Gardner М. F. and Barnes J. L.) I. Transients in Linear Systems, I, John Wiley, New York, 1942. Гельфанд И. M. и III и л о в Г. Е. I*. Обобщенные функции и действия над ними, Физматгиз, М., 1958. Гилдебранд (Hildebrand F. В.) I. Methods of Applied Mathematics, Prentice-Hall, Englewood Cliffs, N. J., 1952. 29*
452 Литература Гнеденко Б. В. I*. Курс теории вероятностей, 2-е изд., Гостехиздат, М., 1954. ГнеденкоБ. В. и Ко л м о го р о в А. Н. I. Предельные распределения для сумм независимых случайных вели- чин, Гостехиздат, М.—Л., 1946. Гренандер (Grenander U.) I. Stochastic Processes and Statistical Inference, Arkiv fur Matematik, 1 (17), 195—277, 1950. Гренандер и Розенблатт (Grenander U., Rosen- blatt M.) I* Statistical analysis of stationary time series, John Wiley & Sons, New York, Almquist & Wiksell, Stockholm, 1957. Грин (Green P. E. Jr.) I. A Bibliography of Soviet Literature on Noise, Correlation, and Infor- mation Theory, IRE Trans, on Information Theory, IT-2 (2), 91 — 94, June 1956. Г и й м e н (G u i 1 1 e m i n E. A.) I. Communication Networks, I, 1931; II, 1935, John-Wiley, New York. II. The Mathematics of Circuit Analysis, John Wiley, New York, 1949. Давенпорт (Davenport W. B.Jr.) I. Signal-to-Noise Ratios in Band-pass Limiters, Journ. Applied Phy- sics, 24 (6), 720—727, June 1953. Давенпорт, Джонсон и Миддльтон (D avenport W. В. Jr., J о hnsoti R. A. and M i d d 1 e t о n D.) I. Statistical Errors in Measurements on Random Time Functions, Journ. Applied Physics, 23 (4), 377—388, April 1952. Д в а й т (Dwight H. B.) I. Таблицы интегралов и другие математические формулы, Издат- инлит, М., 1948. Дейвис (Davis R. С.) I. On the Theory of Prediction of Nonstationary Stochastic Processes, Journ. Applied Physics, 23, 1047—1053, September 1952. Джеймс,Николс и Филлипс (James H.M.,NicholsN. В. and Phillips R. S.) I. Теория следящих систем, Издатинлит, М., 1953. Джефрис (Jeffreys Н.) I. Theory of Probability, 2d ed., Oxford University Press, New York, 1948. Дуб (D о о b J. L.) I. Time Series and Harmonic Analysis, Proc. Berkeley Symposium on Math. Statistics and Probability, pp. 303—343, Berkeley, Calif., 1949. II. Вероятностные процессы, Издатинлит, M., 1956. Дунин-Барковский И. В. иСмирнов Н. В. I*. Теория вероятностей и' математическая статистика в технике, Гостехиздат, М.—Л., 1955.
Литература 453 Заде и Рагаццини (Zadeh L. A. and R a g a z z i n i J. R.) I. An Extension of Wiener’s Theory of Prediction, Jotim. Applied Physics, 21, 545—655, July 1950. II. Optimum Filters for the Detection of Signals in Noise, Proc. IRE, 40 (10), 1123—1131, October 1952. 3 и г e p т (S i e g e r t A. J. F.) I. Passage of Stationary Processes through Linear and Nonlinear Devi- ces, IRE Trans, on Information Theory, PGIT-3; 4—25, March 1954. Каллен и Уэлтон (Callen H. В. and Welt on T. A.) I. Irreversibility and Generalized Noise, Phys. Rev., 83 (1), 34—40, July 1, 1951. Карнап (Carnap R.) I. Logical Foundations of Probability, University of Chicago Press, Chicago, 1950. Кац и Зигерт (К ас М. and S i е g е г t A.J.F.) I. On the Theory of Noise in Radio Receivers with Square-law Detec- tors, Journ. Applied Physics, 18, 383—397, April 1947. Колмогоров A. H. I. Основные понятия теории вероятностей, ОНТИ, М.—Л., 1936. II*. Теория вероятностей, статья в БСЭ, т. 42, стр. 230. Котельников В. А. I*. Теория потенциальной помехоустойчивости, Госэнергоиздат, « М.—Л., 1956. Крамер (Cramer Н.) I. Математические методы статистики, Издатинлит, М., 1948. Курант (Courant R.) I. Курс дифференциального и интегрального исчисления, части I и II, ГНТИ, М.—Л., 1931. Курант и Гильберт (Courant R., Hilbert D.) I; Методы математической физики, т. I, Гостехиздат, М.—Л., 1951. Леви (Levy Р.) I. Theorie de 1’addition des variables aleatoires, Gauthier-Villars, Paris, 1937. Левин Б. P. I*. Теория случайных процессов и ее применения в радиотехнике, изд-во «Советское радио», М., 1957. Левинсон (Levinson N.) I. A Heuristic Exposition of Wiener’s Mathematical Theory of Predic- tion and Filtering, Joum. Math, and Physics, 26, 110—119, July 1947. Также Appendix С в книге Винера (III). Леман (L e h m a n E. L.) I. Theory of Testing Hypotheses (Notes recorded by Colin Bly th from lectures by E. L. Lehman), Associated Students Store, University of California, Berkeley, Calif. 30 Заказ № 57
454 Литература Ленгмюйр (Langmuir I.) I. The Effect of Space-charge and Initial Velocities on the Potential Distribution and Thermionic Current between Parallel-plane Elec- trodes, Phys. Rev., 21» 419—436, April 1923. Лоэв (Loeve M.) I. Probability Theory, D. Van Nostrand, Prince tori, N. J., 1955. [Рус- ский перевод готовится к печати в Издательстве иностр, лит.-ры.— УТрим. ред.] Ли и Стутт (Lee Y. W. and S t u t t C. A.) I. Statistical Prediction of Noise, Proc. National Electronics Confe- rence, 5, 342—365, Chicago, 1949. Линдсей (Lindsay R. B.) I. Introduction to Physical Statistics, John Wiley, New York,1941. Лоусон и Уленбек (Lawson J. L. and U h 1 e n b e c k G. E.) I. Пороговые сигналы, Изд-во «Советское радио», М., 1952. Лэнинг и Бэттин (Lan i ng J. Н. Jr. and В a t t i n R. H.) I. Случайные процессы в задачах автоматического регулирования, Издатинлит, М.', 1958. Магнус и Оберхеттингер (Magnus W. and Oberhet- t i n g е г F.) I. Special Functions of Mathematical Physics, Chelsea, New York, 1949. . Макдональд (MacDonald D. К. C.)] I. Some Statistical Properties of Random Noise, Proc. Cambridge Philosophical Soc., 45, 368, 1949. Маркум (Marcum J. I). I. A Statistical Theory of Target Detection by Pulsed Radar, Rand Corp. Report, RM—754. December 1, 1947. Mathematical Appendix, R113, July 1, 1948. Мейер и Миддльтон (Meyer M. A. and M i d d 1 e t о n D.) I. On the Distributions of Signals and Noise after Rectification and Filtering, Joum. Applied Physics, 25 (8), 1037—1052, August Г954. Миддльтон (Middleton D.) I. The Response of Biased, Saturated Linear, and Quadratic Recti- fiers -to Random Noise, Journ. Applied Physics, 17, 778—801, Octo- ber 1946. II. Some General Results in the Theory of Noise through Nonli- near Devices, Quart. Applied Math., 5 (4), 445—498, January ^1948. III. The Distribution of Energy in Randomly Modulated Waves, Phi- losophical Magazine, series 7, 42, 689—707, July 1951. IV. Statistical Methods for the Detection of Pulsed Radar in Noise, в книгах Willis Jackson (ed.), Communication Theory, стр. 241—270, Academic Press, New York, и Butterworth, Scientific Publi- cations, London, 1953.
Литература 455 Миддльтон и Ван Метер (Middleton D. and Van Me- ter D.) I. Detection and Extraction of Signals in Noise from the Point of View of Statistical Decision Theory, Journ. Soc. Industrial and Applied Math., part I. 3, 192—253, December 1955; part II, 4, 86—119, June 1956. Миддльтон и Джонсон (Middleton D. and Johnson V.) I. A. Tabulation of Selected Confluent Hypergeometfic Functions, Technical Report No. 140, Cruft Laboratory, Harvard University, Cambridge, Mass., January 5, 1952. M у д (Mood A. McF.) I. Introduction to the Theory of Statistics, McGraw-Hill Book Co., New York, 1950. Найквист (Nyquist H.) I. Thermal Agitation of Electric Charge in Conductors, Phys. Rev., 32, 110—113, July 1928. Национальное бюро стандартов (National Bureau of Standards) I. Tables of Normal Probability Functions, Table 23, NBS Applied Math. Series, Washington, 1953. Нейман и Пирсон (Neyman J. and Pearson E. S.) I. On the Use and Interpretation of Certain Test Criteria for Purposes of Statistical Inference, Biometrica, 20A, 175, 263, 1928. II. On the Problem of the Most Efficient Tests of Statistical Hypotheses, Phil. Trans. Royal Soc. London, A231, 289—337, 1933. Палей и Винер (Paley R.E.A.C. and Wiener N.) I. Fourier Transforms in the Complex Domain, American Math. Soc. Colloquium PubL, 19, New York, 1934. Прайс (Price R.) I. The Detection of Signals Perturbed by Scatter and Noise, IRE Trans, on Information Theory, PGIT-4, 163—170, September 1954. II. A Note on the Envelope and Phase-modulated Components of Nar- row-band Gaussian Noise, IRE Trans, on Information Theory, IT-1 (2), 9—13, September 1955. HI. Optimum Detection of Random Signals in Noise with Application to Scatter Multipath Communications, I., IRE Trans, on Infor- mation Theory, IT-2 (4), December 1956. Райс (Rice S. O.) I. Теория флуктуационных шумов. Сборник Теория передачи элек- трических сигналов при наличии помех, Издатинлит, М., 1953. II. Statistical Properties of a Sine-wave Plus Random Noise, Bell Syst. Tech. Journ., 27, 109—157, January 1948. Райх и Шверлинг (Reich Ё., and S w e г 1 i n g P.‘) I. The Detection of a Sine Wave in Gaussian Noise, Journ. Applied Phy- sics, 24 (3), 289—296, March 1953. 30* I
456 Литература Р а к к (Rack A. J.) I. Effect of Space-charge and Transit Time on the Shot Noise in Diodes, 1 Bell Syst. Tech. Journ., 17, 592—619, 1938. Рисе и С e к e ф а л ь в и-Н а д ь (R i е s z F. and Sz.-Nagy В.) I. Лекции по функциональному анализу, Издатинлит, M., 1954. Рут и Питчер (Root W. L. and Pitcher Т. S.) I. On the Fourier-series Expansion of Random Functions, Annals of Math. Statistics, 26 (2), 313—318, June 1955. II. Some Remarks on Statistical Detection, IRE Trans, on Information Theory, IT-1 (3), 33—38, December 1955. Слепян (Slepian D.) I. Estimation of Signal Parameters in the Presence of Noise, IRE Trans, on Information Theory, PGIT-3, 68—89, March 1954. С м и p н о в В. И. I* Курс высшей математики, т. I, изд. 16, 1956, т. II, изд. 16, 1958, т. III, ч. I, изд. 7, 1957, ч. II, изд. 6, 1956, т. IV, изд. 3, 1957, т. V, 1959, Гостехиздат, М.—Л. Солодовников В. В. I. Введение в статистическую динамику систем автоматического управ- ления, Гостехиздат, М.—Л., 1952. Стандарты IRE (IRE Standards) I. Standards on Electron Devices: Methods of Measuring Noise, Proc. IRE, 41, 890—896, July 1953. Стамперс (Stumpers F. L.) I. A Bibliography of Information Theory (Communication Theory — Cybernetics), IRE Trans, on Information Theory, PGIT-2, Novem- ber 1953. II. Supplement to a Bibligraphy of Information Theory (Communica- tion Theory—Cybernetics), IRE Trans, on Information Theory, IT-1 (2), 31—47, September 1955. Титчмарш (T itchmarsh E. C.) I. Теория функций, Гостехиздат, M.—Л., 1951. II. Введение в теорию интегралов Фурье, Гостехиздат, М., 1948. Томпсон, Норт и Харрис (Thompson В. J., North D. О. and Harris W. А.) I. Fluctuations in Space-charge-limited Currents at Moderately High Frequencies, RCA Review, January 1940 et seq. Перепечатано в Ele- ctron Tubes, I, 58—190, 1935—1941, RCA Review, Princeton, N. J., 1949. T ь ю p ин (Turin- G. L.) I. Communication through Noisy Random-multipath Channels, IRE Convention Record, part 4, 154—166, 1956. Уиттекер и Ватсон (W hittaker E. T. and Watson G. N.) I. Курс современного анализа, части I и II, ГТТИ, Л.—М. 1933. У о л л м а н (W а 1 1 m а n Н.)
Литература .457 I. Realizability of Filters, Appendix А в книге Валлея и Уоллмана (I). Успенский (Uspensky J. V.) I. Introduction to Mathematical Probability, McGraw-Hill Book Co., New York, 1937. Феллер (Feller W.) I. Введение в теорию вероятностей и ее приложения (дискретные рас- пределения), Издатинлит, М., 1952. Филлипс (Phillips R. S.) I. RMS-error Criterion in Servomechanism Design, гл. 7 книги Джейм- са, Николса и Филлипса (I). Фрай (Fry Т. С.) I. Теория вероятностей для инженеров, ГТТИ, М.—Л., 1934. Фриз (F г i i s Н. Т.) I. Noise Figures of Radio Receivers, Proc. IRE, 32, 419—422, July 1944. Хармэн (Harman W. W.) I. Fundamentals of Electronic Motion, McGraw-Hill Book Co., New York, 1953. Хауз и Адлер (Haus H. A. and Adler R. B.) I. Invariants of Linear Noisy Networks, IRE Convention Record, part 2, pp. 53—67, 1956. X и н ч и н А. И. I. Математические основания статистической механики, Гостехиздат, М.—Л., 1943. Черчилл (Churchill R. V.) I. Fourier-series and Boundary-value Problems, McGraw-Hill Book Co., New York, 1941. II. Modern Operational Mathematics in Engineering, McGraw-Hill Book Co., New York, 1944. Ч e с с и н (C h e s s i n P. L.) I. A Bibliography on Noise, IRE Trans, on Information Theory, IT-I (2), 15—31, September 1955. Шварц (Schwartz M.) I. A Statistical Approach to the Automatic Search Problem, доктор- ская диссертация, Harvard University, Cambridge, Mass., June 1951. Шеннон (Shannon С. E.) I. A Mathematical Theory of Communications, Bell Syst. Tech. Journ., 27, part I, pp- 379—423, July 1948; part II, pp. 623—656, October 1948. Сокращенный русский перевод: Статистическая теория переда- чи электрических сигналов, в сборнике Теория передачи электриче- ских сигналов при наличии помех, Издатинлит, М., 1953. II. Связь при наличии шума, в сборнике Теория информации и ее при- ложения, Физматгиз, М., 1959, 82—112. Шпангенберг (Spangenberg К. R.) I. Vacuum Tubes, McGraw-Hill Book Co., New York, 1948.
458 Литература Эмерсон (Emerson R. С.) I. First Probability Densities for Receivers with Square-law Detectors, Journ. Applied Physics, 24 (9), 1168—1176, September 1953. Юла (Y о u 1 a D. C.) I. The Use of the Method of Maximum Likelihood in Estimating Conti- nuous-modulated Intelligence Which Has Been Corrupted by Noise, Trans. IRE Prof. Group on Information Theory, PGIT-3, 90—106, March 1954. Янке и Эмде (Jahnke E. and E m d e F.) I. Таблицы функций с формулами и кривыми» Гостехиздат, М.—Л., 1948.
ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ Абсолютная интегрируемость 106 Аксиоматика теории вероятностей 16, 17 Ансамбль выборочных функций 53 Апостериорная вероятность 374 Априорная вероятность 374 Байеса закон 28 Байесовское решение задачи провер- ки двух гипотез 376 Белый шум 128 Бернулли испытания 26 — теорема 104 Биномиальное распределение 27 Биномиальный коэффициент 27 Биркгофа эргодическая теорема 85 Больших чисел закон 15, 97 Векторная случайная величина 30 Вероятности совместные 19 Вероятностные процессы независи- мые 54 — — некоррелированные 92 Вероятностный процесс 51—52 ----гауссовский, см. Гауссовский вероятностный процесс — — нестационарный 55 ----периодический НО ----с дискретным параметром 52 --------непрерывным параметром 53 — — стационарный 55, 76, 272 — — — в узком смысле 76 — — — — широком смысле 76 — — — — — — несингулярный 272 ----------------сингулярный 272 ---- узкополосный 186 Вероятность 14 — аксиоматика 16, 17 — апостериорная 374 — априорная 374 — условная 21 Взаимная корреляционная функция 76 ------- временная 88 — спектральная плотность 132—133 Взаимности условие (для много- полюсника) 211 Вильямса теорема 220 Временная корреляционная функция 88 — взаимная корреляционная функ-’ ция 88 Временное среднее 84, 86 Выборка 94 Выборочная точка 29 — функция 53 Выборочное значение 53 — пространство 29 совместное 32 — среднее 95 Вылета электронов моменты ' 139— 143 Гармонический анализ обобщенный 126 Гауссовская импульсная функция 431 Гауссовские случайные величины 176—181 Гауссовский вероятностный процесс 181 -------линейные преобразова- ния 182 -------ортогональные разложе- ния 185 -------узкополосный 136, 194, 199 Гауссовское (нормальное) распреде- ление 48, 172 Гетеродинирование 135 Гипотеза простая 379 — сложная 379, 385 Двухполупериодный квадратичный детектор 296
Предметный указатель 460 Дельта-функция Дирака 429 Депрессии коэффициент 164 Детектор, выделяющий огибающую 419 — квадратичный 296 — корреляционный 407 — однополупериодный линейный 313 — фазовый 422 — v-й степени 354 Диаграмма разброса 71 Дискретная случайная величина 32 Дисперсия 64 Дифференциальная номинальная мощность источника 241 Дифференцирование импульсных функций 433 Достоверное событие 16, 18 Дробовой шум 136 ---в диодах 143—165 ---в триодах и пентодах 165—170 Единичная импульсная функция 429 Закон Байеса 28 — больших чисел 15, 97 Идеальный ограничитель 338 — полосовой ограничитель 338, 363, 365 — фильтр низких частот 298 Измеримая функция 30 Импульсная функция 37, 429—435 — гауссовская 431 — прямоугольная 431 Импульсный радиолокатор 369, 416 Интегральные уравнения 436—449 ----собственные значения 118,438 ----— функции 118, 439 Интегрируемость абсолютная 106 — в квадрате 107, 436 Кару йена—Лоэва теорема 116 Квадратичный детектор 296 Ковариация 65 — нормированная 73 Корреляции коэффициент 73 Корреляционная матрица 76 — функция 75 — — взаимная 76 --- временная 88 --- нормированная 75 Корреляционный детектор 407 Коши распределение 56 /------ Коэффициент биномиальный 27 — депрессии 164 — корреляции 73 — ложной тревоги 417 Критерий отношения правдоподобия 378 -------обобщенный 387 — равномерно наиболее мощный 388 Критическая область (область от- вергания гипотезы) 379 Кусочно-непрерывная функция 437 Лапласа преобразование 328, 329 Линейная система 201 -----отклик на единичный импульс 204 — — с фиксированными параме- трами 201 — — устойчивая 207 -----физически осуществимая 205 -----функция передачи 203, 208 Линейный детектор 313 Ложная тревога 417, 419, 428 Ляпунова теорема 102 Максвелла (Рэлея) распределение 155, 189 Математическое ожидание 59—63 ----- вероятностного процесса 63 — — дискретной случайной вели- чины 60, 61 — — непрерывной случайной ве- личины 61 Матрица корреляционная 76 Мерсера теорема 440 Момент случайной величины 63 — смешанный 64, 69 — центральный 64 Моменты, вычисление при помощи характеристической функции 66, 68 Мощность источника номинальная 241 — критерия проверки гипотез 380, 382, 388 Наблюдаемые координаты 398 Наибольшего правдоподобия оценки 395 ----- принцип 378 Найквиста обобщенная теорема 220—221 Невозможное событие 17 Независимость вероятностных про- цессов 54
_____________Предметный указатель 461 \ - ----------------------------------------------------- Независимость случайных величин 43, 44, 69 — событий статистическая 22, 24 — экспериментов статистическая 24 Неймана—Пирсона теорема 380 Некоррелированные вероятностные процессы 92 — случайные величины 73 Неотрицательно определенная функ- ция 129, 438 Непрерывная случайная величина 35 Неравенство Чебышева 80 Несингулярный вероятностный про- цесс 272 Несмещенная оценка 95, 393, 396 Несмещенный критерий проверки гипотез 389 Несовместимые события 16 Нестационарный вероятностный про- цесс 55 Номинальная мощность источника 241 Нормальное (гауссовское) распреде- ление 90 Нормированная корреляционная функция 75 — случайная величина 72 — функция 437 Область отвергания гипотезы (кри- тическая область) 379 — принятия гипотезы 379 Обнаружение радиолокационных сиг- налов на фоне гауссовского шума 415 — сигналов в шуме, вероятность ошибки 406, 412, 428 — случайных сигналов в шуме 407 — — с неизвестными параметрами в шуме 409 — фиксированных сигналов в гаус- совском шуме 398 -----—----------регулярный слу- чай 404 — — —--------— сингулярный случай 402—404 Объем (уровень значимости) крите- рия проверки гипотез 380 Ограничитель идеальный 338 -----полосовой 338, 363, 365 Одномерная функция распределения 32 Однополупериодный линейный детек- тор 313 Ортогональность функций 437 Ортонормированная система функ- ций 437 Отношение правдоподобия 379 Оценка наибольшего правдоподобия 395 — несмещенная 95, 393, 396 — состоятельная 97, 394 — параметров сигнала в шуме 411 — статистическая 392 Ошибка второго рода 380 — первого рода 379 Парсеваля теорема 108 Переходная функция нелинейного устройства 327 Переходные проводимости короткого замыкания 210 Периодический вероятностный про- цесс НО Периодограмма 131 Пикара теорема 440 Планшереля теорема 108 Плотность распределения вероятно- стей 35, см. также Распределение -------- условная 42 — совместного распределения вероят- ностей 39 Подавления слабых сигналов эф- фект 313, 360 Положительно определенная функция 438 Потери при проверке статистических гипотез 375—376 Правдоподобия отношение 379 — уравнение 394 Предел в среднем 80, 107, 437 — по вероятности 81 ---распределению 81 Преобразование Лапласа 328—329 — Фурье 108, 326 ---импульсной функций 432 Принцип наибольшего правдоподо- бия 378 Проверка статистических гипотез 372—391 — байесовское решение 374— 376, 386 — мощность критерия 380, 382, 388 — потери 375—376 — простые гипотезы 379 --------равномерно наиболее мощ- ный критерий 388 --------сложные гипотезы 379, 385 — уровень значимости (объем критерия) 380 — — — функция мощности крите- рия 388
Предметный указатель 462 Прогнозирующий фильтр 266 Производные импульсных функций 433 Производящая функция 67 Простая гипотеза 379 Пространство элементарных событий (выборочное пространство) 29 Прямая наилучшего предсказания (прямая среднеквадратичной рег- рессии) 72 Прямоугольная импульсная функция 431 Пуассона распределение 78, 105, 139—142 Равномерно наиболее мощный крите- рий 388 Равномерное распределение 57 •Радиолокатор импульсный 369, 416 Разброса диаграмма 71 Распределение 35 — биномиальное 27 V- гауссовское (нормальное) 48, 172 — Коши 56 — Максвелла (Рэлея) 155, 189 — моментов вылета электронов 139 — Пуассона 78, 105, 139—142 — равномерное 57 — экспоненциальное 55 — X2 48, 51 Регрессии среднеквадратичной пря- мая 72 Римана—Лебега лемма 130 Рэлея (Максвелла) распределение 155, 189 Свертка 205—206 Сглаживающий фильтр 256 -----с бесконечной задержкой 263 Симметричная функция 438 Сингулярный вероятностный процесс 272 Сложная гипотеза 379, 385 Случайная величина 30 — — дискретная 32 -----математическое ожидание 60 — — непрерывная 35 ----- нормированная 72 Случайное событие 13 Случайные величины гауссовские 175—181 —-------независимые 43, 44, 69 — — некоррелированные 73 Случайный вектор 30 — процесс, см. Вероятностный про- цесс (______ 7 Смешанный момент 64, 69 Собственная функция 118, 439 Собственное значение 118, 438 Событие достоверное 16, 18 — невозможное 17 — случайное 13 — элементарное 29 События несовместимые 16 — статистически независимые 22, 24 Совместная функция распределения 31 Совместно стационарные вероятност- ные процессы 77 Совместное выборочное пространство 32 Совместные вероятности 19 Согласованный фильтр 287—290 Состоятельная оценка 97, 394 — последовательность оценок 394 Спектральная плотность взаимная 132—133 — — периодического вероятност- ного процесса 110—113 — — периодической функции 109— НО — — произвольной функции 123— 125 — — стационарного в широком смысле вероятностного процесса 126—132 Среднее значение 60, см. также Математическое ожидание — по ансамблю 60 Средний шумфактор 246 — стандартный шумфактор 246 Стандартная шумовая температура 243 Стандартное отклонение 64 Стандартный шумфактор 245 Статистика 94, 398 Статистическая оценка 392 — независимость событий 22, 24 — устойчивость 13 Статистически независимые события 22, 24 — — эксперименты 24 Статистическое среднее 60 Стационарный вероятностный про- цесс 55, 76 Стохастический процесс, см. Ве- роятностный процесс Стохастическое среднее 60 Сходимость в среднем 80, 107, 437 — по вероятности 81 — — распределению 81 Температура шумовая 242
Предметный указатель 463 Теорема Бернулли 104 —. Биркгофа эргодическая 87 — Вильямса 220 — Карунена—Лоэва 118 — Ляпунова 102 — Мерсера 440 — Найквиста обобщенная 220—221 — Неймана—Пирсона 380 — Парсеваля 108 — Пикара 440 — Планшереля 108 — центральная предельная 99 Тепловой шум 217—221 Узкополосный вероятностный про- цесс 186 — гауссовский вероятностный про- цесс 186, 194, 199 Уравнение правдоподобия 394 Уровень значимости (объем) крите- рия проверки гипотез 380 Усиление по мощности усилителя 243, 247 Условная вероятность 21 — относительная частота 20 — плотность распределения вероят- ностей 42 — функция распределения 42 Устойчивая линейная система 207 Устойчивость статистическая 13 Фазовый детектор 422 Фединг 368 Физически осуществимая линейная система 205 Филлипса фильтр 280 Фильтр, обеспечивающий максимум отношения сигнал/шум 287, 405, 409 — идеальный низких частот 298 — прогнозирующий 256 — сглаживающий 256 ---с бесконечной задержкой 263 — согласованный 287—290 — Филлипса 280 Формула Чайльда—Ленгмюйра 115 — Шоттки 148 Функция абсолютно интегрируемая 106 — взаимная корреляционная 76 — временная корреляционная 88 — единичного скачка 429 — импульсная 37, 429—435, см. также Импульсная функция --- измеримая 30 — корреляционная 75 Функция взаимная 76 --- нормированная 75 — кусочно-непрерывная 437 — мощности критерия проверки ги- потез 388 — неотрицательно определенная 129, 438 — нормированная 437 — от случайной величины 45 — передачи линейной системы 203, 208 — переходная нелинейного устрой- ства 327 — положительно определенная 438 — правдоподобия 394 — производящая 67 — распределения 31, см. также Рас- пределение — дискретной случайной величины 33 •--одномерная 32 ---совместная 31 ---условная 42 — симметричная 438 — собственная 118, 439 — характеристическая 65, 68 Фурье коэффициенты 106 — преобразования 108, 326 — ряд 106, 117 Характеристика нелинейного устрой- ства 294 Характеристическая функция 65, 68 Центральная предельная теорема 99 Центральный момент 64 Чайльда—Ленгмюйра формула 155 Частота относительная 14 --- условная 20 Чебышева неравенство 80 Шоттки формула 148 Шумовая мера усилителя 255 — температура 242 — — относительная 242 • — — стандартная 243 — — эффективная 242 Шум распределения 167 Шумфактор 240—255 — вычисление 253 — определение 244 — средний 246 ---стандартный 246 — стандартный 245
464 Предметный указатель Эксперименты статистически незави- симые 24 Экспоненциальное распределение 55 Элементарное событие 29 Эргодическая теорема Биркгофа 85 Эргодичности условие 85 Эффективная ширина полосы шума линейной системы 236 — шумовая температура 242 Эффект подавления слабых сигналов 313, 360 Ядро интегрального уравнения 436 i
ОГЛАВЛЕНИЕ Предисловие редактора перевода ...................................... 5 Предисловие.......................................................... 7 Глава 1. Введение................................................... 9 1.1. Системы связи и статистика................................ 9 1.2. Эта книга................................................ 10 Глава. 2. Вероятность............................................... 13 2.1. Введение................................................ 13 2.2. Основы.................................................. 15 2.3. Совместные вероятности.......,.......................... 18 2.4. Условные вероятности.................................... 20 2.5. Статистическая независимость............................ 22 2.6. Примеры................................................ 25 2.7. Задачи.................................................. 27 Глава 3. Случайные величины и распределения вероятностей . ... 29 3.1. Определения............................................. 29 3.2. Функции распределения случайных величин................. 31 3.3. Дискретные случайные величины........................... 32 3.4. Непрерывные случайные величины......................... 35 3.5. Независимые случайные величины.......................... 43 3.6. Функции от случайных величин............................ 45 3.7. Вероятностные процессы.................................. 51 3.8. Задачи.................................................. 55 Глава 4. Средние значения.......................................... 59 4.1. Математические ожидания................................. 59 4.2. Моменты................................................. 63 4.3. Характеристические функции.............................. 65 4.4. Корреляция.............................................. 71 4.5. Корреляционные функции.................................. 75 4.6. Сходимость.............................................. 79 4.7. Интегралы от вероятностных процессов.................... 82 4.8. Временные средние....................................... 84 4.9. Задачи.................................................. 90 Глава 5. Выбор..................................................... 94 5.1. Введение........................................... . 94 5.2. Выборочное среднее...................................... 95
466 Оглавление 5,3. Сходимость выборочных средних........................... 95 5.4. Центральная предельная теорема .......................... 99 5.5. Относительная частота................................... 103- 5.6. Задачи . 104 Глава. 6. Спектральный анализ.................................... 106 6.1. Введение................................................. 1С6 6.2. Спектральная плотность периодической функции............. 109 6.3. Спектральная, плотность периодического вероятностного про- цесса................................................. 110 6.4. Разложение вероятностных процессов в ортогональные ряды ИЗ 6.5; Спектральная плотность произвольной функции........... 123 6.6. Спектральный анализ стационарных в широком смысле ве- роятностных процессов....................... . . . 126 6.7. Взаимные спектральные плотности . • . 132 6.8. Задачи ............................. ................. 133 Глава 7. Дробовой шум..........................:................. 136 7.1. Обзор некоторых вопросов электроники.................. 136 7.2. Распределение вероятностей для моментов вылета электронов 139 7.3. Средний ток в диоде, работающем в режиме, насыщения . . 143 7.4. Спектральная плотность дробового шума диода, работаю- щего в режиме насыщения.................................... 146 7.5. Плотность распределения вероятностей для дробового шума диода в режиме насыщения................................... 149 7.6. Ток диода, работающего не в режиме насыщения.......... 154 7.7. Дробовой шум диода, работающего не в режиме насыщения 162 . 7.8. Дробовой шум триодов и пентодов, работающих не в ре- жиме насыщения................................................ 165 7.9. Задачи................................................... 170 Глава 8. Гауссовский процесс........................................ 172 8.1. Гауссовские случайные величины........................... 172 8.2. Двумерное распределение................................. 174’ 8.3. Многомерное распределение................................ 179 8.4. Гауссовский вероятностный процесс........................ 181 8.5. Узкополосный гауссовский вероятностный процесс .... 186 • 8.6. Сумма синусоидального сигнала и узкополосного гауссовского вероятностного процесса . . '.......................... 194 8.7. Задачи................................................... 197 Глава 9. Линейные системы .................................... 201 9.1. Элементы теории линейных систем.......................... 201 9.2. Случайные воздействия.................................... 212 9.3. Корреляционная функция и спектр отклика.................. 213 9.4. Тепловой шум............................................. 217 9.5. Распределения вероятностей отклика....................... 222 9.6. Задачи.................................................. 235
Оглавление 467 Глава 10. Шумфактор................................................. 240 10.1. Определения............................................. 240 10.2. Шумфактор............................................... 244 10.3. Многокаскадный усилитель . ............................. 246 10.4. Пример ................................;................ 250 10.5. Задачи ................................................ 253 Глава 11. Оптимальные линейные системы.............................. 256 11.1. Введение................................................ 256 11.2. Сглаживание и прогнозирование стационарных воздействий с использованием бесконечной предыстории (теория Винера) . . 260 11.3. Чистое прогнозирование: несингулярные процессы....... 265 11.4. Решение уравнения прогнозирования и фильтрации .... 273 11.5. Другие задачи фильтрации, использующие критерий сред- неквадратичной ошибки........................................ 280 11.6. Сглаживание и прогнозирование при конечном времени наблюдения................................................... 282 11.7. Максимизация отношения сигнал/шум; согласованный фильтр...............................'....................... 287 11.8. Задачи.................................................. 291 Глава 12. Нелинейные системы; прямой метод......................... 294г 12.1. Общие замечания......................................... 294 12.2. Квадратичный детектор.................................. 296 12.3. Квадратичный детектор; сигнал плюс шум на входе . . . . 303 12.4. Однопол у периодный линейный детектор .................. 313 12.5. Задачи.................................................. 321 Глава 13. Нелинейные системы; метод преобразований.................. 326 13.1. Переходная функция ..................................... 326 13.2. Устройства v-и степени.................................. 329 13.3 Корреляционная функция и спектральная плотность от- клика ....................................................... 339 13.4 Спектральная плотность отклика.......................... 344 13.5. Узкополосное воздействие................................ 347 13 6. Детекторы v-й степени.................................. 354 13.7. Задачи.................................................. 362 Глава 14. Статистическое обнаружение сигналов....................... 366 14.1. Применение статистических понятий в вопросах радиосвязи и радиолокации........................................... . . 367 14.2. Проверка статистических гипотез......................... 372 14.3. Критерии отношения правдоподобия........................ 376 14.4. Статистические оценки................................... 392 14.5. Передача информации фиксированными сигналами на фоне гауссовского шума............................................ 39В 14.6. Сигналы с неизвестными параметрами в белом шуме .... 407 14.7. Радиолокационные сигналы на фоне гауссовского шума . . 415 14.8. Задачи.................................................. 424
468 Оглавление Приложение 1. Импульсные функции.................. . . . 429 П.1.1. Определения..................................> 429 П.1.2. Интегралы с дельта-функцией................. 431 П.1 3. Преобразования Фурье........................ 432 П.1.4. Производные импульсных функций.............. 433 Приложение 2. Интегральные уравнения .*................. 436 П.2.1. Определения........................ . . . . 436 П.2.2. Теоремы . . ................................ 438 П.2.3. Рациональный спектр......................... 441 Литература...............•.............................. 450 Предметный указатель.................................... 459 В. Б. Давенпорт и В. Л. Рут ВВЕДЕНИЕ В ТЕОРИЮ СЛУЧАЙНЫХ СИГНАЛОВ И ШУМОВ Редактор №. С, АГРАНОВИЧ Художник №. Г. Ровенский Художественный редактор Е. И. Подмарькова Технический редактор С. В. Приданцева Сдано в производство 21/1—1960 г. Подписано к печати 20/IV-1960 г. ' Бумага 60x921/16=14, 6 бум. л. 29, 25 печ. л., Уч.-изд. л. 26,1. Изд. № 1/4662 Цена 20 р. 25 к. Зак. 57 ИЗДАТЕЛЬСТВО ИНОСТРАННОЙ ЛИТЕРАТУРЫ Москва, Ново-Алексеевская, 52 Московская типография № 5 Мосгорсовнархоза. Москва, Трехпрудный пер., д. 9
ОПЕЧАТКИ Стра- ница Строка Напечатано Следует читать 65 2 сн. I, 4. II, I. Ч. II, 67 7 сн. 1^4. I, I. Ч. I, 150 1 сн. =п2Т —п2Т 171 3 сн. «А eli 359 9 сн. 4 «ж 359 4 сн. No(N N) No(NXN) 362 14 сн. Сбит шрифт 363 10 сн. > » H-i; 364 7 сн. (h (k)i Зак. 57