Текст
                    Е. .Гурский ТЕОР Я
BE ТН СТЕ"
Е ЕНТ*
ATE 'T ЧЕС ОЙ
Т Т Т К
i


Ё. И. Гурский ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ Допущено Министерством высшего и среднего специального образования СССР ' в качестве учебного пособия для студентов высших технических учебных заведений Издательство «высшая школа» MOCK В А— 197 1 1
517 8 Г 95 УДК 519.2 Гурский Е. И. Г 95 Теория вероятностей с элементами математической статистики. Учеб. пособие для втузов. М, «Высшая школа», 1971. 328 с. с илл. В настоящем пособии содержится изложение курса теории вероятностей, а также элементов теории случайных функций и математической статистики. Помимо теоретического материала, в книге имеется большое количество примеров. Кроме того, в конце каждой главы предлагаются вопросы для самопроверки и задачи. Предназначается для студентов высших технических учебных заведений. 2-2-3 517.8 42-71 Гурский Евгений Иванович ТЕОРИЯ ВЕРОЯТНОСТЕЙ С ЭЛЕМЕНТАМИ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ Редактор А. М. Суходский Художественный редактор В, И. Пономаренко Художник В В. Шляндин Технический редактор Л. А. Муравьева Корректор Н. С. Логунова Сдано в набор 15/IX 1970 г. Подп. к печати 9/11 I971 г. Формат 84Х108'/зг. Объем 10,25 печ. л. 17,22 усл. п. л Уч.- изд. л. 15,29. Изд. № ФМ-458. Тираж 50 000 экз. Зак. 1381. Цепа 59 коп. , План выпуска литературы издательства «Высшая школа» (вузы и техникумы) на 1971 год. Позиция № 42. Москва. К-51, Неглинная ул., д. 29/14. Издательство «Высшая Юкола» Ордена Трудового Красного Знамени Ленинградская типография № 1 «Печатный Двор» им. А. М. Горького Главполиграфпрома Комитета по печати при Совете Министров СССР, г. Ленинград, Гатчинская ул., 26.
Предисловие Настоящее учебное пособие возникло на основе курса теории вероятностей, читавшегося автором в течение ряда« лет слушателям Минского высшего инженерного радиотехнического училища, а также учебного пособия по некоторым разделам этого курса, изданного училищем ограниченным тиражом в"1966 г. Книга предназначается для лиц, знакомых с математикой в объеме,обычного курса высших технических учебных заведений. Она является пособием для студентов втузов при изучении вопросов теории вероятностей, элементов теории случайных функций и математической статистики, предусмотренных программами высших технических учебных заведений. Кроме теоретического материала, в" конце каждой главы имеются подробно составленные вопросы и предложения для самопроверки, а также приводится достаточное количество задач по каждому разделу курса, что в значительной мере исключает использование задачника и способствует усвоению излагаемого материала. Автор выражает глубокую благодарность рецензентам книги академику Б. В. Гнеденко, доценту Р. Я. Шостаку, доценту А. И. Сироте и ст. преподавателю К. Ш. Ярошевской, прочитавшим рукопись и сделавшим ряд полезных замечаний. Автор
ВВЕДЕНИЕ В научных исследованиях, технике и массовом производстве часто приходится встречаться с явлениями, которые при неоднократном воспроизведений одного и того же опыта в неизменных условиях протекают каждый раз несколько по-иному. Такие явления называются случайными. Так, например, при стрельбе результат каждого отдельного выстрела будет случайным. Производя экспериментальное исследование какого-либо явления и систематизируя результаты исследования в виде графической зависимости, мы убеждаемся в том, что при достаточно большом количестве экспериментальных точек получается не кривая, а некоторая полоса, т. е. имеет место случайный разброс экспериментальных точек. При решении многих практических задач этими случайными отклонениями можно пренебречь, предполагая, что в данных условиях опыта явление протекает вполне определенно. Выявляется основная закономерность, свойственная данному явлению, по которой, применяя тот или иной математический аппарат, возможно предсказать результат опыта по его заданным условиям. По мере развития многих отраслей науки становится необходимым изучать случайные явления, с тем чтобы научиться предвидеть действия случайных факторов и учитывать их в практическом решении задач. Математическая наука, изучающая общие закономерности случайных явлений независимо от их конкретной природы и дающая методы количественной оценки влияния случайных факторов на различные явления, называется теорией вероятностей. Основой научного исследования в теории вероятностей является опыт и наблюдение. На практике очень часто приходится иметь дело с различными опытами. Опыты могут давать различные результаты в зависимости от того комплекса условий, в которых они происходят. Результаты опыта можно характеризовать качественно и количественно. Качественная характеристика результата опыта есть событие. Например, появление на выходе приемника 4
радиопомехи в некотором определенном интервале времени является событием. Попадание в цель при выстреле является тоже событием. То, что при изменении некоторой величины получена величина меньше некоторого числа а, является событием и т. д. Количественная характеристика результата опыта, которая может принимать одно из ряда возможных значений, заранее неизвестно какое именно, называется случайной величиной. Случайные величины могут иметь различный характер. Так, например, можно рассматривать скалярные случайные величины, случайные векторы, случайные функции и т. д. Каждое возможное значение скалярной случайной величины есть число. Каждое возможное значение случайного вектора есть вектор, который характеризуется совокупностью соответствующего количества чисел (системы случайных величин). Каждое возможное значение случайной функции представляет собой некоторую конкретную функцию, которая называется реализацией случайной функции. Примерами скалярных случайных величин могут служить ошибки измерения длины, веса и т. д. Примерами случайных векторов могут служить совбкупности ошибок совместного измерения нескольких постоянных скалярных величин. .Примерами случайных функций времени являются помехи, которые будут поступать в приемник радиоканала вместе с полезным сигналом. Методы теории вероятностей широко применяются в различных отраслях естествознания и техники. Автоматическое управление производственными процессами, создание автоматических радиолокационных станций и автоматических математических машин, проблема автоматического управления полетом самолетов и другие технические проблемы автоматики и телемеханики вызвали бурное развитие теории автоматического регулирования как теоретической основы автоматики и телемеханики. Но теория автоматического регулирования не' могла достаточно полно охватить процесс работы автоматических систем без использования вероятностных методов (особенно теории случайных функций), так как в любой автоматической системе имеются источники постоянно действующих случайных возмущений, которые оказывают существенное влияние на весь процесс работы системы. 5
Теория вероятностей служит также для обоснования математической и прикладной статистики, которая в свою очередь используется при планировании и организации производства, при анализе технологических процессов, при оценке качества продукции и для многих других целей. Первые работы, в которых зарождались основные понятия теории вероятностей, были связаны с исследованием правил для азартных игр. Работы Паскаля, Ферма и Гюйгенса в середине XVII века являлись основой и началом теории вероятностей. Дальнейшее развитие теории вероятностей связано с именем Якова Бернулли. Яков Бернулли во второй половине XVII века впервые показал, что с увеличением числа испытаний частота какого-либо случайного события приобретает устойчивость и определенным образом приближается к некоторому безразмерному числу, которое объективно отражает возможность появления этого события и называется вероятностью. Математик Муавр в начале XVIII века впервые рассмотрел простейший случай нормального закона, который в настоящее время имеет широкое применение. Большое значение в развитии теории вероятностей имели работы таких математиков, как Лаплас, Гаусс и Пуассон, которые жили в первой половине XIX века- Лаплас впервые дал стройное и систематическое изложение основ теории вероятностей, дал доказательство одной из форм центральной предельной теоремы. Гаусс дал более общее обоснование нормальному закону и разработал метод обработки экспериментальных данных. С именем Пуассона связан один из законов распределения, который играет большую роль в теории вероятностей и ее приложениях. В XIX веке вопросами теории вероятностей стали .заниматься выдающиеся русские ученые: П. Л. Чебышев и его ученики А. А. Марков и А. М. Ляпунов. Создалась так называемая Петербургская школа теории вероятностей. П. Л. Чебышев ввел в теорш'о вероятностей понятие случайной величины и метод моментов, что привело к созданию мощного современного аппарата теории вероятностей. А. А. Марков в своих трудах существенно расширил область применения закона больших чисел и центральной предельной теоремы. Очень важной заслугой А. А. Маркова является ю, что он в своих трудах 6
положил основу для новой области теории вероятностей— теории случайных процессов. А. М. Ляпунов известен своим доказательством так называемой централь1 ной предельной теоремы и разработкой метода характеристических функций. Советская школа теории вероятностей занимает в мировой науке ведущее место. Среди многих ученых —виднейших математиков нашей страны, занимавшихся разработкой вопросов теории вероятностей, необходимо отметить С. Н. Бернштейна,. А. Я- Хинчина, А. Н. Колмогорова, В. И. Романовского, Б. В. Гнеденко, В. С. Пугачева. С. Н. Бернштейн разработал первую законченную аксиоматику теории вероятностей и существенно расширил область применения предельных теорем. A. Я- Хинчин известен своими исследованиями в области стационарных случайных процессов, предельных теорем теории вероятностей. Особое значение в развитии теории вероятностей и математической статистики имеют работы Д. Н. Колмогорова. Он дал наиболее совершенное аксиоматическое построение теории вероятностей. Работы А. Н. Колмогорова в области теории случайных функций являются основой всех исследований в данной области. B. И. Романовский известен своими работами в области математической статистики; Б. В. Гнеденко — исследо-- ваниями в области предельных теорем теории вероятностей, теории массового обслуживания и теории надежности. В. С. Пугачев разработал ряд общих методов в теории случайных функций и применении этих методов при исследовании динамических систем. - #
Гц ава 1 ОПРЕДЕЛЕНИЕ ВЕРОЯТНОСТИ И ОСНОВНЫЕ ПРАВИЛА ЕЕ ВЫЧИСЛЕНИЯ § 1.1. СЛУЧАЙНЫЕ СОБЫТИЯ. КЛАССИФИКАЦИЯ СОБЫТИЙ В основе теории вероятностей, как и в основе любой другой науки, лежат некоторые определения, начальные понятия. При помощи этих понятий дается логическое определение последующих более сложных понятий. В качестве одного из основных понятий, которым оперирует теория вероятностей, является событие. Событием в теории вероятностей называется всякий факт, который может произойти в результате некоторого опыта (испытания). Примерами событий могут служить: 1. Попадание в цель при выстреле из орудия (опыт — произведение выстрела, событие — попадание в цель). 2. Выпадание двух гербов при трехкратном бросании монеты (опыт — трехкратное бросание монеты, событие — выпадание двух гербов). 3. Появление ошибки измерения в заданных пределах при измерении дальности до цели (опыт —измерение дальности, событие — ошибка измерения). События принято обозначать большими буквами латинского алфавита. Например, событие А — попадание в цель при выстреле, событие В — принятие сигнала радиостанцией при наличии помех и т. д. . Различные события отличаются между собой по степени возможности их появления и по характеру взаимосвязи. Для правильной ориентировки в« теоремах теории вероятностей необходимо разобраться в существующей классификации событий. Если при всех опытах (испытаниях) рассматриваемое событие всегда наступает, то оно называется достоверным. Например, при взрыве осколочного снаряда достоверное событие — разрушение оболочки; при сбрасывании бомбы с самолета достоверное событие — падение бомбы на поверхность земли и т. д. 8
Если при всех опытах рассматриваемое событие никогда не наступает, то оно называется невозможным. Например, при отсутствии тока в электрической цепи невозможное событие — загорание лампочки; при подбрасывании игральной кости невозможное событие — одновременное выпадание 2 и 3 очков и т. д. Возможным, или случайным, событием называется событие, которое в результате опыта может появиться, но может и не появиться. Например, попадание в цель при выстреле, выигрыш на купленный билет лотереи и т. д. Два или несколько случайных событий называются равновозможными, если условия их появления одинаковы и нет оснований утверждать, что какое-либо из них в результате опыта имеет больше шансов появиться, чем другое. Например, выпадание любого количества очков от единицы до шести при подбрасывании игральной кости; выпадание герба и выпадание цифры при подбрасывании монеты и т. д. Два события Л и В -называются совместными, если появление одного из них не исключает появление дру- гогр. Например, подбрасываются две игральные кости. Событие А — выпадание 3 очков на первой игральной кости, событие В — выпадание 3 очков на второй кости. А и В — совместные события. Два события А и В называются несовместными, если появление одного из них исключает появление другого. Например, в магазин поступила партия обуви одного фасона и размера, но разного цвета. Событие А — наудачу взятая коробка окажется с обувью черного цвета, событие В — коробка окажется с обувью коричневого цвета. А и В — несовместные события. Группа событий А\, А2,...,Ап называется группой несовместных событий, если события, входящие в группу, попарно несовместны. Например, производится выстрел по мишени. Ai — попадание в десятку, Л2— попадание в восьмерку, Л3—попадание в шестерку, Л4— попадание в четверку, Л3—попадание в двойку, Л6— промах. Ль А%, As, Ai, Л3, Л6 образуют группу несовместных событий. Группа событий называется группой совместных событий, если совместны хотя бы два события из этой группы. Например, производится три выстрела по мишени. А\ — попадание в мишень при первом выстреле, Лг — попадание в мишень при втором выстреле и Л3 — а
попадание в' мишень при третьем выстреле. Ль Л2, Аг образуют группу совместных событий. Несколько событий образуют полную группу, если в результате опыта обязательно наступает хотя бы одно из них. На практике широкое применение находит полная группа несовместных событий. Пример 1. В урне находится 10 шаров, из них 6 шаров красных, 4 белых, причем 5 шаров имеют номера. А — появление красного шара при одном вынимании, В — появление белого шара, С — появление шара с номером. События А, В, С образуют полную группу совместных событий. Пример 2. По цели производится- три выстрела. Пусть А обозначает промах, В — одно попадание, С — два попадания и D — три попадания. События А, В, С и D образуют полную группу несовместных событий. На практике часто интересуются наступлением двух несовместных событий, образующих полную группу. Такие события называются противоположными. Событие, противоположное событию А, принято обозначать через А. Например, искажение А и неискажение А какого-либо -знака_ при телеграфной передаче, попадание В и промах В при выстреле по цели и т. д. § 1.2. СУММА И ПРОИЗВЕДЕНИЕ СОБЫТИЙ При разработке аппарата и методики исследования случайных событий в теории вероятностей очень важным понятием является понятие суммы и произведения событий. Суммой, или объединением, нескольких событий называется событие, состоящее в наступлении хотя бы одного из этих событий. Сумма S событий А, В, С N обозначается так: Например, если событие А есть попадание в цель при первом выстреле, событие В — попадание в цель при втором выстреле, то событие С = А-\-В есть попадание в цель вообще, безразлично, при каком выстреле—- при первом, при втором или при обоих вместе. 19
Произведением, или совмещением, нескольких событий называется событие, состоящее в совместном появлении всех этих событий. Произведение S событий А, В, С N обозначается так: S = ABC...N. Например, если событие А есть попадание в цель при первом выстреле, событие В — попадание в цель при втором выстреле, то событие С=АВ состоит в том, что в цель попали при обоих выстрелах. При решении различных задач, связанных с событиями, очень часто приходится представлять сложные события в виде комбинации более простых событий, применяя операцию сложения и операцию умножения событий. Например, пусть по мишени производится три выстрела и рассматриваются следующие простейшие события: /4i — попадание при первом выстреле; Ах — промах при первом выстреле; А-2 — попадание при втором выстреле; А>—промах при втором • выстреле; Л3 — попадание при третьем выстреле; Л3—промах при третьем выстреле. Рассмотрим сложное событие. В, состоящее в том, что в результате трех выстрелов будет ровно одно попадание в мишень. Событие В можно представить в виде следующей комбинации простейших событий: В = AiA^Aa -f Л1 ЛзД, + АХА*АЪ. Событие С, состоящее в том, что в мишень будет не менее двух попаданий, может быть представлено в виде С = AiAiA3-{- AiAiAi-{- AiAiA^-i- AiAtA3. Непосредственно из определения суммы и произведения событий следует, что А + А = А, АА=А. В некоторых случаях можно наблюдать, что наступление одного события В влечет за собой наступление 11
другого события А. Тогда говорят, что событие В содержится в событии А и обозначают это символом ВС1Л (В содержится в А). Легко проверить, что если событие В содержалось в "событии А, то имеют место следующие равенства: А + В = А, АВ = В. Понятия суммы и произведения событий имеют наглядную геометрическую интерпретацию. Действительно, Рис. 1 , Рис. 2 пусть событие А есть попадание точки в область Л, соответственно событие В — попадание в область В, тогда событие А-\-В есть попадание точки в область, заштрихованную на рис. 1, и событие АВ есть попадание точки в область, заштрихованную на рис. 2. § 1.3. ЧАСТОТА СОБЫТИЯ И ЕЕ СВОЙСТВА Пусть произведена серия из п опытов (испытаний), в каждом из которых могло появиться или не появиться некоторое событие А. Частотой события А в данной серии испытаний называется отношение числа испытаний, в которых появилось событие, к числу всех испытаний. Обозначая частоту события А через Р* (А), имеем по определению: Р*(А) = —, где т — число испытаний, в которых появилось событие А, а п — общее число испытаний. V
Пример. Для контроля качества изделий из партий наугад выбрано 100 изделий, среди которых 3 изделия оказались бракованными. Определить частоту брака. Решение. Обозначая через А событие, состоящее в получении бракованного изделия, будем иметь: т = 3, /г=100. Частота брака Р* (Л) =-^ = 0,03. Рассмотрим свойства частоты. Свойство 1. Частота случайного события А есть неотрицательное число, заключенное между нулем и единицей, т. е. 0<Р*(Л)^1. Действительно, случайное событие А в серии из п опытов может наступать от 0 до п раз, т. е. О^т^п. Следовательно, частота события А Р* (А)=— есть неотрицательное число, заключенное между нулем и единицей. Свойство 2. Частота достоверного события равна единице. Это свойство вытекает из того, что достоверное событие А наступает при каждом испытании, т. е. т~п. Поэтому Р*(Л) = - = - = 1. Свойство 3. Частота невозможного события равна нулю. В самом деле, при повторении опытов невозможное событие ни разу не наступает, т. е. т = 0. Тогда р*(Л) = - = - = 0.- Мы рассмотрели свойства частоты одного события, но на практике могут иметь место случаи, когда в серии из п опытов наступает не одно событие, а несколько событий, которые находятся в каком-либо отношении друг с другом. Если при повторении опыта может появиться либо событие А, либо событие В, то имеет место следующее свойство частоты, которое называется правилом сложения частот. 13
Свойство 4. Частота суммы двух несовместных событий А и В равна сумме частот этих событий: Р*(А + В) = Р*(А)-\-Р*(В). (1.1) Доказательство. Пусть в результате серии из п опытов событие А появилось т раз/а событие В — k разГ Это значит, что P*(i4) = f, Р*(Д) = |. Так как события А и В несовместны, то нет таких опытов, в которых события А и В появились вместе. Поэтому из определения суммы событий следует, что событие А-\-В появилось m-\-k раз, и, следовательно, Р*(А+В) = '^Г^. Подставляя полученные выражения Р* (А), Р* (В) и Р*(А~\-В) в формулу (1.1), получим тождество. Свойство доказано. Рассмотрим теперь появление двух совместных событий А и В в результате повторения опыта. В этом случае мы можем подсчитать ряд частот. Так, например: 1) частоту события А безотносительно к наступлению события В; 2) частоту события В безотносительно к наступлению события А; 3) частоту произведения событий А и В; 4) частоту наступления события А при условии наступления события В или частоту события В при условии наступления события А. Частоту одного события, вычисленную при условии наступления другого события, называют условной частотой и обозначают Р*(А\В), Р*(В\А). Для совместных событий имеет место следующее свойство частоты, которое называется правилом умножения частот. Свойство^.5. Частота произведения двух событий равна произведению частоты одного из них на условную частоту другого р* (АВ) = Р* (А)Р* (В\А) = Р* (В)Р* (А \В). (1.2) 14
Доказательство. Пусть в результате серии из п опытов событие А появилось т раз и событие В — k раз, причем / раз события А и В появились вместе. Тогда P*(A) = j, P*{B)=k~, P*(AB)=L. Так как событие А появилось в т опытах и в / из этих т опытов появилось вместе с ним событие В, то условная частота события В при условии, что событие А имело место, равно - , т. е. Р*(В А)= -. ■ Аналогично P*(A\B) = -L. Подставляя выражения Р* (АВ), Р* (А), Р* (В), Р*(В\А) и Р*(А\В) в формулу (1.2), получим тождество. Свойство доказано. § 1.4. ВЕРОЯТНОСТЬ СОБЫТИЯ Частоту события можно определить только после проведения опытов, и в различных сериях опытов при одних и тех же условиях частота события не остается постоянной. Поэтому понятие частоты является плохой характеристикой события. Однако по мере увеличения числа испытаний, частота постепенно стабилизируется, т. е. принимает значения, мало отличающиеся от некоторого вполне определенного числа. Таким образом, с рассматриваемым событием можно связать некоторую постоянную величину, около которой группируются частоты и которая является характеристикой объективной связи между комплексом условий, при котором производятся опыты, и событием. Эта постоянная величина называется вероятностью события. Итак, вероятностью случайного события называется постоянное число, около которого группируются частоты этого события по мере увеличения числа испытаний. Это определение вероятности называется „ статистическим. Вероятность события А принято обозначать Р (А). Если речь не идет о каком-нибудь конкретном событии, то вероятность будем обозначать просто через Р или р. 15
Статистический способ определения вероятности имеет то преимущество, что он опирается на реальный эксперимент. Однако он имеет тот существенный недостаток, что для надежного определения вероятности необходимо проделать большое число опытов, которые очень часто связаны с материальными затратами, То, что каждое массовое случайное событие имеет свою вероятность, является опытным фактором и цод- тверждает существование статистических закономерностей в природе. Иногда из соображений симметрии вероятность события может быть определена непосредственно. Например, при бросании монеты вероятность появления герба равна у, так как при большом числе опытов следует ожидать появление герба примерно в половине всех случаев. Статистическое определение вероятности события хотя и достаточно полно выявляет содержание этого понятия, но не дает возможности фактического вычисления вероятности, т. е." не является рабочим определением. Поэтому рассмотрим другое, так называемое классическое определение вероятности события. Классический способ определения вероятности основан на понятии равновозможных-событий, которые являются исходом данного опыта и образуют полную группу несовместных событий. В § 1.1 мы дали определение равновозможных событий и привели несколько примеров. Наиболее простым примером равновозможных и несовместных событий, образующих полную группу, является появление того или иного шара из урны, содержащей несколько одинаковых по размеру, весу и другим осязаемым признакам шаров, тщательно 'перемешанных перед выниманием. Поэтому об испытании, исходы которого образуют полную группу несовместных и равновозможных событий, говорят, что оно сводится к схеме урн. Так, например, испытание с подбрасыванием монеты сводится к схеме урны, содержащей два шара; испытание с подбрасыванием игральной кости сводится к схеме урны, содержащей шесть шаров, и т. д. Равновозможные и несовместные события, составляющие полную группу, будем называть просто случаями или шансами. По отношению к каждому событию слу- \6
чаи (шансы) делятся на благоприятные, при которых это событие происходит, и неблагоприятные, при которых это событие не происходит. Например, при подбрасывании игральной кости событию появления четного числа очков благоприятствуют три случая (2, 4, б очков) и не благоприятствуют также три случая (1,3, 5 очков). Эти вспомогательные понятия позволяют теперь дать другое определение вероятности появления события. Вероятностью появления некоторого события называется отношение числа случаев, благоприятствующих появлению этого события, к общему числу равновозможных в данном опыте случаев. Такое определение называется классическим определением, так как оно являлось определением понятия вероятности в начальный период развития теории вероятностей. Важным достоинством этого способа определения вероятности является то, что с его помощью вероятность события можно определить до опыта и заранее сделать для себя выводы. Однако этот способ имеет тот существенный недостаток, что он применим только тогда, когда мы имеем дело с равновозможными исходами испытания. Обозначая число случаев, благоприятствующих событию А, через т и общее число равновозможных случаев через п, данное классическое определение вероятности можем записать в виде формулы Р(А) = ". 0-3) Рассмотрим примеры решения задач с применением формулы (1.3). Пример 1. Найти вероятность того, что при бросании игральной кости выпадет число очков, делящееся на 2. Решение. Обозначим через А выпадание числа очков, делящегося на 2. Число всех равновозможных случаев п = 6. Число благоприятствующих случаев т = 3 (выпадание 2, 4 и 6 очков). Поэтому Р(л)=4=4- Пример 2. В урне находится 15 шаров, из них 9 красных и 6 синих. Найти вероятность того, что вынутые наугад два шара оба окажутся красными. Решение. В данном примере общее число равно- возможных случаев равно числу сочетаний из всего числа П
шаров по два (л = С1э8), поскольку любые два шара из пятнадцати могут быть вынуты с равными шансами. Следовательно, Л = ^в = ^ = ^=105. Обозначим через А событие, состоящее в появлении двух красных шаров; тогда число случаев, благоприятствующих событию А, равно числу сочетаний из числа красных шаров по два. Поэтому ч • 8 /и = С| = "^ = 36. Следовательно, р ( А) _ т — 36 — 12 НУЛ) — 7Г — Т05 — 35* Пример 3. В партии из N изделий имеются М бракованных. Из партии выбирается наугад п изделий. Определить вероятность того, что среди этих п изделий будет ровно m бракованных. Решение. Из условия задачи следует, что M^N и т^ п. Так как любая комбинация из N по п изделий имеет одинаковую возможность появления, то всех равно- возможных случаев будет С%. Обозначим через А появление т бракованных изделий среди выбранных наугад п изделий. Так как всех бракованных изделий М, то число способов, которыми можно вынуть т бракованных изделий, равно См- Но каждый из этих способов может дополняться любой группой изделий из числа способов, которыми можно вынуть оставшиеся п — т годных из общего числа годных N — М изделий. Число таких групп равно C%Z!!m. Следовательно, всех случаев, благоприятствующих появлению события А, равно Cm /-i/i— m Поэтому p(A) = ^l£^l. § 1.5. ГЕОМЕТРИЧЕСКАЯ ВЕРОЯТНОСТЬ В классическом определении вероятности рассматриг вается полная группа конечного числа равновозможных событий. На практике же очень часто встречаются такие 18
испытания, число возможных исходов которых бесконечно. В таких случаях классическое определение неприменимо. Однако иногда в таких случаях можно воспользоваться другим методом вычисления вероятности, в котором по-прежнему основную роль играет понятие равновозможности некоторых событий. Применяется этот метод в задачах, сводящихся к случайному бросанию точки на конечный участок прямой, плоскости или пространства. Отсюда и возникает само название метода — геометрическая вероятность. Для определения ограничимся двумерным случаем. Одномерный и трехмерный случаи отличаются только тем, что вместо площади в них нужно говорить о длинах и объемах. Итак, пусть на плоскости имеется некоторая область D, площадь которой SD, и в ней содержится другая область d, площадь которой Sd (рис. 3). В область D наудачу бросает- Рис. 3 ся точка. Спрашивается, чему равна вероятность того, что точка попадет в область d? При этом предполагается, что наудачу брошенная точка может попасть в любую точку области D и вероятность попасть в какую-либо часть области D пропорциональна площади этой части и' не зависит от ее расположения и формы. В таком случае вероятность попадания в область d при бросании наудачу точки в область D равна Р = &. . (1.4) i oD Таким образом, в общем случае, если возможность случайного появления точки внутри некоторой области на прямой, плоскости или в пространстве определяется не положением этой области и ее границами, а только ее размером, т. е. длиной, площадью или объемом, то вероятность появления случайной точки внутри некоторой области определяется как отношение размера этой области к размеру всей области, в которой может появляться данная точка. Рассмотрим несколько примеров. 19
Пример 1. Имеется быстро вращающаяся С постоян* ной угловой скоростью круглая мишень. Пятая часть мишени, окрашена в черный цвет, а остальная часть мишени окрашена в белый цвет (рис. 4). По мишени производится выстрел так, что попадание в мишень —событие достоверное. Требуется определить вероятность попадания в черный сектор мишени. Решение. Обозначая через А интересующее нас событие, мы можем сразу же написать,, что Р(А)=±, Рис. 4 т. е. интересующая нас вероятность получена как отношение площади части круга, которая окрашена в черный цвет, ко всей его площади. Такое решение приходит в связи с тем, что попадание пули в какую-либо область мишени (размер пули не учитывается) определяется не положением этой области и ее границами, а только ее размером. Пример 2 (задача о встрече). Два лица договорились о встрече, которая должна произойти в определенном месте в любой момент промежутка времени Т. Определить вероятность встречи, если моменты прихода каждого лица независимы и время ожидания одним другого будет не больше т. Решение. Обозначим момент прихода одного лица через х, а второго — через у. Чтобы встреча состоялась, необходимо и достаточно, чтобы У Рис. 5 Будем рассматривать х и у как декартовы координаты на плоскости, всевозможные исходы изобразятся точками квадрата со стороной Т, а исходы, благоприятствующие встрече, расположатся в заштрихованной области (рис. 5). Искомая вероятность равна отношению площади заштрихованной фигуры к площади всего квадрата, т. е. р _ (Г - т)* __ , (у _ т_\а т) • Р = 9П
Пример 3. Какова вероятность, что из трех взятых наудачу отрезков длиной не более / можно построить треугольник? Решение. Обозначим через х, у и z длины наудачу взятых отрезков. Возможные их значения: x^l, у^1 и г</. Предположим, что x^y^z. Тогда для того, чтобы из этих отрезков можно было составить треугольник, необходимо выполнение неравенства x-\-y^>z. Будем рассматривать jc, у и z как декартовы координаты точки в пространстве; тогда всевозможные исходы выбора отрезков изобразятся точками куба со стороной / (рис. 6). Тройки же чисел (х, у, z), удовлетворяющие х/ условиям x^y^z и x-\-y^>z, (1.5) изобразятся точками заштрихованной пирамиды, объем которой равен у^. В таком случае вероятность выполнения условий (1.5) будет Рис 6 Pi- 12 ~ 12 Но так как число равновозможных упорядоченных расположений y^x^z, x^z^y и т. д. равно 3!, то искомая вероятность § 1.6. АКСИОМАТИЧЕСКОЕ ПОСТРОЕНИЕ ТЕОРИИ ВЕРОЯТНОСТЕЙ * Из статистического определения вероятности случайного события следует, что вероятность события есть число, около которого устойчиво колеблется частота этого события, наблюдаемая на опыте. Поэтому аксиомы теории вероятностей вводятся таким образом, чтобы вероятность события обладала основными свойствами частоты. Только в таком случае данная теория будет хорошо согласовываться с опытом. Исходя из первого свойства частоты, которое утвер- 21
ждает, что частота случайного события есть неотрицательное число, заключенное между нулем и единицей, вводится, первая аксиома теории вероятностей. Аксиома 1. Вероятность случайного события А есть неотрицательное число, заключенное между нулем и единицей, т. е. 0^Р(А)^\. Следующими двумя свойствами частоты является то, что частота достоверного события равна единице, а частота невозможного события равна нулю. На этом основании вводятся следующие две аксиомы. Аксиом а2. Вероятность достоверного события равна единице. Аксиома 3. Вероятность невозможного события равна нулю. Заметим, что если вероятность некоторого события А равна нулю, то это не означает, что событие невозможно. Вероятность Р (А) = 0 означает, что частота события А при достаточно большом числе опытов будет отличаться от нуля на сколь угодно малую величину. Так, например, если производить стрельбу по мишени, то при каждом выстреле пуля попадает в какую-то точку мишени (размер пули не учитывается). Поэтому событие А — попадание пули в данную точку мишени есть возможное событие. Однако число точек мишени, в которые может попасть пуля при повторных выстрелах, настолько велико, ч"то частота попадания в одну и ту же точку практически равна нулю. А это значит, что вероятность Р(А) = 0. Аналогично, если вероятность некоторого события равна единице, то это не означает, что нет таких случаев в результате повторения опытов, когда данное событие не наступает. Так, например, если рассматривать событие А, противоположное событию А предыдущего примера, то вероятность Р(А) = \. Но в тех случаях, когда наступает событие Л, не наступает ему противоположное событие А. На основании четвертого свойства частоты, выражающего правило сложения частот, вводится аксиома, которая называется аксиомой сложения вероятностей. Аксиома 4. Вероятность суммы (объединения) двух несовместных событий А и В равна сумме вероятностей этих событий, т. е. Р(Л+Д) = Р(Л) + Р(Я). (1.6) 22
Пятое свойство частоты состояло в том, что частота произведения двух событий равна произведению одного из них на условную частоту другого: р* (АВ) = Р*(А) Р* (В\А) = Р* (В) Р* (А\В). Поэтому для введения аксиомы, соответствующей пятому свойству частоты, вводится понятие условной вероятности, подобно тому, как вводилась условная частота одного события при наступлении другого. Определение. Вероятность наступления события А, вычисленная при условии наступления другого события В, называется условной вероятностью события А по отношению к событию В и обозначается Р(А\В). Теперь сформулируем пятую аксиому, которая называется аксиомой умножения вероятностей. Аксиома 5. Вероятность произведения (совмещения) двух событий равна произведению вероятности одного из них на условную вероятность другого, т. е. Р (АВ) = Р(А)Р(В\А) = Р (В) Р(А\В). (1.7) При дальнейшем изучении вопросов теории вероятностей будем пользоваться изложенными аксиомами. Кроме того, они уже позволяют решать ряд простейших задач. Пример 1. В урне содержится 10 красных, 15 синих и 5 белых шаров. Из урны наугад вынимается один шар. Требуется найти вероятность того, что этот шар будет красным или белым. Решение. Обозначим через А событие, состоящее в появлении красного шара, и через В событие, состоящее в появлении белого шара. Тогда События А и В несовместны (появление красного шара исключает появление белого шара и наоборот), поэтому на основании аксиомы сложения вероятностей вероятность появления красного или белого шара равна р(л+в)=рм)+р(в)=!+!=4. Пример 2. На двух автоматических станках изготовляются одинаковые детали. Известно, что производи- 23
тельность первого станка в два раза больше, чем второго, и что вероятность изготовления детали высшего качества на первом станке равна 0,96, а на втором — 0,94. Изготовленные за смену на обоих станках нерас- сортированные детали находятся на складе. Определить вероятность того, что наудачу взятая деталь произведена на первом станке и окажется высшего качества. Решение. Обозначим через Л событие, выражающее то, что наудачу взятая деталь изготовлена на первом станке, а через В — событие, состоящее в том, что деталь высшего качества. Поскольку деталей, произведенных на первом станке в два раза больше, чем на 'втором, то вероятность О' Р(А) = ~. Вероятность наступления события В при условии, что событие А имело место (условная вероятность), равна Р (В | Л) = 0,96. По аксиоме 5 находим вероятность того, что наудачу взятая деталь окажется произведенной на первом станке и высшего качества Р {АВ) ==Р(Л) • Р{В\А)--=~- 0,96 = 0,64. § 1.7. ТЕОРЕМА СЛОЖЕНИЯ ВЕРОЯТНОСТЕЙ В этом параграфе мы методом полной математической индукции обобщим аксиому сложения вероятностей на произвольное число несовместных событий. Теорема. Вероятность появления одного из нескольких несовместных событий равна сумме вероятностей этих событий'. Р(А1 + ... + Ап-1 + Ап) = Р(А1)+... + Р(Ап-1)-\-Р(Ап). (1.8) Доказательство. Пусть теорема имеет место для п— 1 событий: Я(Л, + ... + Ля-,)=Р(Л1)+..,+ Р(Ля-1)л Обозначим А^...-^An-i^C, тогда, в силу аксиомы сложения вероятностей р(Л1+...+ля-1+ля)=/>(С+ля)=Р(д+Р(ля)л 24.
Но Р(С) = Р(А1 + ...-{-Аа-1) = Р(А1)-\-... + Р(Ая-1). Следовательно, P(Al + ... + A^l + An) = P(Al) + ... + P(A№-l)+P(AJ, что и требовалось доказать. Если число несовместных событий, входящих в сумму, будет бесконечно большим, то распространение правила сложения вероятностей на этот случай устанавливается аксиоматически. Аксиома 6. Вероятность суммы бесконечно большого числа несовместных событий равна сумме вероятностей этих событий: (ОО \ 00 2 л, =2Р(Л,). i=i у i=i Теперь рассмотрим следствия из теоремы сложения вероятностей. Следствие 1. Если события Ль Л2, ..., Ап образуют полную группу несовместных событий, то сумма их вероятностей равна единице: р(Л,)+р(ла)+...+РИя) = 1. Доказательство. Так как события Ль Л2, ..., Ля образуют полную группу событий, то их сумма Л, + Ла + ...+ Ля, выражающая появление хотя бы одного из них, является достоверным событием. Поэтому Р(Л, + Ла + ... + 4.) = 1- (1.9) Но так как события Ль Л2, ..., Ап — несовместные, то, применяя теорему сложения вероятностей (формулу 1.8) к левой части равенства (1.9), получим P{Al + Ai + ...+ Aa) = P(Al) + P{At)+...-{-P(Ald=\, Следствие 2. Сумма вероятностей противоположных событий равна единице: Р(Л) + Р(Л)=1. Противоположные события представляют собой частный случай полной группы несовместных событий, в которой число событий равйо двум (см. § 1.1). Поэтому 25
следствие 2 вытекает из предыдущего следствия и не требует отдельного доказательства. Заметим, что при решении практических задач часто оказывается легче вычислить вероятность противоположного события А, чем вероятность прямого события А. В таких случаях .вычисляют Р (Л) и, пользуясь следствием 2, находят Р(А)=\ — Р{А). Рассмотрим примеры. Пример 1. При приемке партии из 80 изделий, среди которых 6 бракованных, проверяется 40 наудачу выбранных изделий. Определить вероятность того, что партия будет принята, если условиями приема допускается бракованных изделий не более двух среди проверенных. Решение. Обозначим через А событие, состоящее в том, что при проверке 40 изделий не получено ни одного бракованного изделия, через В— событие, состоящее в том, что получено только одно бракованное изделие, и через С — событие, состоящее в том, что получено два бракованных изделия. События А, В и С несовместны. Согласно условиям приема, партия изделий будет принята, если будет иметь место событие А-\- В -\~С. Поэтому, по теореме сложения вероятностей, искомая вероятность Р = Р(А + В + С) = Р(А)-\-Р{В)+Р{С). Из 80 изделий 40 изделий можно выбрать СЦ способами. Из 74 небракованных изделий 40 изделий можно выбрать QI способами. Следовательно, Wt> Аналогично Поэтому Г40 /°39 . Г1 /"38 . Г« Р = Р(Л) + Р(Б) + Р(С)=^0 + ^^+^1вя«0,337. ^80 иЬО WO Пример 2. Производится один выстрел по круговой мишени, состоящей из яблока и двух концентрических колец. Вероятности попадания при одном выстреле в яблоко и в кольца соответственно равны 0,11; 0,24; 0,35. Найти вероятность промаха. 26
Решение. Обозначим через А промах, тогда А — попадание в мишень. Следовательно, Л = Л + Ла+Л, где Ль Л.2. Л3 — попадания соответственно в яблоко и в концентрические кольца. Так как события Ль Л2, Л3 несовместны, то Я(Л) = Р(Л, + Лв+Л8) = Р(Л,) + Р(Лв) + Р(И8) = . =0,11+0,24+0,35 = 0,7, откуда Р(Л) = 1 -Р (Л) = 1—0,7=0,3. § 1.8. ТЕОРЕМА УМНОЖЕНИЯ ВЕРОЯТНОСТЕЙ Прежде чем рассматривать теорему умножения вероятностей, введем понятие о независимых и зависимых событиях, которое является очень важным при дальнейшем изучении вопросов теории вероятностей. Определение. Событие А называется независимым по отношению к событию В, если вероятность события А не зависит от того, произошло событие В или нет. В противном случае событие А называется зависимым от события В. Рассмотрим примеры. Пример 1. В урне находятся 3 белых и 4 черных шара. Из урны наудачу берут один шар, затем взятый шар возвращают в урну и испытание повторяют. Событие В — появление белого шара при первом испытании, событие А — появление белого шара при втором испы- Г 3 тании. Очевидно, вероятность события А Р(А)=-=- не зависит от результата первого испытания. Таким образом, событие А независимо от события В. Пример 2. В ящике содержится 80 радиоламп, из них 70 стандартных и 10 нестандартных. Наудачу берут одну лампу, затем не возвращая лампы в ящик, испытание повторяют. Событие В — появление стандартной лампы при первом испытании, событие А — появление стандартной лампы при втором испытании. Вероятность появления события А при- условии, что событие В произошло, равна Р(Л)=%. 27
Если же в первом испытании событие В не произошло 70 (вынута нестандартная лампа), то вероятность Р (Л)== =*. Таким образом, вероятность появления события Л зависит от того, произошло событие В или нет. Это значит, что событие Л зависит от события В. Математически условие независимости события Л от события В записывают в виде: Р(А\В) = Р(А), а условие зависимости— в виде: Р(А\В)^Р(А). Теорема. Вероятность произведения, или совместного наступления, нескольких событий равна произведению вероятности одного из них на условные вероятности остальных событий, вычисленные в предположении, что все предшествующие события имели место: Р (AiA, ... Ап) = Р (А1)Р(А,\А1) ... Р (Ап\ Л,Л9 ... Л^). (1.10) Доказательство. Для доказательства теоремы применим метод полной математической индукции. Пусть теорема имеет место для п—\ событий: Р(Л1Л2...Лп_1.)=:Р(Л1)Р(Л2|Л1)...Р(Л„-1!Л1Л,...Л„!-2). Введем событие С как произведение п — 1 событий AiAi...An-i: С=А1А,...Ап-1. Тогда в силу аксиомы умножения вероятностей Р (А,А,... Ап^Ап) = Р (САп) = Р (С)Р (Ап\С). Но Р(С) = Р(Л1Л2...ЛП_1) = Р(Л1)Р(Л-2|Л1)... ...Р(Ля-,|Л1Ла...Ля-*), следовательно, P(AlAi...Aa-lAa)=*P(Al)P{A\\Al)...P(A„\A1Ai...Aa-l). Теорема доказана. Рассмотрим теперь несколько важных следствии из аксиомы и теоремы умножения вероятностей. Следствие 1. Если событие А не зависит от события В, то и событие В не зависит от события А, 28
Доказательство. Так как событие А не зависит от события В, то Р(А)=Р(А\В). (1.11) На основании аксиомы умножения вероятностей имеем: Р (А)Р (В\А) = Р (В)Р (А\В), или, согласно условию (1.11), ' Р(А)Р(В\А) = Р(В)Р(А). Разделив обе части этого равенства на Р (А), получим: Р(В\А) = Р(В), ^ что и требовалось доказать. Таким образом, из следствия 1 вытекает, что понятие зависимости и независимости событий взаимно. В связи с этим можно дать новое определение независимых событий. Определение. Два события называются независимыми, если появление одного из них не изменяет вероятности появления другого. Распространим понятие независимости событий на случай произвольного числа событий. Несколько событий называют независимыми в совокупности, если каждое из них и любая комбинация остальных событий, содержащая либо все остальные события, либо часть из них, есть события независимые. Например, если события Ль Л2 и Л3 независимые в совокупности, то это значит, что будут независимыми следующие события: Ах и Л2, Ах и Аз, Л2 и Л3, А^Аг и Л3, АУАА и Л2, Л2Л3 и At. Следствие 2. Вероятность произведения независимых в совокупности событий равна произведению вероятностей этих событий, т. е. для независимых событий формула (1.10) принимает вид: Р (Л, Л,... Аа) = Р (Ах) Р (Л2)... Р (Аа). (1.12) Справедливость этого следствия вытекает непосредственно из определения независимых событий. Рассмотрим примеры на применение теоремы умножения вероятностей. 29
Пример 3. В механизм входят три одинаковые детали. Работа механизма нарушается, если при его сборке будут поставлены все три детали размера больше обозначенного на чертеже. У сбсрщкка осталось 15 деталей, из которых 5 большего размера. Найти вероятность ненормальной работы первого собранного из этих деталей механизма, если сборщик берет детали наудачу. Решение. Обозначим через Л событие ненормальной работы первого собранного механизма, а через Ль Л.2 и Л3 — события, состоящие в том, что первая, вторая и третья детали соответственно, поставленные в механизм, большего размера. Тогда так как событие Л наступает при условии одновременного наступления событий Аи Л* и А3. По теореме умножения находим Р(А) = Р (А^Аг) = Р(А1)Р(А*\ Ау) Р (Л3\ А,А,) = Пример 4. Станок-автомат штампует детали. Вероятность того, что за смену не будет выпущено ни одной нестандартной детали, равна 0,9. Определить вероятность того, что за три смены не будет выпущено ни одной нестандартной детали. Решение. Обозначим через А событие, заключающееся в том, что за три смены не будет выпущено ни одной нестандартной детали, а через Ль Л-2, Л3 — события, заключающиеся в том, что за соответствующую смену не будет выпущено пи одной нестандартной детали. Тогда А = АхА2Аг, так как событие А наступает при условии одновременного наступления событий АуА-2 и Л3. Заметим, что события AiA-2, Л3 являются независимыми, ибо вероятности наступления каждого из этих событий равны 0,9 и не зависят от того, имели место два других события или нет. Поэтому по теореме умножения вероятностей для независимых событий имеем: Р(А) = Р {АЛгА-ь) = Р (А{) Р {At) Р (Лэ) = 0,9я = 0,729. 30
§ 1.9. ТЕОРЕМА СЛОЖЕНИЯ ВЕРОЯТНОСТЕЙ ДЛЯ СОВМЕСТНЫХ СОБЫТИЙ В § 1.7 была рассмотрена теорема сложения вероятностей для несовместных событий. Пользуясь теоремой сложения вероятностей для несовместных событий, вместе с теоремой умножения докажем следующую теорему сложения вероятностей для совместных событий. Теорема. Вероятность появления хотя бы одного из двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления: Р(А + В) = Р(А) + Р(В) — Р (ЛВ). (1.13) Доказательство. Для наступления события А достаточно, чтобы произошло хотя бы одно из следующих несовместных событий: АВ или АВ. Аналогично, для наступления события В достаточно, чтобы произошло хотя бы одно из следующих несовместных событий: АВ или А В. Поэтому на основании правила сложения вероятностей для несовместных событий имеем: Р (А) = Р{АВ) -f Р(АВ) (1,14) и Р(В) = Р(АВ)-\-Р(АВ). ' (1.15) Для наступления хотя бы одного из событий А или В достаточно, чтобы произошло одно из трех попарно несовместных событий АВ, АВ, АВ. Поэтому вероятность Р (A -j- В) равна сумме вероятностей трех событий, т. е. Р(А + В) = Р (АВ) + Р (А~В) + Р (АВ). (1.16) Сложив равенства (1.14) и (1.15), найдем: Р (АВ) + Р (АВ) = Р(А) + Р (В) - 2Р (АВ). Подставив это выражение в (1.16), получим: Р(А+В) = Р(А) + Р(В) — Р(АВ). Теорема доказана. Формула (1.13) имеет простую геометрическую интерпретацию (см. рис. 7). Методом полной математической индукции полученную формулу (1.13) можно обобщить на случай вероят- 31
ности суммы произвольного числа совместных событий. При этом будем иметь: ...+ Р(Л„)-Р(Л1Л)-Р(Л1Л3)-...-Я(Л_1ЛЛ) + + Р(Л,Л2Л3) + ...+ Р(Л1_2А_1Д1)--... ...+ (- 1)пР{АхА,...Ап). (1.17) Заметим, что при решении задач с использованием формулы (1.17) часто приходится производить громоздкие вычисления, поэтому лучше перейти к противо- Рис. 7 положному событию. В таком случае Р(Ах+А* + ...+ Ап) = 1-Р(А1А,...Ап). (1.18) Пример 1. Производится два выстрела по одной и той же мишени. Вероятность попадания при первом выстреле равна 0,6, для второго — 0,8. Найти вероятность того, что в мишени будет хотя бы одна пробоина. Решение. Рассмотрим событие А — попадание при первом выстреле и событие В — попадание при втором выстреле. Их вероятности Р(Л)=0,6, Р(£) = 0,8. Так как А и В являются совместными и независимыми событиями, то вероятность того, что в мишени будет хотя бы одна пробоина, согласно формуле (1.13), равна р (A -f В) = Р {А) + Р(В)~Р (А) Р (В) = = 0,6-f 0,8 — 0,6-0,8 = 0,92. Если же перейти к противоположному событию, то применяя формулу (1.18) для случая двух событий, получим: Р(Л + В) = 1 — Р(А)Р(В) = 1 —0,4-0,2 = 0,92. Пример 2. Рабочий обслуживает четыре станка, работающих независимо друг от друга. Вероятность того, 32
что в течение часа первый станок не потребует внимания рабочего, равна 0,92, для второго — такая вероятность равна 0,9, для третьего — 0,85 и для четвертого—0,8. Какова вероятность того, что в течение часа хотя бы один станок не потребует внимания рабочего? Решение. Обозначим через Л событие, выражающее то, что в течение часа хотя бы один станок не потребует внимания рабочего, а через Аи Л2, Л3 и Л4 обозначим соответственно события, заключающиеся в том, что первый, второй, третий и четвертый.станок в течение часа не потребует внимания рабочего. Так как все четыре станка работают независимо друг от друга и могут потребовать внимания рабочего одновременно, то А\, Ач, Л3 и Л4 являются независимыми, но совместными событиями. Их вероятности P(^i) = 0,92; Р (А>) — 0,9; Я(Л3)=0,85; Р(Л|) = 0,8. Согласно обозначениям имеем: Л = Л1+ Л2 + Лз-f Л4, откуда P(A) = P(A1+A9 + Ai + Ai). При вычислении вероятности Р (Л) с применением формулы (1.17) придется производить довольно много вычислений, поэтому здесь целесообразно перейти от прямого события к противоположному событию Л (что ни один станок не проработает без вмешательства рабочего). Очевидно, 'A=~AlAiAzAi. Вероятность того, что первый станок не проработает в течение часа без вмешательства рабочего, Р (А\) = = 1 —Я (Л)= 1 — 0,92 = 0,08; второй: Р(А2)= 1—0,9 = = 0,1; третий: Я (Л3) = 1 — 0,85 = 0,15 и четвертый: p(Ai)= 1 — 0,8 = 0,2. Из независимости событий Ль Л8, Ля, Ai следует независимость противоположных им событий Ль Л л, Л3, Л4. Следовательно, по теореме умножения для независимых событий имеем: Р(А) = Р (AiAtAaAi) = 0,08-0,1 -0,15-0,2 = 0,00024. А вероятность того, что в течение часа хотя бы один станок не потребует внимания рабочего, равна Р (Л) = 1 - 0,00024 = 0,99976, т. е. событие Л практически почти достоверно. 2 Гурсиий 33
§ 1.10. ФОРМУЛА ПОЛНОЙ ВЕРОЯТНОСТИ Пусть некоторое интересующее нас событие А может наступить или не наступить с одним из ряда несовместных событий Пь Я2, • •• , Нп, составляющих полную группу. События такого ряда обычно называют гипотезами. Вероятности всех гипотез известны, т. е. даны Р{НХ), Р (Я2) Р{Нп). Известны также условные вероятности наступления события А при осуществлении каждой из указанных гипотез, т. е. даны PiA/Hi), P(AfHi),..., Р(Л/Нп). Вероятность интересующего нас события А определяется по следующей теореме. Теорема. Вероятность события А, которое может произойти вместе с одной из гипотез Ни Я2,..., Нп, равна сумме парных произведений вероятностей каждой из этих гипотез на отвечающие им условные вероятности наступления события А: . P(A) = j]P(Hi)P(A/Hi). (1.19) t=\ Формула (1.19) носит название формулы полной вероятности . Доказательство. Так как гипотезы Яь Я2, ... ..., Я„ образуют полную группу, то событие А можно представить в виде следующей суммы событий: Л = ЛЯ1 + ЛЯ2 + ...-}-ЛЯя = 2 АНг. Поскольку события Hi несовместны, то и события AHi (i = l,2 п) также несовместны. Это обстоятельство позволяет применить для определения вероятности события А теорему сложения вероятностей несовместных событий (1.8): P{A) = j]P(AHi). (1.20) i = \ Вероятность же произведения событий А к Hi находится по аксиоме умножения вероятностей (1.7): P(AHi) = P(Hi)P(AIHi). 34
Подставляя последнее выражение в формулу (1.20), получим: P{A) = j±P{Hi)P{AIHi), что и требовалось доказать. Пример 1. В цехе три типа автоматических станков производят одни и те же детали. Производительность их одинакова, но качество работы различно. Известно, что станки первого типа производят 0,94 деталей отличного качества, второго — 0,9 и третьего — 0,85. Все произведенные в цехе за смену детали в нерассортиро- ванном виде сложены на складе. Определить вероятность того, что взятая наудачу деталь окажется отличного качества, если станков первого типа 5 шт., второго — — 3 шт., и третьего — 2 шт. Решение. Пусть событие А состоит в том, что наудачу' взятая деталь окажется отличного качества. Рассмотрим три гипотезы: Н\—наудачу взятая деталь произведена станками первого типа; Н%— наудачу взятая деталь произведена станками второго типа; #з — наудачу взятая деталь произведена станками третьего типа. Учитывая количественное соотношение станков в цехе и то, что производительность их одинакова, находим: Р№)=го=|. Р№)=4- fW=rr Условные вероятности события при этих гипотезах соответственно равны р (А | Н{) = 0,94; Р {А \ Н.2) = 0,9; Р (А \ Нэ) = 0,85. По формуле полной вероятности Р (А) = 1.0,94 + ^.0,9 +1-0,85 = 0,91. § 1.11. ТЕОРЕМА ГИПОТЕЗ (ФОРМУЛА БЕЙЕСА) До сих пор мы рассматривали вероятности событий до испытаний, т. е. в комплексе условий не фигурировал результат проведенного опыта. Поставим теперь следующую задачу. Имеется полная группа несовместных гипотез Ни Нь ..., Нп. Известны 2* ъь
вероятности каждой из гипотез Р {Hi), Р (#з), •.., Р (#„). Производится опыт и в его результате осуществляется некоторое событие А, вероятности которого по каждой из гипотез известны, т. е. известны Р (А \ Hi), Р (А \ Я2), .... Р(А\НЯ). Спрашивается, какие вероятности имеют гипотезы Hi (t = 1, 2, ..., п) в связи с появлением события Л? Другими словами, нас интересуют условные вероятности Р (Hi | А) для каждой гипотезы. Ответ на поставленную задачу дает следующая теорема гипотез. Теорема гипотез. Вероятность гипотезы после испытания равна произведению вероятности гипотезы до испытания на соответствующую ей условную вероятность события, которое произошло при испытании, деленному на полную вероятность этого события: Р(Н;\А)= /("'>^-".-> . .(1.21) J] P{Hi)P(A\Hi) Формула (1.21) носит название формулы Бейеса. Доказательство. На основании аксиомы умножения вероятностей (1.7) имеем: P(A)P(Hi\A) = P(Hi)P(A\Hi). Разрешая это уравнение относительно Р (Hi | А) при условии, что Р (А) Ф О, получим: Выражая Р (А) с помощью формулы полной вероятности (1.18), получим доказываемое равенство: 2 P(Hi)P(A\Hi) В частном случае, если все гипотезы /Уг (i=l, 2, ..., п) до испытания имеют одинаковую вероятность Р (Hi) = p, формула (1.21) принимает вид: P(Hi\A)= ?iAlHi) . (1.22) S Р(А\Н0 Рассмотрим примеры на применение теоремы гипотез. 36
Пример 1. В трех ящиках находятся однотипные изделия: в первом 10 изделий, из них 3 нестандартных, во втором 15 изделий, из них 5 нестандартных и в третьем 20 изделий, из них 6 нестандартных. Наудачу выбирается одно изделие и оно оказалось нестандартное. Определить вероятность того, что взятое изделие принадлежало второму ящику. Решение. Обозначим через Ни #.2, Нг соответственно гипотезы о том, что наудачу взятое изделие принадлежало первому, второму, третьему ящикам. Тогда вероятности этих гипотез до проведения испытания равны между собой и равны -^, т. е. Р(Н1)=Р(Н,) = Р(Н3)=1. В результате испытания наблюдается событие А, состоящее в том, что наудачу выбранное изделие является нестандартным. Условные вероятности этого события при гипотезах Н\, //2» #3 соответственно равны: Р(А\Нг) = ~, Р(А\Н,) = ^ = ±, Р(А\Н,) = ^. По формуле (1.22) находим вероятность гипотезы #2 после испытания: 10+ 3+10 Пример 2. Вероятность удовлетворять стандарту для изделий некоторого производства равна 0,9. Предлагается упрощенная система проверки на стандартность, дающая положительный результат с вероятностью 0,95 для изделий, удовлетворяющих стандарту, а для изделий, которые не удовлетворяют стандарту, с вероятностью 0,15. Найти вероятность того, что изделие, признанное при проверке стандартным, действительно удовлетворяет стандарту. Решение. Обозначим через Нх гипотезу о том, что изделие удовлетворяет стандарту, и через #2— гипотезу о том, что изделие не удовлетворяет стандарту. Эти гипотезы единственно возможны и несовместны. Нам да«о, что Р (Hi) = 0,9. Так как P(tf,)-f Р(Я2) = 1, получим, что Р (//,) = 1—Р (/Л) = 1 - 0,9^=0,1. 37
Обозначим через А событие, состоящее в том, что изделие будет признано при проверке стандартным. По условию Р {А \ Я,) = 0,95; Р (А \ Я2) -=0,15. Требуется найти условную вероятность того, что изделие, признанное стандартным, действительно удовлетворяет стандарту, т. е. найти Р(Н\\А). По формуле (1.21) получаем: ^(tfi|4)==o,9-0>95-fO,1.0,15 =0,98. Это означает, что на каждую сотню принятых деталей стандартных будет примерно 98. § 1.12. ПОВТОРЕНИЕ ИСПЫТАНИЙ. ФОРМУЛА БЕРНУЛЛИ Пусть производится несколько испытаний, в результате которых может появиться событие А с определенной вероятностью. Если вероятность события А в каждом испытании не зависит от исходов других испытаний, то такие испытания называются независимыми относительно события А. Поставим следующую задачу. Определить вероятность того, что в результате проведения п независимых испытаний некоторое событие А наступит ровно т раз, если в каждом из этих испытаний данное событие наступает с постоянной вероятностью Р{А) = р. Искомую вероятность будем обозначать Рт<п. Например, символ Я4, ю означает, что в десяти испытаниях событие А появится ровно 4 раза. Непосредственное применение теорем сложения и умножения вероятностей для решения поставленной задачи с увеличением числа испытаний приводит к очень громоздким вычислениям. Поэтому возникает необходимость применения менее трудоемких способов расчета. Один из таких способов основан на применении формулы Бернулли. Вывод формулы Бернулли. Предположим, что в одинаковых условиях производится п независимых испытаний, результатом каждого из которых может быть наступление либо события А с вероятностью Р(А)=р, либо ему противоположного А с вероятностью Р (Л) = = 1—р. Обозначим через At (i=l, 2, .... п) наступле- 38
ние события А в /-м испытании. В силу постоянства условий испытания P(A1) = P(Ai)=...=P{AK) = p, Р(А1) = Р(А,)=...=Р(Ап)=\-р. Нас интересует вероятность того, что событие А при п испытаниях наступает ровно т раз, а в оставшихся п — т испытаниях наступит ему противоположное событие А. При этом событие А в п испытаниях может появиться ровно т раз в разных последовательностях или комбинациях, число которых равно числу сочетаний из п элементов по т, т. е. С™. Примером такой комбинации может служить событие В, при котором событие А наступает подряд т раз, начиная с первого испытания: В = А1А9...А,п А,+1 ... К (1-23) т раз п — т раз По условию испытания независимы. Зто значит, что независимы события, входящие в комбинацию (1.23), поэтому, используя теорему умножения для независимых событий, получим: Р(В) = Р (At) Р (Л2) ... Р(Ат) Р(Лт+1) ...Р(Ап) = = рт(\—р)п-т. Так как все комбинации событий, подобные комбинации В, являются несовместными событиями и нам безразлично, в какой именно последовательности появится событие Лив какой последовательности появится противоположное ему событие Л, то, применяя теорему сложения вероятностей для несовместных событий, получим: РЯ1Я=С2Рт(\-р)п-т = = ./' ч, рт(1-р)я-т. (1-24) т\ (п — т)! г ч r/ y Полученная формула (1.24) носит название формулы Бернулли. Формула- Бернулли имеет очень важное значение в теории вероятностей, так как она связана с повторением испытаний в одинаковых условиях, т. е. с такими условиями, в которых ' как раз и проявляются законы теории вероятностей. 39
Так как события, состоящие в различном числе появления события А в серии из п испытаний, несовместны и образуют полную группу, то = {\-р)п + С\р{\-р)п-х + ... ...-{-С™ рт{\-^р)Г1-т + ... + ^=1. (1.25) Обозначая 1—p — q, нетрудно заметить, что члены суммы (1.25) совпадают с членами разложения бинома КяЛ-Р) =9 +СпРЯ +...-\-Спр q -\-...-\~p =1. В связи с этим распределение вероятностей (1.25) называют биномиальным распределением. Отмеченное совпадение позволяет ввести для вычисления вероятностей возможного числа наступлений события А в серии из п независимых испытаний так называемую производящую функцию срп(х): <ря (х) = (q -f рх)я = ?V ■+- C\pqn-Xx -f ... ...-fCeyrV-f...+/?V. (1.26) Эта функция обладает тем свойством, что коэффициент при хт в разложении (1.26) равен вероятности наступления события А ровно т раз в серии из п независимых испытаний, проводимых в переменных условиях. Так, например, если вероятность появления события А в 1-м опыте P{Ai) = pi и вероятность непоявления P(Ai) = \—pi = qi, то вероятность того, что событие А появится ровно т раз в п независимых испытаниях, равна коэффициенту при хт в разложении по степеням х производящей функции <Ря (х) = (<?i + pix) (qo -j- p&) ... (qn + A,*)• (1 -27) Рассмотрим примеры. Пример 1. Вероятность изготовления на автоматическом станке стандартной детали равна 0,9. Определить вероятность того, что из 6 наудачу взятых деталей 4 окажутся стандартными. Решение. Условие задачи соответствует схеме повторных испытаний в одинаковых условиях. Поэтому, 40
применяя формулу (1.24) при п — 6, т = 4 и /7 = 0,9, получим: P4(6 = Q(0,9)J(0,1)3 = 0,0984. Пример 2. Четыре стрелка независимо один -от другого'производят по одному выстрелу по общей мишени. Вероятность попадания в мишень для первого стрелка равна 0,8, для второго — 0,7, для третьего — 0,6 и для четвертого — 0,5. Найти вероятность того, что в мишени будет ровно 2 пробоины. Решение. Так как вероятности попадания для стрелков различны, т. е. испытания происходят в переменных условиях, то для решения задачи применим производящую функцию. Согласно условию, производящая функция (1.27) для данного примера имеет вид ср4 (х) = (0,2 -f 0,8*) (0,3 -f- 0,7*) (0,4 -f~ 0,6*) (0,5 -f 0,5*) = = 0,012 + 0,106*4-0,32*2 + 0,394*3 + 0,168*4. Коэффициент при *2 является искомой вероятностью, т. е. Р, 4 = 0,32. Пример 3. Найти "распределение вероятностей числа попаданий в цель при пяти независимых выстрелах, если вероятность попадания, в цель при одном выстреле равна 0,6. Решение. По условию, я = 5, /? = 0,6 и 0 = 0,4. Следовательно, применяя производящую функцию (1.26), получив: <р„ (*) = (0,4 -|- 0,6*)s = 0,01024 + 0,0768* + -f 0,2304*- 4- 0.3456*3 4 0.2592*4 4 0,07776*3. Искомые вероятности являются коэффициентами при хт: /\в = 0,01024; Л, з = 0,0768; Рм = 0,2304; р3> 8 = 0,3456; Pi, b = 0,2592; /\ь = 0,07776. Проверка: 5 2 Рт>8 = 0,01024 -f 0,0768 4- 0,2304 4- 4- 0,3456 4 0,2592 -f 0,07776 = 1. Решение проведено правильно. Как видно из решения, наиболее вероятное число попаданий равно трем. 41
§ 1.13. НАИВЕРОЯТНЕЙШЕЕ ЧИСЛО НАСТУПЛЕНИЯ СОБЫТИЯ ПРИ ПОВТОРЕНИИ ИСПЫТАНИИ Определение. Наивероятнейшим числом т0 появления события А в п независимых испытаниях называется число, для которого вероятность Рт<п превышает или, по крайней мере, не меньше вероятности каждого из остальных возможных исходов испытаний. При решении примера 3 предыдущего параграфа, сравнивая вероятности числа попаданий при пяти выстрелах, мы получим наивероятнейшее число т0 = 3. Оказывается, что для определения наивероятнейшего числа вовсе не нужно вычислять вероятности различных комбинаций появления события А, а достаточно знать число испытаний п и вероятность появления события А в одном испытании. Действительно, пусть наивероятнейшему числу ш0 соответствует вероятность р рто от0 я — Ото ш т0 п — т0 Гт0,п — ^п Р q — щ[ {п ^то)\Р Я Тогда, согласно определению наивероятнейшего числа, вероятности наступления события А т0-\- 1 и т0— 1 раз не должны превышать вероятность Рто.п, т. е. должны выполняться условия: *т0, п S^ * от0 -ft, т \l.Zo) *т0, п с^ гт0 — 1, п' ; (1.2У) На основании неравенства (1.28) по формуле Бернулли получаем: — nmonn — то > — Пто -г *пп -т0-1 откуда (после сокращения) Ч -^ р - п — т0 -~~~~ т0 -f 1 Разрешая это неравенство относительно пц, получаем: т0^пр— q. (1.30) Аналогичным образом из неравенства (1.29) получаем: '. птопп - т0 >» г)от0 - 1 пп - ото +1 т0\ (п - т0) 1 ^ Ч — (Ио _ 1} (л _ щ _j_ i) \ V Ч 42
откуда Р ^ ± т0 "~ п — т0 -(- 1 И т0^пр-\- р. (1-31) Объединяя неравенства (1.30) и (1.31), получим: пр — q^mo^np-^p. (1.32) Это двойное неравенство и служит для определения наивероятнейшего числа. • Замечание. Длина интервала, определяемого неравенством (1.32), равна единице: {np-\~p) — {np — q)=p-{~q=l. Поэтому, если границы этого интервала есть дробные числа, то мы получаем одно значение наивероятнейшего числа /п0, если же границы являются целыми числами, то получаем два значения наивероятнейшего числа: т0 = пр-\-р, ml — np — q. Пример 1. При данном технологическом процессе 85% всей произведенной продукции — высшего сорта. Найти наивероятнеишее число изделий высшего сорта в партии из 150 изделий. Решение. По условиям примера п = 150, р = 0,85, q—\—0,85 = 0,15. Согласно неравенству (1.32) имеем: 150 • 0,85 — 0,15 < то < 150.0,85 + 0,85, откуда 127,35^/72о^128,35. Следовательно, наивероятнеишее число изделий высшего сорта в партии из 150 изделий равно 128. Пример 2. Определить наиболее вероятное число пораженных самолетов в группе из 13 бомбардировщиков, если самолеты поражаются независимо друг от друга и 4 вероятность поражения одного самолета равна у. Решение. По условию л=13, p = -=-f q = = 1 —у = ^г. Следовательно, согласно неравенству (1.32) 13-у —у^т0^13-у-г-~. 43
Отсюда имеем: Это означает, что имеются два значения: т'0 = 7 и ml = 8, каждое из которых является наиболее вероятным числом пораженных самолетов. Вопросы для самопроверки 1. Какие события называют случайными? Приведите примеры случайных событий. 2. Какие события образуют полную группу несовместных событий? 3. Приведите примеры полных групп событий. 4. Какое событие называется суммой, или объединением, нескольких событий? 5. Какое событие называется произведением, или совмещением, нескольких событий? 6. Что называется частотой события и каковы ее свойства? 7. Сформулируйте классическое определение вероятности события. В каких пределах изменяется вероятность события? 8. Сформулируйте теорему сложения вероятностей для несовместных событий. 9. Чему равна сумма вероятностей несовместных событий, образующих полную группу? 10. Какая вероятность называется условной вероятностью? 11. Какие события называются независимыми? 12. Сформулируйте теорему умножения вероятностей и следствия из нее. 13. Как следует вычислять вероятность появления хотя бы одною из нескольких совместных событий? 14. Докажите формулу полной вероятности. 15. Выведите формулу вероятности гипотез. 16. При решении каких задач применяется формула полной вероятности? 17. При решении каких задач применяется формула вероятности гипотез? 18. При решении каких задач применяется формула Бернулли? 19. Какая функция называется производящей функцией вероятности появления события А при п независимых испытаниях? Какой она имеет вид, когда испытания происходят в одинаковых -условиях и когда испытания происходят в неодинаковых условиях? 20. Дайте определение наивероятнейшего числа при повторных испытаниях и приведите правило его вычисления. Упражнения 1. В партии из 200 деталей отдел технического контроля обнаружил 8 нестандартных деталей. Чему равна относительная частота появления нестандартных деталей? Отв. р* = 0,04. 44
2. При стрельбе из винтовки относительная частота попадания в цель равна 0,75. Найти число попаданий, если всего было произведено 140 выстрелов. Отв. 105 попаданий. 3. В лотерее разыгрывается тысяча билетов. Среди них один выигрыш в 50 рублей, пять выигрышей в 20 рублей, двадцать выигрышей по 10 рублей и пятьдесят выигрышей по 5 рублей. Некто покупает один билет. Найти вероятность: а) выиграть не менее 10 рублей; б) какого-либо выигрыша. Отв. а) 0,026; б) 0,076. 4. В урне три белых и пять черных шаров. Из урны вынимают наугад два шара. Найти вероятность того, что шары не одного цвета. „ 15 Отв. Р = -2з". 5.' В партии из 100 изделий 6 нестандартных. Из партии выбирается наугад 10 изделий. Определить вероятность того, что среди этих 10 изделий будет ровно 2 нестандартных. Отв. р^0,\3. 6. На шести карточках написаны буквы А, В, К, М, О, С. После перетасовки вынимают наугад одну карточку за другой и раскладывают их в том порядке, в каком они были вынуты. Найти вероятность того, что на карточках будет написано слово МОСКВА. Отв. ^ = "720"" 7. Два лица условились встретиться в определенном месте между 15 и 16 часами и договорились, что пришедший первым ждет другого в течение 10 минут, после чего уходит. Найти вероятность их встречи, если приход каждого в течение указанного часа может произойти в любое время и моменты прихода независимы. Отв. /, = -36-. 8. Имеется радиолокационная система, состоящая из двух самостоятельных станций. Для выполнения задачи необходимо, чтобы обе радиолокационные станции, входящие в систему, работали безотказно. Требуется определить вероятность того, что система будет работать безотказно, если вероягность безотказной работы каждой радиолокационной станции в течение времени, необходимого для выполнения задания, р (t) = 0,9. Отв. р = 0,81. 9. Вероятность безотказной работы блока, входящего в систему, в течение заданного времени составляет 0,8. Для повышения надежности устанавливают такой же резервный блок. Требуется найти, какой станет вероятность безотказной работы блока с учетом резервного. Отв. р = 0,96. 10. Три охотника договорились стрелять в цель в определенной последовательности. Следующий охотник производи! выстрел лишь 45
в случае промаха предыдущего. Вероятности попадания в цель каждым из охотников одинаковы и равны 0,7. Найти вероятность того, что будет произведено: а) один; б) два; в) три выстрела. Отв. а) 0,7; б) 0,21; в) 0,063. 11. При приемке партии подвергается проверке половина изделий. Условие приемки — наличие брака в выборке не свыше 2°/0. Вычислить вероятность того, что партия из 100 изделий, содержащая 5°/о брака, будет принята. Отв. 0,18. 12. Рабочий обслуживает три станка, работающие независимо друг от друга. Вероятность того, что в течение часа первый станок не потребует внимания рабочего, равна 0,95, для второго такая вероятность равна 0,9 и для третьего — 0,8. Какова вероятность того, что в течение часа: а) ни один станок не потребует внимания рабочего; б) какой-нибудь один станок потребует внимания рабочего; в) хотя бы один станок потребует внимания рабочего? Отв. а) 0,684; б) 0,032; в) 0,316. 13. Два' парохода должны подойти к одному и тому же причалу. Время прихода обоих пароходов независимо и равновозможно в течение данных суток. Определить вероятность того, что одному из пароходов придется ожидать освобождения причала, если время стоянки первого парохода один час, а второго — два часа. Отв. р = 0,121. 14. Радиолампа может принадлежать к одной из двух партий с вероятностями/>i = 0,6 и/>2 = 0,4. Вероятности того, что лампа проработает заданное число часов, равны для этих партий соответственно 0,7 и 0,8. Определить вероятность того, что лампа проработает заданное число часов. Отв. р = 0,74. 15. Двадцать экзаменационных билетов содержат по два вопроса, которые не повторяются. Экзаменующийся может ответить только на 35 вопросов. Определить вероятность того, что экзамен будет сдан, если для этого достаточно ответить на два вопроса из одного билета или на один вопрос из первого билета и на указанный дополнительный вопрос из другого билета. 35 34 , /35 5.5 35 \ 34 п0.0 0т- р = Ж • "зТ + UoT • Ж + 40>* 39J Ж = °'963- 16. Один из трех стрелков вызывается на линию огня и производит два выстрела. Вероятность попадания в мишень при одном выстреле для первого стрелка равна 0,4, для второго — 0,6, для третьего — 0,8. Найти вероятность того, что в мишени будет две пробоины. 29 Отв. р = -уг. 17. Трое охотников одновременно выстрелили по медведю, который был убит одной пулей. Определить вероятность того, что медведь был убит первым охотником, если вероятности попадания для них равны соответственно 0,3, 0,4, 0,5. Отв.р = -гг. 46
18. Определить вероятность того, что среди 500 лампочек нет ни одной неисправной, если из взятых наудачу 50 лампочек все оказались исправными. Предполагается, что число неисправных лампочек из 500 равновозможно от 0 до 5. Отв. /; = 0,214. 19. Известно, что 95°/0 выпускаемой продукции удовлетворяют стандарту. Упрощенная схема контроля признает пригодной стандартную продукцию с вероятностью 0,98 и нестандартную — с вероятностью 0,06. Определить вероятность того, что изделие, прошедшее упрощенный контроль, удовлетворяет стандарту. Отв. р = 0,9968. 20. По цели производится пять независимых выстрелов. Вероятность попадания в цель при одном выстреле равна 0,4. Для получения зачета по стрельбе требуется не менее трех попаданий. Найти вероятность получения зачета. Отв. /7 = 0,317. 21. Вероятность отказа каждого прибора при испытании равна 0,3. Сколько таких приборов нужно испытать, чтобы с вероятностью 0,99 получить один отказ? Отв. я 5= 13. 22. Вероятность изготовления детали отличного качества равна 0,9. Какова вероятность того, что среди 10 деталей не менее девяти отличного качества? Отв. /; = 0,7361. 23. Последовательно послано четыре радиосигнала. Вероятности приема каждого из них ее зависят от того, приняты ли остальные сигналы, и соответственно равны 0,2, 0,3, 0,4, 0,5. Определить вероятность приема трех радиосигналов. Отв. /7 = 0,106. 24. Прибор выходит из строя, если перегорит не менее пяти ламп I типа или не менее двух ламп II типа. Определить вероятность выхода из строя прибора, если известно, что перегорело пять ламп, а вероятность ' перегорания ламп I и II типов равны соответственно 0,7 и 0,3. Отв. р = 0,64.
Глава 2 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ § 2.1. ПОНЯТИЕ СЛУЧАЙНОЙ ВЕЛИЧИНЫ До сих пор мы имели дело со случайными событиями. Событие является качественной характеристикой случайного результата опыта. Но случайный результат опыта можно характеризовать и количественно. Например, число попаданий в цель при пяти выстрелах, число деталей, выходящих по своим размерам за пределы допуска, и т. д. Количественной характеристикой случайного результата опыта является случайная величина. Случайной величиной называется величина, которая в результате опыта может принять то или иное (но только одно) значение, причем заранее, до опыта, неизвестно, какое именно. Понятие случайной величины является фундаментальным понятием теории вероятностей и играет очень большую роль в ее приложениях. Случайные величины обозначаются обычно заглавными буквами конца латинского алфавита — X, Y, ..., а их возможные значения обозначаются соответствующими малыми буквами х, у, .... Среди случайных величин, с которыми приходится встречаться в практике, можно выделить два основных типа: дискретные величины и непрерывные величины. Дискретной случайной величиной называется такая величина, число возможных значений которой либо конечное, либо бесконечное счетное множество (множество, элементы которого могут быть занумерованы). Приведем примеры дискретных случайных величин. 1. Частота попаданий при трех выстрелах. Возможные значения случайной величины X, выражающей частоту попаданий при трех выстрелах, будут следующие: л 1 2 _ 1 48
2. Число дефектных изделий в партии из п штук. Если обозначить через X случайное число дефектных изделий, то возможные значения этого числа будут следующие: 3. Число вызовов, поступающих на телефонную станцию в течение суток. Случайная величина X в данном примере может принять следующие значения: Х\ = О, %2=1, х$ = 2, ... 4. Число выстрелов до первого попадания в цель. В этом примере случайная величина X может принимать бесконечное, но счетное множество значений: Х\ = 1, Х-1 = 2, Хэ ==- о, ... Непрерывной случайной величиной называется такая величина, возможные значения которой непрерывно заполняют некоторый интервал (конечный или бесконечный) числовой оси. Очевидно, число возможных значений непрерывной случайной величины бесконечно. Приведем примеры непрерывных случайных величин. 1. Случайное отклонение по дальности точки падения снаряда от цели. Так как снаряд может упасть в любую точку интервала, ограниченного пределами рассеивания снарядов, то все числа из этого интервала будут возможными значениями случайной величины X — отклонения точки падения снаряда от цели. • 2. Ошибка при измерении дальности радиолокатором. 3. Время безотказной работы радиолампы. 4. Диаметр обработанной втулки и т. д. Случайная величина является своего рода абстрактным выражением случайного события. С каждым событием А можно связать некоторую характеристическую случайную величину. Например, при выводе формулы Бернулли мы искали вероятность того, что событие А появится ровно т раз при п независимых испытаниях. Можно было бы искать вероятность того, что случайная величина X, возможными значениями которой являются #i = 0, х$ = 1, #3 = 2, ..., xn+i = n, примет значение хт+1 = т при п независимых испытаниях. Оперирование с понятием случайной величины в ряде случаев бывает более удобным, чем оперирование со случайными событиями. 49
§ 2.2. закон распределения вероятностей дискретной случайной величины Рассмотрим дискретную случайную величину X, возможные значения которой хи х-2 хп нам известны. Очевидно, что знание возможных значений случайной величины еще не позволяет нам полностью описать случайную величину, так как мы не можем сказать, как часто следует ожидать появления тех или других возможных значений случайной величины в результате повторения опыта в одних и тех же условиях. Для этой цели необходимо знать закон распределения вероятностей случайной величины. В результате опыта случайная величина X примет одно из своих возможных значений, т. е. произойдет одно событие из полной группы несовместных событий: X = Х\, X — хп. Все эти события являются несовместными, потому что случайная величина X может принять в результате опыта только одно значение, и образуют полную группу событий, так как никаких других событий, кроме перечисленных, в результате опыта произойти не может. Обозначим вероятности этих событий буквами р с соответствующими индексами: Р (Х = хг) = ри Р (Х = х,) = р, Р(Х = хп) = ря. На основании того, что события (2.1) образуют полную группу несовместных событий, сумма вероятностей всех возможных значений случайной величины X равна единице: 2/>(x=*,)=i>=i. Эта суммарная вероятность каким-то образом распределена между отдельными значениями случайной величины. Дискретная случайная величина будет полностью описана с вероятностной точки зрения, если будет указано, какую вероятность имеет каждое из событий (2.1). Этим мы установим закон распределения случайной величины. 50
Законом распределения случайной величины называется всякое соотношение, устанавливающее связь между возможными значениями случайной величины и соответствующими вероятностями. Зная распределение вероятности между возможными значениями случайной величины, можно до опыта судить о том, какие значения случайной величины будут появляться чаще и какие реже. Заметим, что способы или формы представления закона распределения случайной величины могут быть различными. Простейшей формой задания закона распределения дискретной случайной величины X является таблица, в которой перечислены возможные значения случайной величины и соответствующие им вероятности: Xi Xi х2 Pi Pi Рп Такая таблица носит название ряда распределения случайной величины. Для наглядности ряд распределения представляют графически. При графическом представлении все возможные значения случайной величины откладываются по оси абсцисс, а по оси ординат — соответствующие вероятности. Вершины полученных ординат обычно соединяют отрезками прямых (рис. 8). Следует помнить, что соединение вершин ординат делается только в целях наглядности, так как в промежутках между Х\ и х2, х2 и х3 и т. д. случайная величина х значений принять не может, поэтому вероятности ее появления в этих промежутках равны нулю. Такая фигура на- |# зывается многоугольником распределения. Многоугольник распределения, так же как и ряд распределения, является одной из форм задания закона распределения дискретной случайной величины X. Рис.8 51
Многоугольники распределения могут иметь самую различную форму, однако все они обладают одним общим свойством. Сумма ординат многоугольника распределения, представляющая собой сумму вероятностей всех возможных значений случайной величины, всегда равна единице. Это является основным свойством многоугольника распределения и вытекает из того, что все возможные значения случайной величины X образуют полную группу несовместных событий, сумма вероятностей которых равна единице. Используя данные примера 3 § 1.9, построим ряд распределения и многоугольник распределения числа попаданий в цель при пяти независимых выстрелах, если вероятность попадания в цель при одном выстреле равна 0,6. Возможными значениями случайной величины X (числа попаданий) являются: Х\ === и, Х% = 1, Х%'= Л,, Х^ — О, Хд — 4, Xq — о. Вероятности этих значений соответственно равны: /5i = 0,01024, рй = 0,0768, р3 = 0,2304, р4 = 0,3456, рь = 0,2592, /?6 = 0,07776. Ряд распределения величины X имеет вид: x1|0|l|2|3|4| 5 Pl | 0,01024 J 0,0768 | 0,2304 | 0,3456 | 0,2592 | 0,07776 Многоугольник распределения изображен на рис. 9. § 2.3. ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ Рассмотренный ряд распределения является удобной формой представления закона распределения для дискретной случайной величины с конечным числом возможных значений. Однако ряд распределения вообще нельзя построить для* непрерывной случайной величины. Действительно, непрерывная случайная величина имеет бёе- 52
численное множество возможных значений, которые сплошь заполняют некоторый промежуток, и перечислить их в какой-либо таблице нельзя. Кроме того (как мы увидим в конце этого параграфа), каждое отдельное значение непрерывной случайной величины обычно не обладает никакой отличной от нуля вероятностью. Следовательно, для непрерывной случайной величины не существует ряда распределения в том смысле, в каком он существует для прерывной случайной величины. В силу этого желательно иметь такую характеристику распределения вероятности, которая была бы применима для самых разнообразных случайных величин. . * ■. Наиболее общей фор- 1 —1 -^ »» мой закона распределе- 0 л х х ния случайной величины X является так Рис- ^ называемая функция распределения. Функцией распределения, или интегральным законом распределения, случайной величины X называется задание вероятности выполнения неравенства X < х, рассматриваемой как функции аргумента х: F(x) = P(X<x). Из определения функции распределения следует, что - она существует для всех случайных величин: как дискретных, так и непрерывных. Функция распределения полностью характеризует случайную величину с вероятностной точки зрения, это значит, что она является одной из форм закона распределения. Определение функции распределения имеет простую геометрическую интерпретацию. Если рассматривать случайную величину как случайную точку X оси Ох (рис. 10), которая в результате опыта может занять то или иное положение, то функция распределения F (х) есть вероятность того, что случайная точка X в результате опыта попадает левее точки х. Для дискретной случайной величины X, которая может принимать значения хи х%, ..., хп, функция распределения будет иметь вид: F(x)= 2 Р(Х = хд, (2.2) 53
где символ Xi <C * под знаком суммы обозначает, что суммирование распространяется на все те возможные значения случайной величины, которые по своей величине меньше аргумента х. Из выражения (2.2) следует, что функция распределения дискретной случайной величины X разрывна и возрастает скачками при переходе через точки возможных ее значений х\, х%, ..., хп, причем величина скачка равна вероятности соответствующего значения. Рассмотрим пример. Пример 1. По цели производится три независимых выстрела. Вероятность попадания в цель при каждом выстреле равна 0,4. Построить функцию распределения числа попаданий. Решение. Обозначим число попаданий через X, тогда возможные значения случайной величины X будут следующие: 4 Х\ = U, Х% = 1, Хз := 2, Xi = О. Вероятность возможных значений случайной величины определяем по формуле Бернулли P(^=*i)=c>v*'. где п = 3. Будем иметь: Р(Х = 0) = 0,216, Р(Х = 1) = 0,432, Р(Х = 2) = 0,288, Р(Х = 3) = 0,064. Составляем ряд распределения: х{ 1 P(X=Xi) | 0 0,216 1 0,432 2 0,288 3 0,064 Построим с помощью выражения (2.2) функцию распределения случайной величины X: 1. При х^0 F(x)= 2 P(X = Xi) = 0. xi<0 2. При QO^l F(x)= 2 P(X = Xi) = = P(X = 0) = 0,216. 3. При 1<х^2 F(x)= 2 Р(Х = хО = Р(Х = 0) + -f- P (X = 1) = 0,216 + 0,432 = = 0,648. 54
4. При 2<х*=:3 F(x)= ^] />(X = xJ-) = P(X=0) + •*,-<з + Р(Х=1) + Р(Х=2)=0,936. 5. При х>3 F(x) = P(X = 0) + P(X = l) + + Р(Х = 2) + Р(Х = 3) = 1. График функции распределения представлен на рис. 11. В рассмотренном примере значения случайной величины разделены интервалами,внутри которых других возможных значений нет. Характерно то, что на этих интервалах функция распределения F (х) постоянна, т. е. график % > J 1 0 iF(x) 1 2 :' 3 X Рис. 11 функции распределения представляет собой ступенчатую ломаную линию. Из графика видно, что при каждом новом значении случайной величины ступень поднимается выше на величину, равную вероятности этого значения. Рассмотрим общие свойства функции распределения. Свойство 1. Функция распределения F (х) есть неотрицательная функция, заключенная между нулем и единицей: 0<F(*X1. Справедливость этого свойства вытекает из того, что функция распределения F (х) определена как вероятность случайного события Х<^х. Свойство 2. Вероятность появления случайной величины в интервале [а, 8), полузамкнутом слева, равна разности значений функции распределения в концах интервала, т. е. Р (а ^ X < 8) = F (В) — F (а). (2.3) Доказательство. Рассмотрим следующие три события: 55
Событие Л, состоящее в том, что случайная величина Событие В, состоящее в том, что случайная величина Х<^<*. Событие С, состоящее в том, что а<;Х<[р. Очевидно, событие Л представляет собой сумму двух несовместных событий Б и С, т. е. По теореме сложения вероятностей несовместных событий имеем: P(A) = P{B) + P{Q. Но /> (Л) = Р(Х< ?) = />(?); P(B) = P(X<a) = F(a); Поэтому F(P) = F(a) + P(a^X<p). < (2.4) Отсюда P(a<X<p) = F(P)-F(a), что и требовалось доказать. Перейдем в равенстве (2.3) к пределу при j3-*a. В пределе вместо вероятности попадания случайной величины X в интервал [а, |3) получим вероятность того, что эта величина примет отдельно взятое значение а: Р(Х = а) = lim Р (а ^ X < р) = lim [F (Р) — F (а)]. (2.5) Р ->• а р -»■ а Значение этого предела зависит от того, является ли непрерывной функцией F (х) в точке а или же терпит разрыв. Если в точке а функция F (х) имеет разрыв, то предел (2.5) равен значению скачка функции F {х) в точке а. Если же функция F (х) в точке а непрерывна, то этот предел равен нулю. Так как непрерывная случайная величина X имеет непрерывную функцию распределения F (х), то из равенства нулю предела для непрерывной функции F (х) в точке а следует, что и вероятность любого отдельного значения непрерывной случайной величины равна нулю. Этот вывод, на первый взгляд, парадоксален. Однако он вполне согласуется с данным в § 1.4 статистическим определением вероятности события. Равенство нулю вероятности события характеризует тенденцию частоты этого 66
события неограниченно убывать при увеличении числа опытов и ни в какой мере не означает, что данное событие невозможно. Свойство 3. Функция распределения случайной величины есть неубывающая функция, т. е. при |3^>а FQ)^F(a). Это свойство вытекает из свойства 2. Действительно, согласно выражению (2.4), имеем: /?(P) = F(a) + />(<x^X<|J). Но так как вероятность любого события не может быть отрицательна, то Р (а.^Х<^$) ^з=0. А это значит, что F{$)^F(a), если £>а. Свойство 4. На минус бесконечности функция распределения равна нулю, а на плюс бесконечности функция распределения равна единице, т. е. F (— оо) = 0, F(-foo)=l. В самом деле, при неограниченном перемещении точки х влево попадание случайной точки X левее х в пределе становится невозможным событием. Поэтому естественно полагать, что вероятность этого события стремится к нулю, т. е. F(— оо) = 0. Аналогичным образом, при неограниченном перемещении точки х вправо попадание случайной точки X левее х в пределе становится достоверным событием. Поэтому вероятность этого события стремится к единице, т. е. F(-foo) = l. Рассмотренные свойства функции распределения коротко можно сформулировать так: каждая функция распределения является неотрицательной неубывающей функцией, удовлетворяющей условиям F(—оо) = 0 и F (4- со) = 1. Обратное утверждение также имеет место, т. е. каждая функция, удовлетворяющая перечисленным условиям, может служить функцией распределения некоторой случайной величины. Поскольку с помощью функции распределения можно найти вероятность появления случайной величины в любом интервале или в любой точке возможных значений для дискретной случайной величины, то функция рас- 5/
Рис. 12 пределения однозначно определяет закон распределения случайной величины. Заметим, что если функция распределения возрастает в каждой точке интервала (а, Ь), то возможные значения случайной величины непрерывно заполняют этот интервал, так как согласно выражению (2.4), вероятность того, что случайная *д величина примет значение, заключенное в сколь угодно малой части (а, (3) этого интервала, отлична от нуля. Таким образом, монотонно возрастающей функции распределения F (х) на интервале (а, Ь) соответствует непрерывная случайная величина, возможные значения которой непрерывно заполняют этот интервал. В дальнейшем изложении мы будем называть непрерывными только те случайные величины, функция распределения которых везде непрерывна. Из рассмотренных свойств следует, что график функции распределения для непрерывной случайной величины имеет вид, изображенный на рис. 12. В связи с равенством нулю вероятности любого отдельного значения непрерывной случайной величины равенство (2.3), определяемое свойством 2, для непрерывной случайной величины можно переписать так: = F $)-?(*), (2.6) т. е. граничные точки интервала могут как включаться, так и выключаться. Пример 2. Функция распределения непрерывной случайной величины X задана выражением [ 0 при х^\, F{x) = \ a(x—\f при 1 <х<3, 1 при х^>3. 58
Найти коэффициент а и построить график F(x). Определить вероятность того, что случайная величина X в результате опыта примет значение на участке {1,2). Решение. Так как функция распределения непре-, рывной случайной величины X непрерывна, то при лг = 3 имеем: а (х—1)2=1, откуда а = ^-. График функции F (х) изображен на рис. 13. Исходя из второго свойства функции распределения, имеем: P(l<:X<:2) = F(2)-F(l)=\(2-ir-\(\-ir = \. § 2.4. ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ Функция распределения непрерывной случайной величины является ее исчерпывающей вероятностной характеристикой. Но она имеет недостаток, заключающийся в том, что по ней трудно судить о характере распределения случайной величины в небольшой окрестности той или другой точки числовой оси. Более наглядное представление о характере распределения непрерывной случайной величины в окрестностях различных точек дается функцией, которая называется плотностью распределения вероятности или дифференциальным законом распределения случайной величины. В этом параграфе мы рассмотрим плотность распределения вероятности и ее свойства. Пусть имеется непрерывная случайная величина X с функцией распределения F (х). Вычислим вероятность попадания этой случайной величины на элементарный участок (х, x-j-Ax). Согласно формуле (2.6) имеем: Р (х<Х<х+ bx)=F(х + Ьх) — F(х). Составим отношение этой вероятности к длине участка Ал;: Р (х < X < х + Ал:) _ F{x + bx) — F (x) {0 _. Да- — Ах ' 1.0 Полученное отношение называется средней вероятностью, которая приходится на единицу длины этого участка. Считая функцию распределения F (х) дифференцируемой, перейдем в равенстве (2.7) к пределу при Дх-^О; тогда получим: ,. Р (х < X < х 4- Да:) , • F (x -f Ах) - F (x) v, . . Длг-ч-0 Х Дл:-0 (2-8) 59
Предел отношения вероятности попадания непрерывной случайной величины на элементарный участок от х до х -|~ Д# к длине этого участка Дя, когда Дх стремится к нулю, называется плотностью распределения случайной величины в точке х и обозначается f (x). В силу равенства (2.8) плотность распределения f (х) равна производной от функции распределения F (х), т. е. f(x) = F(x). Смысл плотности распределения f (х) состоит в том, что она указывает на то, как часто появляется случайная величина X в некоторой окрестности точки х при повторении опытов. Кривая, изображающая плотность распределения / (х) случайной величины, называется кривой распределения. При- р .. мерный вид кривой распределения f (x) изображен на рис. 14. Заметим, что если возможные значения случайной величины заполняют некоторый конечный промежуток, то плотность распределения f(x) = 0 вне этого промежутка. Выделим на оси абсцисс элементарный участок Лх, примыкающий к точке х (рис. 15), и найдем вероятность попадания случайной величины X на этот участок. С одной стороны, эта вероятность равна приращению &F (х) функции распределения F(x), соответствующему приращению Lx = dx аргумента х. С другой стороны, вероятность попадания случайной величины X на элементарный участок dx с точностью до бесконечно малых высшего порядка, чем Дя, равна f (x) dx (так как \F(x)?& ?^dF (x)=f (x) dx). Геометрически это есть площадь элементарного прямоугольника с высотой f (x) и основанием dx (рис. 15). Величина f (x) dx называется элементом вероятности. Следует обратить внимание на то, что не все случайные величины, возможные значения которых непрерывно заполняют некоторый интервал, являются непрерывными 60
случайными величинами. Встречаются такие случайные величины, возможные. значения которых непрерывно заполняют некоторый промежуток, но для которых функция распределения не везде является непрерывной, а в отдельных точках терпит разрывы. Такие случайные величины называются смешанными. Так, например, в задаче обнаружения сигнала в шумах амплитуда полезного сигнала является смешанной случайной величиной X, которая может принимать любое значение, как положительное, так и отрицательное. Действительно, если в принимаемом радиосигнале присутствует полезный сигнал с вероятностью р, то 1 0 >ГЩ X Рис. 16 вероятность отсутствия сигнала, т. е. вероятность нулевого значения его амплитуды (амплитуда сигнала равна нулю, когда сигнал отсутствует и принимается один шум), равна q=l — р. А это значит, что амплитуда сигнала представляет собой случайную величину X смешанного типа с возможными значениями, непрерывно заполняющими всю действительную ось, и с одним исклю- 61
чительным нулевым возможным значением, имеющим вероятность q. График функции распределения F (х) амплитуды полезного сигнала изображен на рис. 16. Дадим теперь более строго определение непрерывной случайной величины. Случайная величина X называется непрерывной, если ее функция распределения F (х) непрерывна на всей оси Ох, а'плотность распределения,] (х) существует везде, за исключением, быть может, ^f№ конечного числа точек. Рассмотрим свойства плотности распределения. Свойство 1. Плотность распределения неотрицательна, т. е. Это свойство непосредственно вытекает из того, что плотность распределения f (х) есть производная от неубывающей функции распределения F(x). Свойство 2. Функция распределения случайной величины равна интегралу от плотности в интервале от —со дотх, т. е. Рис. 17 F{x)= \ f(x)dx. (2.9) Доказательство. По определению дифференциала функции имеем: dF (х) = f (x) dx. Следовательно, X X \ f(x)dx= 5 dF(x) = F(x) — F(— oo), — со — со но F (—оо) = 0 (свойство 4, § 2.3), поэтому х F(x)= I f(x)dx. — со На графике плотности распределения функция распределения изображается площадью, заштрихованной на рис. 17. 62
Свойство 3. Вероятность попадания непрерывной случайной величины X на участок (i, (3) равна интегралу от плотности распределения, взятому по этому участку, т. е. (3 P(*<X<$) = \f(x)dx. (2.10) а Доказательство. На основании свойства функции распределения имеем: Но согласно равенству (2.9) F$)= J f(x)dx, /»= ^ f(x)dx. Поэтому Р(а<Х<р)= J f(x)dx— ] f(x)dx = — ос — оо (3 — со (3 = J f (x) dx-\- \ f (x) dx = ^f (x) dx, что и требовалось доказать. Геометрически полученный результат можно истолковать так: вероятность того, что непрерывная случайная величина примет значение, принадлежащее интервалу (а, (3), равна площади криволинейной трапеции, заштрихованной на рис. 18. Заметим, что интеграл (2.10) можно получить, суммируя элементы вероятности на всем участке («> Р),- Свойство 4. Интеграл в бесконечных пределах от плотности распределения равен единице: Рис. 18 J f(x)dx=l. (2.11) 63
Доказательство. Заменяя в равенстве (2.9) величину х на плюс бесконечность и учитывая, что F {-\-оо) = = 1, получим: 00 F(+oo)= \ f(x)dx=l, — со что и требовалось доказать. Если интервал возможных значений случайной величины имеет конечные, пределы а и Ь, то плотность рас- . . пределения f(x) = 0 вне " ' промежутка [а, Ь] и свойство 4 тогда можно записать так: ь \f{x)dx=\. Геометрически доказанное свойство плотности распределения означает, что вся площадь криволинейной трапеции, ограниченной осью Ох и кривой распределения, равна единице. Пример. Случайная величина X подчинена закону распределения с плотностью asinx при Ой^х^тс, О при х<0 или-л->1г. Рис. 19 !(х) = Требуется: 1) Найти коэффициент а. 2) Построить график плотности распределения. 3) Найти вероятность попадания случайной величины на участок от 0 до j. Решение. 1) Для определения коэффициента а воспользуемся свойством 4 плотности распределения: со г. \ f (x) dx—^ asinxdx = — a cos x | =2a=l, откуда а= r? . 2) График плотности распределения f (х) представлен на рис. 19. 64
3) По формуле (2.10) имеем: к 1 о = — у (cos -J — cos О) § 2.5. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНОЙ ВЕЛИЧИНЫ 1. Понятие числовых характеристик. Мы уже знаем, что закон распределения полностью характеризует случайную величину с вероятностной точки зрения. Зная закон распределения случайной величины, можно указать, где располагаются возможные значения случайной величины и какова вероятность появления ее в том или ином интервале. Однако при решении многих практических задач нет необходимости характеризовать случайную величину полностью, а достаточно иметь о случайной величине только некоторое общее представление. Зачастую достаточно бывает указать не весь закон распределения, а только лишь некоторые характерные черты закона распределения. В теории вероятностей для общей характеристики случайной величины используются некоторые величины, которые носят название числовых характеристик случайной величины. Основное их назначение — в сжатой форме "выразить наиболее существенные особенности того или иного распределения. О каждой случайной величине необходимо прежде всего знать ее некоторое среднее значение, около которого группируются возможные значения случайной величины, а также какое-либо число, характеризующее степень разбросанности этих значений относительно среднего. Кроме указанных числовых характеристик, для более полного описания случайной величины используют ряд других числовых характеристик. Все они помогают в той или другой мере уяснить характерные черты распределения случайной величины. Рассмотрим наиболее часто встречающиеся числовые характеристики. 2. Математическое ожидание. Математическое ожидание является важнейшей характеристикой положения = — тг cosx 0,15. 3 Гурский 65
случайной величины. Математическое ожидание случайной величины иногда называют просто средним значением случайной величины. Рассмотрим сначала дискретную случайную величину X, имеющую возможные значения xif х%, ..., хп с вероятностями ри р^ ..., рп. Тогда математическое ожидание случайной величины X, которое мы обозначим М [X], определяется равенством л М\Х) = х1р1 + х*ръ-\-...-1гхпрп=^1 bPi- (2Л2) i=i Если дискретная случайная величина X может принимать бесконечное счетное множество значений хи х%, х3, ... с вероятностями ри pit p3, ..., то ее математическое ожидание определяется равенством со M[X] = ^xiPi. (2.12') » = i Итак, математическим ожиданием случайной величины X называется сумма произведений всех возможных значений случайной величины на вероятности этих значений. В дальнейшем наряду с обозначением М [X] мы будем обозначать математическое ожидание случайной величины X через тх: тх=М[Х]. Ниже (в гл. VII) будет показано, что математическое ожидание приближенно равно среднему арифметическому наблюдаемых значений случайной величины, и тем точнее, чем больше число опытов. Если производится несколько серий опытов, то математическое ожидание есть такое постоянное число, около которого будут колебаться средние арифметические значения случайной величины, вычисленные для каждой серии опытов. Рассмотрим теперь непрерывную случайную величину X, все возможные значения которой принадлежат отрезку la, b]. Пусть f (x) есть плотность распределения величины X. Разобьем отрезок [a, b] на п частичных отрезков, длины которых обозначим через A*i, Дл:2, ... ..., Ааг„. Возьмем в каждом частичном отрезке по одной точке, абсциссы которых обозначим соответственно xv x2f...» хп. 66
Так как произведение f (xi) bxt {i—\> 2, ..., п) приближенно равно вероятности попадания случайной величины X на элементарный участок Ах;, то сумма произведений ' п составленная по аналогии с определением математического ожидания для дискретной случайной величины, приближенно равна математическому ожиданию непрерывной случайной величины X. Перейдя к пределу в сумме (2.13) при стремлении к нулю длины наибольшего из частичных отрезков Axit получим определенный интеграл п Ь lim 2 xtf (xi) ^xi ==\xf (x) dx> тахДл-{.-0i = i a который и полагают по определению равным математическому ожиданию непрерывной случайной величины X. Итак, математическим ожиданием непрерывной случайной величины X, возможные значения которой принадлежат отрезку [а, Ь], называют определенный интеграл ъ M[X] = \xf(x)dx. (2.14) а Если возможные значения непрерывной случайной величины X принадлежат всей оси Ох, то математическое ожидание определяется интегралом со М[Х]= \ xf(x)dx. (2.15) Понятие математического ожидания случайной величины имеет простую механическую интерпретацию. Действительно, распределение вероятностей случайной величины можно интерпретировать механически как распределение масс на прямой. Вся распределенная на прямой масса принимается за единицу. Дискретной случайной величине X, имеющей возможные значения Xi, *2, ...» хп с вероятностями pit р.2, ..., рп, соответствует прямая с сосредоточенными в точках с абсциссами Х\, хъ ..., хп массами pit рь ..., рп. 3* 67
Непрерывной случайной величине соответствует непрерывное распределение масс на прямой с плотностью в каждой точке, равной плотности вероятности в этой точке. Тогда математическое ожидание М [X], определяемое формулой (2.12) или (2.15), есть не что иное как абсцисса центра тяжести стержня, так как формулы (2.12) и (2.15), очевидно, совпадают с выражением для координаты центра тяжести стержня, имеющего массу, равную единице. Следует заметить, что встречаются и такие случайные величины, для которых математическое ожидание не существует, так как соответствующая сумма (2.12') или соответствующий интеграл (2.15) расходятся. Однако такие случайные величины встречаются довольно редко. Обычно случайные величины, с которыми мы имеем дело на практике, имеют математическое ожидание. Отметим простейшие свойства математического ожидания. Свойство 1. Математическое ожидание постоянной величины равно самой постоянной, т; е. . М[С] = С. Доказательство. Постоянную величину С можно рассматривать как частный случай величины, которая с вероятностью, равной единице, принимает только одно значение, равное С. Но тогда в соответствии с формулой (2.12) М[С] = С-\=С. Свойство 2. Постоянный множитель можно выносить за знак математического ожидания, т. е. М[СХ] = СМ[Х]. Доказательство. а) Для дискретных случайных величин: М [СХ] = J] Сх^ = С% xiPi = СМ [X]. б) Для непрерывных случайных величин: СО 00 М[СХ\— \ Cxf(x)dx = C J xf(x)dx = CM[X]. — 00 — 00 68
Пример 1. Определить математическое ожидание числа попаданий при пяти выстрелах, если случайная величина X (число попаданий) задана рядом распределения (см. § 2.2): *1 Pi 0 0,01024 1 0,0768 • 2 0,2304 3 0,3456 4 0,2592 5 0,07776 Решение. По формуле (2.12) находим: М [Х] = 0-0,1024 +1-0,0768 + 2-0,2304 + 3-0,3456 + -f 4 • 0,2592 -f 5 • 0,07776 = 3 (попадания). Пример 2. Изделия испытываются на надежность. Вероятность выхода из строя за время испытания для каждого изделия равна р. Испытания заканчиваются после первого же изделия, не выдержавшего испытания, Найти математическое ожидание числа испытаний. Решение. Если X — случайное число испытаний, то ряд распределения случайной величины X имеет вид: Xi Pi 1 р 2 ЧР 3 q'2p ... ft qb-^p где q=\ —p. Математическое ожидание случайной величины X, согласно формуле (2.12'), выражается суммой ряда: M[X) = \-p-\-2-qp + 3-q*p-\-... + kqk-1p + ...= = p(l+2<7 + 3<79 + ... + V-1 + "-). Легко заметить, что ряд, стоящий в скобках, представляет собой результат дифференцирования геометрической прогрессии <7 + ?2 + ?н + -.- + <7*+... = г~. Следовательно, l+2?' + 3/ + ... + V-, + ." = ^T4-, = (+F=>. откуда 1 J р* р 69
Пример 3. Непрерывная случайная величина X за- дана плотностью распределения ах при 0^х^2, '**' ' 0 при x<0 или х>2. Найти значение коэффициента а и определить математическое ожидание случайной величины X. Решение. Коэффициент а найдем, воспользовавшись свойством 4 плотности распределения: со 2 ^ 2 \ /(х) dx = \ ахdx = Щ- =2а—\, — со О 1 откуда а = -к-. По определению математического ожидания для непрерывной случайной величины найдем: оо 2 М [X] = \ xf (x) dx — \ х • ^ х dx = у л:3 * 4 "3 Л~^"' о 3. Мода и медиана случайной величины. Кроме математического ожидания, которое является основной числовой характеристикой положения случайной величины, на практике применяются и другие характеристики положения, в частности мода и^медиана случайной величины. Модой М0 дискретной случайной величины называется ее наиболее вероятное значение. Для непрерывной случайной величины мода есть такое значение случайной величины, при котором плотность распределения имеет максимум, т. е. f(M0) —max. На рис. 20 и рис. 21 показана мода для дискретной и непрерывной случайной величины. Если многоугольник распределения (кривая распределения) имеет два или несколько максимумов, то распределение называется двухмодальным или многомодальным (рис. 22 и 23). Иногда встречаются распределения, которые имеют минимум, но не имеют максимум. Такие распределения называются антимодальнымн (рис. 24 и 25). Медианой MD случайной величины X называется такое ее значение, относительно которого равновероятно получение большего или меньшего значения случайной величины, P{X<MD) = P(X>MD). 70
Рис. 20 Рис. 22 Рис. 23 Рис. 26
Геометрически медиана — это абсцисса Точки, в которой площадь, ограниченная кривой распределения, делится пополам (рис. 26). Каждая из этих площадей равна 0,5, так как вся площадь, ограниченная кривой распределения, равна единице. Поэтому функция распределения в точке MD- F (ЛЬ) = />(;<< Ма) = 0,5. Заметим, что если распределение одномодальное и симметрическое, то все три характеристики положения случайной величины — математическое ожидание, мода и медиана — совпадают. 4. Дисперсия и среднее квадратическое отклонение. Для характеристики случайной величины совершенно недостаточно знать только числовые характеристики положения, так как одному и тому же заданному математическому ожиданию может соответствовать бесчисленное множество случайных величин, различных не только по своим значениям, но и по их характеру и природе. Значения наблюдаемых в практике случайных величин всегда более или менее колеблются около среднего значения. Это явление называется рассеянием величины около ее среднего значения. Числовые характеристики, характеризующие рассеяние случайной величины, т. е. показывающие, насколько тесно сгруппированы возможные значения случайной величины около центра рассеивания (математического ожидания), называются характеристиками рассеивания. Основными характеристиками рассеивания случайной величины являются дисперсия и среднее квадратическое отклонение. При определении указанных характеристик используется разность между случайной величиной X и ее математическим ожиданием mXi т. е. X — тх. Эта разность называется центрированной случайной величиной, соответствующей величине X, и обозна- о чается X: Х = Х— тх. Очевидно, закон распределения центрированной слу- о чайной величины X совпадает с законом распределения соответствующей случайной величины X. 72
Нетрудно показать, что математическое ожидание центрированной случайной величины равно нулю. Действительно, для дискретной случайной величины M[X]==M[X-m,l==£ KXi — mx)Pi = п п п = 2 XiPi— 2 mxpi = mx—mxyi Pi=zmx — mx\ = 0; i=*l £=1 i=l для непрерывной случайной величины о °° М[Х] = М[Х — тх] = $ {x — mx)f(x)dx = — 00 С» 00 = J л/ (х) dx — тх J f (x) dx = mx — тх • 1 = 0. — 00 - — 00 Но если математическое ожидание центрированной о случайной величины X равно нулю для всякой случайной величины X, то, конечно, оно никак не характеризует рассеяние ее значений, указывая только, что значения отклонения — числа разного знака. Поэтому в качестве меры рассеивания случайной величины берут математическое ожидание квадрата отклонения случайной величины от ее математического ожидания М[(Х~тхП которое называют дисперсией случайной величины X и обозначают D[X] или Dx. Итак, дисперсией случайной величины называется математическое ожидание квадрата отклонения величины от ее 'математического ожидания, т. е. D{X] = M[{X-mxf] пли D[X] = M[X% Для дискретной случайной величины дисперсия выражается суммой D[X] = 2(^-m,)apb (2.15) i—i а для непрерывной — интегралом со D[X]= \ (x — mxff(x)dx. (2.17) — со ТЗ
Формулы (2.16) и (2.17) непосредственно следуют из определения математического ожидания. Дисперсия случайной величины является очень удобной характеристикой рассеивания возможных значений случайной величины. Однако она лишена наглядности, так как имеет размерность квадрата случайной величины. Для большего удобства желательно иметь характеристику, по размерности совпадающую с размерностью случайной величины. Такой характеристикой является среднее квадратическое отклонение случайной величины, которое представляет собой положительный квадратный корень из ее дисперсии. Обозначают среднее квадратическое отклонение случайной величины X символом ах: ах = угЩх]. (2.18) Рассмотрим простейшие свойства дисперсии. Свойство 1. Дисперсия постоянной величины равна нулю: D[C} = 0. Действительно, если в данных условиях величина X может иметь только одно значение С, то, в соответствии с первым свойством математического ожидания М[С] = С. Тогда по определению дисперсии D[C] = M[(C—M [С])2] = М [(С — С)2] = 0. Свойство 2. Дисперсия произведения постоянной величины на случайную величину равна произведению квадрата постоянной величины на дисперсию случайной величины: D[CX] = C*D[X]. Доказательство. На основании определения дисперсии и второго свойства математического ожидания имеем: D [СХ] = М [(СХ — М [СХ])"] = М [(СХ — СМ [X])2] = = М [С2 (X — М [X])2] = СМ [(X — М [X])2] = C2D [X]. Свойство 3. Дисперсия "случайной величины равна математическому ожиданию квадрата случайной величины минус квадрат ее математического ожидания: D[X] = M[X*\ — m%. 74
Доказательство. Используя определения для дисперсии и математического ожидания, имеем: а) для дискретной случайной величины п п D[X] = X (Xi - тху pt=X (xf - 2xifnx + m%) pt = n n n = S tfPi — 2m-v 2 XiPi + m* TlPi = j = l i = l i = l • = M\X*]-2m\-\-mx==M{X*)-mx\ б) для непрерывной случайной величины со со D[X]= $ (х — mx)*f(x)dx = S x*f(x)dx — — 00 —CO со со — 2тх $ tf(x)dx + mx J /(x)dx = М[X2] — 2тх + тх = — со —со = М[Х*) — тх, что и требовалось доказать. Пример 3. Найти математическое ожидание и среднее квадратическое отклонение числа появлений события А при одном опыте. Решение. Так как при одном опыте число появлений X события А может принять только одно из двух значений 0 или 1, причем вероятность значения 1 равна вероятности р появления события А, а вероятность значения 0 равна вероятности q=\— р непоявления события А, то применяя формулу (2.12), найдем: mx = 0-q-{-l'p = p. Определим теперь по формуле (2.15) дисперсию случайной величины х: Dx = (Q-pfq-\-{\-pfp = pq. Следовательно, применяя формулу (2.18), найдем среднее квадратическое отклонение числа появлений события А при одном опыте: °х = Vpq- Пример 4. Случайная величина задана плотностью распределения )SX % _ _ 7С — ПрИ — у^^<у, О при |*|>|-. 75 /(*) =
Определить дисперсию и среднее квадратическое отклонение случайной величины X. Решение. Применяя формулу (2.14), найдем математическое ожидание т> 2 _ г 1С 1 12 "1С* Y \ xzosxdx^=-^x%mx\ —у \ %\ViXdx = ' Поскольку тх = 0, то применяя формулу (2.17), найдем: д-Н х* cos х dx = откуда 2х cos х о* = -f- (х* — 2) sin х /~~Zi yuzz = ±V7=S. Заметим, что для Характеристики рассеивания случайной величины X лГ(х) часто используют так называемое вероятное (срединное) отклонение, которое обозначают через Ех. Вероятным отклонением называется половина длины участка, симметричного относительно математического ожидания, вероятность попадания в которой равна половине, т. е. Р{\Х-тх\<Ех) = 0,Ъ. (2.18') Геометрически вероятное отклонение Ех есть половина длины участка оси абсцисс, симметричного относительно математического ожидания, на который опирается половина площади, ограниченной кривой распределения (рис. 27). Рис. 27 76 ,
§ 2.6. МОМЕНТЫ СЛУЧАЙНОЙ ВЕЛИЧИНЫ Обобщением основных числовых характеристик случайных величин является понятие моментов случайной величины. Само название «момент» заимствовано из механики, где это понятие применяется для описания распределения масс. В теории вероятностей различают моменты двух видов: начальные и центральные. Начальным моментом k-го порядка случайной величины X называют математическое ожидание величины Xk, т. е. а* = М[Х*]. Следовательно, для дискретной случайной величины начальный момент выражается суммой (см. 2.12) п а для непрерывной — интегралом (см. 2.15) оо 4= \ xkf(x)dx. — оо Из начальных моментов случайной величины особое значение имеет момент первого порядка, который представляет собой не что иное, как математическое ожидание случайной величины. Начальные моменты высших порядков используются главным образом для вычисления центральных моментов. Центральным моментом k-го порядка случайной величины X называют математическое ожидание величины {X-mx)k H = M[(X-mxf]. Для дискретной случайной величины центральный момент выражается суммой п Pk = 2 (*i — m*)k Pi* i= 1 а для непрерывной — интегралом оо Н*= S (* — rnx)*f (x)dx. — оо 77
Центральный момент первого Порядка, как мы уже показали в § 2.5, всегда равен нулю. Среди центральных моментов случайной величины особое значение имеет центральный момент второго порядка, который представляет собой не что иное, как дисперсию случайной величины. Кроме центрального момента второго порядка, в теории вероятностей для описания случайной величины широко применяются центральные моменты третьего и четвертого порядков. Третий центральный момент jx3 служит характеристикой асимметрии («скошенности») распределения. Чита- ах<0 Рис. 28 Рис. 29 телю предлагается самостоятельно проверить, что если случайная величина X распределена симметрично относительно своего математического ожидания, то третий центральный момент Так как третий центральный момент имеет размерность куба случайной величины, то обычно рассматривают безразмерную величину — отношение ja3 к среднему квадратическому отклонению в третьей степени av = V-г Величина ах носит название коэффициента асимметрии. На рис. 28 кривая распределения имеет положительную асимметрию {ах^>0), а на рис. 29 кривая распределения имеет отрицательную асимметрию (а,<0). Четвертый центральный момент р.4 служит для характеристик островершинности или плосковершинности рас- 78
пределения. Эти свойства распределения описываются с помощью так называемого эксцесса. Эксцессом случайной величины X называется величина JiL 3. Число 3 вычитается из отношения ~- потому, что для наиболее распространенного нормального закона распределения (с которым мы познакомимся в дальнейшем) ^4 О — d' а* Кривая нормального распределения, для которого эксцесс равен нулю, принята как бы за эталон, с которым сравниваются другие распределения. Кри- \ ?Ш вые более островершин- s~\. ^сх>° ные имеют положительный эксцесс; кривые более плосковершинные — отрицательный эксцесс (рис. 30). Кроме рассмотренных начальных и центральных моментов, на практике иногда применяются так называемые абсолютные моменты. Абсолютный начальный мулой Рис. 30 момент определяется фор- h = M\\X\% а абсолютный центральный момент — формулой vk = M[\X-mx\k]. Из определения абсолютных моментов следует, что абсолютные моменты четных порядков совпадают с обычными моментами. Из абсолютных моментов нечетного порядка часто применяется первый абсолютный центральный момент ь = М[[Х-тх\1 который называется средним арифметическим отклонением. 79
Среднее арифметическое отклонение, наряду с дисперсией и средним квадратическим отклонением, иногда применяется как характеристика рассеивания случайной величины. § 2.7. БИНОМИАЛЬНОЕ РАСПРЕДЕЛЕНИЕ Среди законов распределения для дискретных случайных величин наиболее распространенным является биномиальное распределение, с которым мы уже встречались в § 1.9. Биномиальное распределение имеет место в следующих условиях. Пусть случайная величина X выражает число появлений события Л при п независимых испытаниях, проводимых в одинаковых условиях. Вероятность появления события А постоянна и равна р. Следовательно, вероятность непоявления события А равна q—1—р. Возможными значениями случайной величины X являются х0 — 0, Xi = \, ..., хп = п. Вероятности этих возможных значений определяются по формуле Бернулли (§ 1.9) P(X—m)=Cymqn-m (m = 0,l, ..., п). (2Л9) Распределение дискретной случайной величины, для которой ряд распределения задается формулой (2.19), носит название биномиального распределения. Биномиальное распределение имеет, например, случайная величина X, выражающая число бракованных изделий в повторной выборке из п изделий, и т. п. Найдем математическое ожидание и дисперсию случайной величины, имеющей биномиальное распределение. Согласно определению математического ожидания для дискретной случайной величины, имеем: п тх= У^тСпр q . (2.20) Для вычисления суммы (2.20) продифференцируем по р следующее выражение: (P+^SCpV""- (2.21) 80
Получим п (р±аГ<= £ тСтпРтV~m- (2-21) Умножая теперь левую и правую часть равенства (2.21) на р, имеем: npip + яГ1^ 2тОИГ- (2-22) т =0 Правые части равенства (2.20) и (2.22) равны между собой, следовательно, равны и левые части, т. е. mx = np(p-\~q)nl. Но так как p-\-q={, то тх = пр. (2.23) Итак, математическое ожидание числа наступлений события в серии независимых и одинаковых испытаний равно произведению числа испытаний на вероятность появления события при одном испытании. Для вычисления дисперсии биномиального распределения используем третье свойство дисперсии: Ох = М[Х*]-~тх. (2.24) Найдем вначале М[Х2]: М[Х*}= Хт"спРтдП'т' (2-25) m=0 Для вычисления суммы (2.25) продифференцируем дважды по р выражение (2.21), получим: п n{n — \){p-^q)n-Si=r. 2] т (т — 1) С2рт-у-т. m — Q Умножая обе части полученного равенства на р2, будем иметь: n{n-\)p*{p + q)n-*= J]m(m-l)OV~m. m=-0 Отсюда, учитывая, что/?-^<7=1, получаем: . пу — пр°-=: Y.mKlpmqn-m— Y^mC™pmqn-m. т; = 0 т — 0 §1
Но так как 2m';QTm=^l^] и. J] mCZfflqa-m = mx = npt т—0 т —О ТО п*р1 — пр% = М[Х*} — пр. Отсюда М [X2] = п У — tip* + пр. (2.26) Подставляя выражение (2.26) в формулу (2.24) и учитывая, что тх — пр, получим: Dx = я2/?3 — пр* -\-пр — п?р% = пр(\ — р), или Dx = npq. (2.27) Отсюда определяем среднее квадратическое отклонение для биномиального распределения: ox = Yn~pq. (2.28) Пример. Случайная величина X представляет число бракованных деталей из возвратной выборки в 50 штук. Вероятность брака одной детали /? = 0,06. Найти математическое ожидание, дисперсию и среднее квадратическое отклонение числа бракованных деталей в выборке. Решение. Случайная величина X имеет биномиальное распределение. Поэтому по формуле (2.23) математическое ожидание тх = пр = 50-0,06=3 (дет.). Дисперсию определяем по формуле (2.27) Dx = npg = 50-0,06-0,94 = 2,82. Тогда среднее квадратическое отклонение будет ax = VX82**\,68 (дет.) § 2.8. РАСПРЕДЕЛЕНИЕ ПУАССОНА При решении многих практических задач приходится иметь дело с дискретными случайными величинами, которые подчиняются закону распределения Пуассона. 82
Типичными примерами случайной величины, имеющей распределение Пауссона, являются: число вызовов на телефонной станции за некоторое время /; число отказов сложной аппаратуры за время t, если известно, что отказы независимы друг от друга и в среднем на единицу времени приходится X отказов, и т. д. Рассмотрим общую задачу теории вероятностей, приводящую к распределению Пауссона. На оси Ох случайно распределяются точки таким образом, что вероятность попадания любого данного числа точек на любой отрезок / оси Ох не зависит от числа точек, попадающих на другие неперекрывающиеся отрезки оси Ох, и от их распределения на этих отрезках, а зависит только от размера отрезка /. Требуется найти вероятность Рт = Р (Х = т) того, что на отрезок оси Ох длины / попадает ровно т точек, предполагая, что точки распределены по всей оси с одинаковой средней плотносгью. Обозначим эту плотность, т. е. среднее число точек (математическое ожидание), приходящихся на единицу длины, через X и будем рассматривать малый отрезок Ах. Тогда математическое ожидание числа точек, попадающих на этот отрезок, очевидно, равно ХДл:. Если отрезок Дл: достаточно мал, то можно считать, что вероятность возможного попадания на него двух или более точек пренебрежимо мала. Поэтому вероятность попадания на Дл: ровно одной точки можно считать приближенно равной X Дл;, так как lbx = M[Y] = 0-P(Y = 0) + l- P(Y = \)-\- + 2-Р(У = 2) + 3-Р(У = 3) + ...я^Р(У = 1), где Y — случайное число точек, попадающих на отрезок Дл;. Разделим отрезок / на п равных частей длиной Дл: = —. Так как вероятность того, что интервалу Дл; принадлежит одна точка, равна X Дл;, то вероятность того, что интервалу Д# не принадлежит точка, равна 1 — X • Дл:= п Согласно условию, попадания точек в неперекрывающиеся отрезки независимы, поэтому попадания или непопадания точек в каждый из п отрезков можно рассматривать как результат п независимых опытов. 83
Вероятность того, что из числа п отрезков будет ровно т отрезков, которым будет принадлежать одна точка, при наших допущениях найдется по формуле Бернулли Рм = Р(Х = т)ъСЧ Ч)' п j (2.29) При достаточно большом п и, следовательно, при достаточно малых Дх эта вероятность приближенно равна искомой вероятности попадания ровно т точек на отрезок /, так как попадание более одной точки на элементарный отрезок Д* имеет очень малую вероятность. Для определения вероятности Рт перейдем в выражении (2.29) к пределу при п-*оо. Тогда lim п—* оо lim П-+СО п ~* со I \п I п(п— 1)...(п-да + 1) (X/) п j X - Щ" п I да! п' п (п- 1)...(л- -w + 1) W п) _ 1 - Ы.)я П I п) Так как lim я—» со п(п- !)...(«-т + 1) = НтГ(1- l п я /\ я lira l —- =1 «-col Я У пт Я-v СО х/\ и _лпх/ •-V 1=е -hi да! (2.30) получаем: да! (2.31) В полученном выражении (2.31) величина А/ есть не что иное как математическое ожидание числа точек, попадающих на отрезок длиной /. 84
Обозначая U — a, получаем: Р,. Я"' ml (2.32) Распределение дискретной случайной величины X, описываемой формулой (2.32), и называется распределением Пуассона. Распределение Пуассона зависит от одного параметра а, который является. математическим ожиданием случайной величины X (тх — а). На рис. 31 показан общий вид многоугольника распределения Пуассона при различных значениях параметра тх = а. Определим дисперсию случайной величины, имеющей распределение Пуассона. Согласно третьему свойству дисперсии имеем: D[X]=:M[X*]-~mx. Найдем момент М [X'2]: 1 0,5- ■ 0 PfX=m) тх-0,5 / i ^\ Л = * > J 4 5 т Рис. 31 м[хц=2-т"а^еа==а£'а 2 т т = 0 (т - 1)! =«-2 1С"-1) + п^ = т — \ = ае а \ (т 1) m = l (т - 1)! I -о V аШ~ -4- ае а 7 / 1 Li (m — т = 1 1)! V ат~2 т — 1 SLi (т- 1)1* т = 1 Так как каждая из этих сумм равна еа, то М [X2] = а2е~а ей -f шГа еа = а2 + а> Следовательно, дисперсия величины X равна D{X) = dl-\-a — dl = a. Таким образом, дисперсия случайной величины, имеющей распределение Пуассона, численно равна ее математическому ожиданию. 85
Распределение Пуассона мы получили, рассматривая задачу о числе случайных точек на оси абсцисс, попадающих на заданный отрезок /, т. е. для одномерного случая. Распределение Пуассона автоматически распространяется на двумерный и трехмерный случай, когда речь идет о числе попаданий в какую-либо область на плоскости или в пространстве, если точки распределились на плоскости или в пространстве равномерно и независимо друг от друга и задано среднее число точек, попадающих в единицу площади (объема). Кроме того, распределение Пуассона может быть использовано как приближенное в тех случаях, когда точным распределением случайной величины является биномиальное распределение и когда математическое ожидание мало отличается от дисперсии, т. е. когда пр я^ npq. В связи с этим распределение Пуассона имеет большое количество различных приложений. Пример 1. На телефонную станцию в течение определенного часа дня поступает в среднем 30 вызовов. Найти вероятность того, что в течение минуты поступает не более двух вызывов. Решение. Математическое ожидание числа вызовов за минуту равно зо j_ а СО 2 " Вероятность того, что в течение данной минуты возникнет не более двух вызывов, равна сумме вероятностей того, что в течение данной минуты будет либо 0, либо 1, либо 2 вызова. Поэтому искомая вероятность ■Р(т<2) = />, + Р1 + Р, = £.<г« + £<г« + £е-°== , , ■ , ,2 01- ' 1! '21 1 0,98. 2! Пример 2. Завод отправил на базу 500 доброкачественных изделий. Вероятность того, что в пути изделие повредится, равна 0,002. Найти вероятность того, что на базу прибудет три негодных изделия. Решение. Задача решается приближенно с помощью формулы Пуассона. Имеем: /7 = 0,002, q~\—р = 0,998 и п = 500. 86
По формулам (2.23) и (2.27) определяем математическое ожидание и дисперсию числа негодных изделий: тх = пр = 500 -0,002 = 1, Dx = npq = 500 • 0,002 • 0,998 == 0,998. Так как mx^Dx, то полагая а = тх==\, найдем приближенно искомую вероятность по формуле Дуассона: D аШ -а 1-1 1 Рз = -те —~-е 1==й— т\ 3! 6 • е 0,06. § 2.9. РАВНОМЕРНОЕ РАСПРЕДЕЛЕНИЕ Непрерывная случайная величина X имеет равномерное распределение на отрезке [а, Ь], если на этом отрезке плотность распределения случайной величины постоянна, а вне его равна нулю, т. е. если (0 при х<^а, С при а^х^Ь, 0 при х^>Ь, где С = const. * График плотности f(x) для равномерного распределения изображен на рис. 32. Так как площадь, ограниченная кривой распределения, равна единице, то плотность равномерного распределения на интервале (а, Ь), как высота прямоугольника с основанием (Ь — а), равна С--±- Рис. 32 и, следовательно, плотность распределения f (х) имеет вид: 0 при х<^а, 1 f(*) = при а^х^Ь, 0 при х^>Ь. (2.33) 87
Найдем функцию распределения F (х) для равномерного распределения на интервале (а, Ь). Согласно формуле (2.9), имеем: X X F{x)=^ f(x)dx=\^—-ldx = -F^r b-a (а b). При х<^а F(х) = 0, а при x^>b F(x) = \. Таким образом, О при х<^а, F(x) = х — а при а- Ъ~а 1 при х^>Ь. Ь, (2.34) , 0 . Пх) /Т. a b x График функции F (х) показан на рис. 33. Непрерывная случайная величина X подчиняется закону равномерной плотности (имеет равномерное распределение), если ее возможные значения лежат в пределах некоторого определенного интервала, кроме того, в пределах этого интервала все значения случайной величины одинаково вероятны (обладают одной и той же плотностью вероятности). Со случайной величиной, имеющей равномерное распределение, мы часто встречаемся в измерительной .практике при округлении отсчетов измерительных приборов до целых делений шкал. Ошибка при округлении отсчета до ближайшего целого деления является случайной величиной X, которая может принимать с постоянной плотностью вероятности любого значения между двумя соседними целыми делениями. Определим математическое ожидание и дисперсию случайной величины X, имеющей равномерное распределение на участке от а до Ь, Рис. 33
Имеем: т о к = \ т^— dx • ,} Ь - а а + Ь 2 (Ь — а) т. е. математическое ожидание равномерного распределения находится посредине интервала его распределения. Дисперсию случайной величины X находим по формуле (2.17): Dx = _(b-a)' ~~ 12 ' откуда среднее квадрати- ческое отклонение Ь — а = VDX = 2>А3 Рис. 34 Наконец, найдем вероятность попадания случайной величины, имеющей равномерное распределение, на участок (а, |3), представляющий собой часть интервала (а, Ь) (рис. 34): Р(.<Х<Р,= 5^ = !^. а Графическая вероятность Р (с/. <^Х <^(3) представляется в виде площади заштрихованного прямоугольника на рис. 34. § 2.10. ПОКАЗАТЕЛЬНОЕ РАСПРЕДЕЛЕНИЕ В практических приложениях теории вероятностей, особенно в теории массового обслуживания, исследовании операций, в физике, биологии, вопросах надежности и других приложениях, часто имеют дело со случайными величинами, имеющими так называемое экспоненциальное, или показательное, распределение. Непрерывная случайная величина X распределена по показательному закону, если ее плотность вероятности имеет вид:. f(x) \0 при при х^О, х<0. (2.35) 89
Кривая распределения f (x) изображена на рис. 35. Функцию распределения величины X найдем по формуле (2.9): F(x) = ] f(x)dx=\Xe~x-vdx = — e — 00 f Таким образом, Ах \х. о ' 1-е -кх F(x) = 1 е-^ при лг^О, (2.36) О при х<^0. График функции распределения F (х) показан на рис. 36. Определим математическое ожидание и дисперсию случайной величины X, имеющей показательное распределение: т. : J xf (x) dx = — 00 00 \ xke~kxdx. Рис. 35 Интегрируем по частям, полагая и = х, dv = e~kxdx; получим: du = — dx, v={e~Kxdx = -\e'Kx. Следовательно, -кх |Э° тх = оо Рис. 36 e^xdx= — - __J_ х > т. е. математическое ожидание есть величина, обратная коэффициенту X. Для нахождения дисперсии используем формулу Найдем М[Х*]: Dx=M\Xi\ — m1x. М[ХЦ = \ x^e-^dx. 90
Дважды интегрируя по частям, получаем: М[Ха\ = £. Следовательно, Dx==M[X*}-mx = ^-^ = ^. Отсюда определяем среднее квадратическое отклонение для показательного распределения: ,,= |/D, = -^=i. Таким образом, у показательного распределения математическое ожидание и среднее квадратическое отклонение одинаковы: 1 тх = ах = т. Пример 1. Случайная величина Т — время работы радиолампы — имеет показательное распределение. Определить вероятность того, что время работы лампы будет не меньше 600 часов, если среднее время работы радиолампы 400 часов. Решение. По условию задачи математическое ожидание случайной величины Т равно 400 часам, следовательно, Х = ^гд. Искомая вероятность Я(Г^600)=1— Р(Г<600) = 1— F(600) = / __L .eoo\ -6-0 ==1 — ll —в 40° ) = е ш = е-^ъ0,2231. § 2.11. НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ Среди распределений непрерывных случайных величин центральное место занимает нормальный закон (закон Гаусса), плотность вероятности которого имеет вид: ix-mxY f(x)=-^e 2з* . (2.37) где тх и ах—параметры нормального распределения. Нормальный закон распределения очень широко распространен в задачах практики. Он проявляется во всех 91
тех случаях, когда случайная величина X является результатом действия большого числа различных факторов. Каждый фактор в отдельности на величину X влияет незначительно и нельзя указать, какой именно в большей степени, чем остальные. Примерами случайных величин, имеющих нормальное распределение, могут служить: отклонение действительных размеров деталей, обработанных на станке, от номинальных размеров, ошибки при измерении, отклонения при стрельбе и другие. Основная особенность, выделяющая нормальный закон среди других законов, состоит в том, что он является предельным законом, к которому приближаются другие законы распределения. В §5.4 будет рассмотрена центральная предельная теорема теории вероятностей, в которой доказывается, что при достаточно большом п сумма независимых случайных величин- Х\, Хч,..., Хп, подчиненных каким угодно законам распределения (при соблюдении некоторых ограничений), будет иметь закон распределения, как угодно близкий к закону нормального распределения. Функция распределения случайной величины, имеющей нормальное распределение, согласно формуле (2.9), будет иметь вид: (х — т )* X \ X) F(x) = -±— [ е 2а* dx. Найдем математическое ожидание и дисперсию нормального распределения. Имеем: (х — т |- оо со V х! М[Х]= [ xf{x)dx = —±— [ хг 2а* dx. Производя замену переменной ( х — /я, *xV2 t, имеем: М[Х] = ± \ {mx + exV2t)e-t*dt = — 00 = 7* § e~t"dt^lY7 \ te~t2dt' 92
Второй интеграл равен нулю, как интеграл от нечетной функции в симметричных пределах, первый интеграл представляет собой известный интеграл Пуассона: 00 00 — со О Поэтому оо М[Х) = ^= [ e-<zdt = ^.y* 1/71 J . У Tl ftlt Итак, параметр тх является математическим ожиданием случайной величины, имеющей нормальное распределение. Дисперсия нормального распределения определяется по формуле D со ■хУъ ,)а ъ\ — тх)*е *°-х dx. Применив снова замену переменной U sx\-l имеем: Рис. 37 ■xVb 2а У п J 4t. Интегрируя по частям, получим: \ it'2te-t%dtr-—->- тс J D[X] Vr \Г*\ te~ e-iSdt\ Первое слагаемое в фигурных скобках равно нулю, так как e~t% при /->оо убывает быстрее, чем возрастает любая степень t. Второе слагаемое есть интеграл Пуассона и, следовательно, равно ]Лг. Поэтому D[X] = ax. Таким образом, параметр qx в выражении (2.37) есть 93
среднее квадратическое отклонение случайной величины, имеющей нормальное распределение. График плотности вероятности нормального распределения (рис. 37) называют нормальной кривой (кривой Гаусса). Отметим некоторые свойства нормальной кривой. 1) Кривая распределения симметрична относительно ординаты, проходящей через точку тх. -6 -4 -2 О 6 х Рис. 38 2) Кривая имеет один максимум при х = тх, равный 1 <зх у%.' 3) При (я|->оо ветви кривой асимптотически приближаются к оси Ох. 4) Изменение математического ожидания тх при зх = — const приводит к смещению кривой распределения вдоль оси Ох. При этом кривая распределения сохраняет свой вид. При изменении среднего квадратического отклонения ах и тх = const кривая распределения изменяет свой вид. На рис. 38 кривая / соответсувует случаю а*-—2,5, для кривой // — ох—\, а для кривой ///—0^ = 0,4. § 2.12. ВЕРОЯТНОСТЬ ПОПАДАНИЯ СЛУЧАЙНОЙ ВЕЛИЧИНЫ, ИМЕЮЩЕЙ НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ, НА ЗАДАННЫЙ УЧАСТОК. ФУНКЦИЯ ЛАПЛАСА Мы уже знаем, что если случайная величина X задана плотностью вероятности / (х), то вероятность попадания величины X на участок (а, (3) P{*<X<ft = lf{x)dx. 94
Пусть случайная величина X распределена по нормальному закону. Тогда вероятность того, что X примет значение, принадлежащее интервалу (а, (3), Пользуясь снова заменой переменной х — т. '*/2 * = t, получим: P(a<X<p) = -L ^ e-t2dt. Так как интеграл \e~<*dt (2.38) 'xYi не выражается через элементарные функции, то для вычисления интеграла (2.38) пользуются таблицами значений специальной функции, которая называется функцией Лапласа, или интегралом вероятностей, и имеет вид: фм=М^*- (2.39) Таблица значений функции Ф(х) приведена в приложении (см. табл. 1). Путем несложных преобразований приведем выражение (2.38) для вероятности попадания случайной величины на заданный интервал (а, р) к функции Лапласа: Р-ОТд ■У г Pi*<X<t) = ± I e !dt "XVi Р-Я1, 2 Y* -4= \ e-t2dt а. — т X axYi 4 \ !dt *т-ФШ^ 95
Функция Лапласа имеет следующие свойства. 1. Ф(0) —0. Это следует из того, что при * = 0 пределы интеграла (2.39) совпадают. 2. Ф(оо) = 1. Действительно, Ф v ; Vr. 3 V* 2 3. Функция Лапласа Ф (х) есть функция нечетная, т. е. Ф(—х) = — Ф(х). В самом деле, Ф(—х) =4= [*-"&' положив / = — «, имеем: Ф (— х) = — ~= [е~и2(1и = — Ф(х). График функции Лапласа изображен на рис. 39. Pw. 39 Отметим важный частный случай формулы (2.40): P(lX-m,|</) = P(m,-/<X<m, + /) = = ф(_ЦД (2.41) V2 mi У 2 Воспользуемся формулой (2.41) и найдем вероятность попадания случайной величины X, имеющей нормальное распределение с параметрами тх и аХ1 на интервал 96
\mx — 3ax, mx-{-3ox). Для расчетов используем таблицу значений функции Лапласа, получим: Р(\Х-тх\< Зах) = Ф (^j ъ 0,9972. Таким образом, для нормально распределенной случайной величины X с параметрами тх и ах выполнение неравенства \Х — тх\<^ Зах практически достоверно. В этом заключается так называемое «правило трех сигм». Для характеристики ширины нормальной кривой (2.37) вместо среднего квадратического отклонения ах иногда используют вероятн9е отклонение Ех. По определению вероятного отклонения (формула 2.18') Р(тх — Ех<Х<тх + Ех) = Р{\Х-тА\<Ех) = ъ- Но по формуле (2.41) Р(\Х-тх\<Ех) = ф(-^% Следовательно, WK2/ 2* Обозначим буквой р корень уравнения Ф(х)=~. , (2.42) Найдем из таблицы значений функции Лапласа обратной интерполяцией корень уравнения (2.42) с точностью до трех значащих цифр: р^ 0,477. Таким образом, -ф= = Р~ 0,477, откуда £х = р1/2"ох^0,675ол. (2.43) Формула (2.43) устанавливает связь между вероятным и средним квадратическим отклонением для нормального распределения. Полагая в выражении нормального закона (2.37) Ех РК2 4 Гурский 97
получим еще одну форму нормального закона! Эта форма часто применяется в теории стрельбы. Пример 1. Ошибка радиодальномера подчинена нормальному закону. Математическое ожидан-ие этой ошибки равно 5 м, а среднее квадратичное отклонение равно 10 м. Найти вероятность того, что измеренное значение дальности будет отклоняться от истинного не более чем на 20 м. Решение. Решение задачи сводится к определению вероятности попадания случайной величины X (ошибка радиодальномера) с математическим ожиданием тх — Ь и средним квадратическим отклонением 0^=10 на участок (—20, 20). По формуле (2.40) имеем: Р(-20<Х<20) = 1 Гф/Н0^_ф/-20 10/2/ \ 10/2 = ~ [Ф (1,06) -{- Ф (1,77)] ъ 0,875. Пример 2, Размер диаметра втулок, изготовляемых цехом, можно считать нормально распределенной случайной величиной с математическим ожиданием тх = 2,5. см и дисперсией о;. = 0,0001 см*. В каких границах можно практически гарантировать размер диаметра втулки, если за вероятность практической достоверности принимается 0,997? Решение. Обозначим через / величину, на которую может отклониться размер диаметра втулки от математического ожидания с вероятностью 0,997. Тогда; согласно формуле (2.41), имеем Р(|Х-тП</)=ф(—~ ) = 0,997. (2.43) Определяя из таблицы значений функции Лапласа обратной интерполяцией корень уравнения (2.43), получим __£_ = 2 1 откуда (так как сх = 0,01) / = охУ2.2,1=0,0Ь2,1.1/г2^0,03. Таким образом, размер диаметра втулки с вероятностью 0,997 принадлежит интервалу (2,47; 2,53). 98
Вопросы для самопроверка 1. Какая величина называетя случайной величиной? 2. Дайте определение дискретной и непрерывной случайных величин. Приведите примеры дискретных и непрерывных случайных величин. 3. Что называется законом распределения случайной величины? 4. Что называется рядом распределения дискретной случайной величины? 5. Дайте определение функции распределения вероятности. Перечислите и докажите свойства функции распределения. 6. Как, зная функцию распределения, найти вероятность попадания случайной величины в заданный интервал? 7. В чем состоит различие графиков функций распределения дискретной и непрерывной случайных величин? 8. Дайте определение плотности распределения вероятностей. Перечислите и докажите свойства плотности распределения. Пригодно ли понятие плотности распределения вероятностей для дискретной случайной величины? 9. Как, зная плотность распределения, найти вероятность попадания случайной величины в заданный интервал? 10. Что называется математическим ожиданием дискретной случайной величины? 11. Что называется математическим ожиданием непрерывной случайной величины? 12. Как можно истолковать математическое ожидание механически? 13. Что называется модой случайной величины? Что называется медианой случайной величины? 14. Дайте определение дисперсии случайной величины и перечислите ее свойства. 15. Что называется средним квадратическим отклонением случайной величины? 16. Что называется начальным моментом &-го порядка случайной величины? 17. Что называется центральным моментом k-vo порядка случайной величины? 18. Какое распределение вероятностей называется биномиальным? Чему равны математическое ожидание и дисперсия случайной величины, имеющей биномиальное распределение? 19. Какое распределение называется распределением Пуассона? Чему равны математическое ожидание и дисперсия случайной величины, распределенной по закону Пуассона? 20. Какое распределение случайной величины называется равномерным распределением? 21. Какое распределение случайной величины называется показательным распределением? 22. Какое распределение случайной величины называется нормальным распределением? 23. Как называется график плотности вероятности нормального распределения и каковы его свойства? 24. Что называется функцией Лапласа и каковы ее свойств.!?1 4« 99
Упражнения 1. При установившемся технологическом процессе -=- всей про- 1 дукции станок-автомат выпускает первым сортом и -ц—вторым сортом. Построить ряд распределения и функцию распределения числа изделий первого сорта среди 5 штук, отобранных случайным образом. Используя ряд распределений, найти математическое ожидание и дисперсию рассматриваемой случайной величины. Отв. Шд.«»3,33, D*=»l,ll. 2. По цели производится стрельба независимыми выстрелами до первого попадания. Вероятность попадания в цель при одном выстреле равна р. Построить ряд распределения числа произведенных выстрелов. Найти математическое ожидание и среднее квадра- тическое отклонение числа произведенных выстрелов. Отв. Г pq \pq%\ •.. \pqn\ ... mx=-~. a —r—L x p ' x p 3. Случайная величина X подчинена закону равномерной плотности распределения на интервале от 1 до 3. Написать выражение для плотности распределения случайной величины^. Найти математическое ожидание и дисперсию случайной величины X. Отв. f{x) у при 1 ^ х ^ 3; О при х < 1 или х> 3, 4. Каждый из трех стрелков стреляет по мишени один раз. Вероятность того, что первый, второй и третий стрелки попадут при одном выстреле в мишень, соответственно равны ри р2, р3. Пусть X — общее число попаданий в мишень. Найти закон распределения, среднее значение и дисперсию случайной величины X. з з Отв. тх = J] pu Dx = 2 Prti- 5. Случайная величина X задана функцией распределения ( 0 при х <0, TZ о , , а (1—cos 2л-) при Os^xs^-rr 1 при х > к- 100
Найти коэффициент а. Написать выражение для плотности распределения. Определить математическое ожидание и дисперсию случайной величины. Отв. о = у, f(x)=- / ТС . Sin 2х При 0 г^ X г^ -ту О при х<0 или л:> mr = ~r. D 4 » ~* 16 * 6. Плотность распределения случайной величины X задана выражением ( ах2 при Ог^хг— 1; \ 0 при х<0 или д:>1. Найти коэффициент с. Определить математическое ожидание и дисперсию случайной величины. 3 3 Отв. а = 3, mx — -£t °х = щ- 7. Функция распределения случайной величины К задана выражением 0 при х «^ 0; F(x) = ^ у*3 при 0 < ж ^ 2; 1 при л: > 2. Написать выражение для плотности распределения. Определить вероятность неравенства 0<Х<1. {3 ъ- х2 при 0 < х ^ 2; 8 г О при хг^О или л:>2. Р(0<Х<1) =0,125. 8. В группе из десяти изделий имеется одно бракованное. Чтобы его обнаружить, выбирают наугад одно изделие за другим и каждое вынутое изделие проверяют. Пусть X — число проверенных изделий (включая бракованное). Найти закон распределения, среднее значение и дисперсию случайной величины X. Отв. /% = 5,5; £>* = 3,1235. 9. Завод выпускает 96% изделий первого сорта и 49/0 изделий второго сорта. Наугад выбирают 1000 изделий. Пусть X — число изделий первого сорта в данной выборке. Найти закон распределения, среднее значение и дисперсию случайной величины X. Отв. т.*. = 960; £^ = 38,4. 10. Аппаратура содержит 1000 электроэлементов, вероятность отказа для каждого из которых в течение некоторого времени t равна 0,001 \\ не зависит от состояния других элементов. Какова вероятность отказа аппаратуры, если он наступает при отказе хотя бы одного из электроэлементов? Отв. р — I — e"1 «s 0,63. 101
11. Математическое ожидание числа отказов радиоаппаратуры за 1000 часов работы равно 5. Определить вероятность отказа радиоаппаратуры за 20 часов работы. Отв. р = 0,095. !2. Телефонная станция обслуживает 500 абонентов. Вероятность позвонить на коммутатор любому абоненту в течение часа равна 0,01. Какова вероятность того что, в течение часа позвонят 3 абонента? Отв. ряаг0,14. 13. Ошибка измерения подчинена нормальному закону. Математическое ожидание этой ошибки равно 5 м, а среднее квадрати- ческое отклонение 10 м. Найти вероятность того, что измеренное значение дальности будет отклоняться от истинного не более, чем на 15 ui Отв. р — 0,8187. 14. Ошибка радиодальномера подчинена нормальному закону. Систематической ошибки радиодальномер не дает. Какова должна быть срединная ошибка (вероятное отклонение), чтобы с вероятностью не меньше 0,95 можно было бы ожидать, что измеренное значение дальности будет отклоняться от истинного не более,- чем на 20 м? Отв. ЕХ=&В,9 м. 15. Измерительный прибор имеет срединную ошибку 25 м. Систематические ошибки отсутствуют. Сколько необходимо произвести измерений, чтобы с вероятностью не меньше 0,9 ошибка хотя бы одного из них превосходила по абсолютной величине 5 ж? Отв. п^21.
Глава % . СИСТЕМА СЛУЧАЙНЫХ ВЕЛИЧИН § 3.1. ПОНЯТИЕ О СИСТЕМЕ СЛУЧАЙНЫХ ВЕЛИЧИН В предыдущей главе мы рассматривали случайные величины и познакомились с различными характеристиками случайной величины. При изучении случайных явлений в зависимости от их сложности приходится использовать две, три и большее число случайных величин. Например, точка попадания снаряда определяется не одной, а двумя случайными величинами: абсциссой и ординатой. Случайное отклонение точки разрыва снаряда при дистанционной стрельбе определяется комплексом трех случайных величин - тремя координатами этой точки. При различных измерениях мы очень часто имеем дело с двумя или тремя случайными величинами. Совместцое рассмотрение двух или нескольких случайных величин приводит к системе случайных величин. Условимся систему нескольких случайных величин А, Y, ..., W обозначать (X, У, ..., W). При изучении системы случайных величин недостаточно изучить в отдельности случайные величины, составляющие систему, необходимо учитывать еще и связи или зависимости между этими величинами. Здесь возникают новые, отличные от рассмотренных ранее, задачи. При рассмотрении системы случайных величин удобно пользоваться геометрической интерпретацией системы. Так, например, систему двух случайных величин (X, У) можно рассматривать как случайную точку на плоскости хОу с координатами X и Y или как случайный вектор на плоскости со случайными составляющими X и К. Систему трех случайных величин (X, Y, Z) можно рассматривать как случайную точку в трехмерном пространстве или ■ как случайный вектор в пространстве. По аналогии, систему п случайных величин (X, Y, ..., W) можно рассматривать как случайную точку в я-мер- 103
ном пространстве или как я-мерный случайный вектор. Так как систему случайных величин можно трактовать как систему случайных векторов, то теорию систем случайных величин можно рассматривать как теорию случайных векторов. В зависимости от типа случайных величин, образующих систему, могут быть системы дискретных и непрерывных случайных величин, а также смешанные системы, в которые входят случайные величины различных типов. При изучении систем случайных величин ограничимся подробным изучением системы двух случайных величин, так как все положения, касающиеся системьГ двух случайных величин, можно легко распространить на систему трех, четырех и более случайных величин. § 3.2. ЗАКОН РАСПРЕДЕЛЕНИЯ СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН. ТАБЛИЦА РАСПРЕДЕЛЕНИЯ При изучении одной случайной величины мы познакомились с законом ее распределения и рассмотрели различные его формы. Аналогичную роль играет закон распределения системы случайных величин. Законом распределения системы случайных величин называется соотношение, устанавливающее связь между областями возможных значений системы случайных величин и вероятностями появления системы в этих областях. Так же как и для одной случайной величины, закон распределения системы случайных величин может быть задан в различных формах. Рассмотрим сначала таблицу распределения системы дискретных случайных величин. Пусть X и К—дискретные случайные величины, возможные значения которых (#,•#/), где /—1, 2, ..., п, а /=1, 2, ..., т. Тогда распределение системы таких случайных величин может быть охарактеризовано указанием вероятностей Pij = P (Х = х,-, Y = yj) того, что случайная величина X примет значение xt и одновременно с этим случайная величина У примет значение yj. 104
Вероятности pij сводятся в таблицу вида У1 У-2 Ут Xi Рп Pl2 Pirn- xs Ptl P22 Pzm ... *n Pni Ptu Pnm Такая таблица называется таблицей распределения системы двух дискретных случайных величин с конечным числом возможных значений. Все возможные события . (X = Xi, Y—yj) при /=1, 2, .... п и /=1, 2,..., т составляют полную группу несовместных событий, поэтому Hpij = HP(X=:xh Y=y-j) = \. i. J iJ При этом Hpij=*IiP(X = xh Y = yJ)=,P(X = xiy, J J 2>iy = 2/> (* = */. K=y;)=/>(y = yy). i i § 3.3. ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ СИСТЕМЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН Функцией распределения системы двух случайных величин называется функция двух аргументов F (х, у), равная вероятности совместного выполнения двух неравенств Х<^х и Y<^y, т. е. F(x, y)=*P{X<xt Y<y). (3.1) Геометрически функция распределения системы двух случайных величин представляет собой вероятность попадания случайной точки (X, Y) в левый нижний бесконечный квадрант плоскости (рис. 40) с вершиной в точке (*. У)- 1Q5
Указанная геометрическая интерпретация функции распределения системы двух случайных величин позволяет наглядно иллюстрировать следующие свойства. Свойство 1. Если один из аргументов стремится к плюс бесконечности, то функция распределения системы стремится к функции распределения одной случайной величины, соответствующей другому аргументу, т. е. lim F(x, y) = F1 (х); lim F(x, y) = F9(y). X -H-oo Символически это записывается так: F (х,-\-со) = Fi (x)\ ^( + °°, y) = Fi(y). Рас. 40 В этом свойстве функции распределения легко убедиться наглядно, отодвигая одну из границ квадранта в-|"°°; ПРИ этом в пределе квадрант превращается в полуплоскость (рис. 41 и 42). Вероятность же попадания случайной точки в такую полуплоскость есть функция распределения одной из величин, входящих в систему. Рас. 41 Рис. 42 Свойство 2. Если оба аргумента стремятся к плюс бесконечности, то функция распределения системы стремится к единице, т. е. lim F(x, y) = l, х-* +00 У-+со ИЛИ F (-f- °o»+ °°) = 1. Действительно, при *—* 4"°° и # —-f-oo квадрант с вершиной (х, у) обращается во всю координатную пло- 100
скость хОу, попадание случайной точки в которую есть достоверное событие. ; Свойство 3. При стремлении одного или обоих аргументов к минус бесконечности функция распределения стремится к нулю, т. е. lim F(x, у)= lim F (х, у)= lim F (х, */) = 0, х -* — оо у-*—со лс_>._оо у -*— оо или F(—оо, y) — F(x, —co) = F(—оо, —со)=0. Действительно, отодвигая ту или иную границу квадранта (или обе границы) в минус бесконечность, убеждаемся, что вероятность попадания случайной точки в квадрант в пределе равна нулю. Свойство 4* Функция распределения является неубывающей функцией по каждому аргументу, т. е. F (хъ y)^F(xi, у), если #2>л:г, F(x, y<i)^F(x, у^, если г/2>#1. Доказательство. Рассмотрим следующие три события: Л(Х<>, У<0), В = (л:1<Л:<л:2, У<0) и С = (ХО, У О). Очевидно, событие С представляет собой сумму двух несовместных событий А и В. т. е. C = AJrB. По теореме сложения вероятностей несовместных событий имеем: Р(С) = Р(А) + Р(В). Но Р(С)=Р(ХО, Y<:y) = F(x,, у); Р{А) = Р(Х<хх Y<y) = F(xu у); Р(В) = Р(х^Х<:х*, Y<y)t поэтому F (х,, y) = F (хи у) + Р(хг^Х<х,, Y<y). " Отсюда F(xit y) — F(xu y) = P(xl<iX<xit Y<y). 107
воспользоваться d с (a.dj . i ЖЖ (а, с} (M) v7/ (b.c) I »- Так как любая вероятность есть число неотрицательное, то F(x2, y) — F{xu у) 25* О, или / F(Xi, y)^F(xu-y). Аналогично доказывается, что F (х, yz)^F(x, yi), если у^>у\. Доказанное свойство становится наглядно ясным, если геометрической интерпретацией функции распределения как вероятности попадания в квадрант с вершиной (х, у) (рис. 40). Действительно, увеличивая х (смещая границу квадранта вправо) или увеличивая # (смещая границу вверх), мы, очевидно, 'не можем уменьшить вероятность попадания случайной точки в такой квадрант. Свойство 5-. Вероятность попадания случайной точки (X, Y) в произвольный прямоугольник со сторонами, параллельными координатным осям, вычисляется по формуле P(a^X<b, c^Y<d) = F(b, d)—F(a, d) — -F(b, c) + F(a, с). (3.2) Доказательство. Возьмем прямоугольную область с вершинами в точках (а, с), (a, d), (b, d), (b, с) (pncv 43) и рассмотрим следующие события: A = (a^X<b, c<K<d); В = (я<Х<>, K<c); С = {Х<а, c^K<d); D = (X<fl, Г<с); E = (X<b, Y<d). событие Е есть сумма несовместных собы- D, т. е. E = A-\-B + C-\-D. Рис. 43 Очевидно, тий А, В, С, По теореме сложения вероятностей несовместных собы тий имеем: откуда Р (Е) = Р (А) + Р (B)+P(Q + P (D), Р(А) = Р (Е) — Р(В) — Р(С)—Р (D). (3.3) 108
Выразим вероятность правой части равенства (3.3) через значения функции распределения: P(E)=P{X<bt Y<d) = F(b, d), ' P(By=P(a^X<b, Y<c) = F(b, c) — F(a, с), Р(С) = Р(Х<а, c^Y<d) = F(a, d) — F(a, с), P(D) = P(X<a, Y<c) = F(a, с). Подставляя полученные значения вероятностей в равенства (3.3) и приведя подобные члены, получим: P(A) = F(b, d)-F(b, c) — F(a, d)+F(a, с), что и требовалось доказать., § 3.4. ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ СИСТЕМЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН Функция распределения, рассмотренная в предыдущем параграфе, является универсальной характеристикой системы случайных величин. Она может быть применена для описания систем как дискретных, так и непрерывных случайных величин. Основное практическое значение имеют системы непрерывных случайных величин, распределение которых характеризуется не функцией распределения, а плотностью распределения. Плотность распределения является исчерпывающей характеристикой системы непрерывных случайных величин,, с помощью которой расчет вероятностей попадания в различные области производится проще, а описание распределения системы становится более наглядным. Определим плотность распределения системы двух величин аналогично тому, как мы определили плотность распределения для одной случайной величины. Пусть имеется система двух непрерывных случайных величин (X, Y). Рассмотрим вероятность попадания случайной точки (X, Y) в элементарный прямоугольник со сторонами Дд: и Ау, примыкающий к точке с координатами (х, у) (рис. 44). Применяя формулу (3.2), получим: Р(х<Х<х + Ьх, y<Y<y + by) = = F(x + bx, y^-Ay) — F(x, y^-Ay) — - F {x -j- kx, y)-)rF (x, у). 109
Разделим полученную вероятность на площадь этого прямоугольника и перейдем к пределу при Ая--*О и Дг/ — 0: Р (х < X < х + Ах, у < У < г/ + Ау) _ Да- • Ау lim Д*-0 __ F(x+ Ax,y + Ay) -F(x, y + Ay)-F (,v + А*,*/) + F(*,У). lini Ax • Ay Д\>-*0 (3.4) Предположим, что функция распределения F (х, у) не только непрерывна, но и дважды дифференцируема, тогда правая часть формулы (3.4) представляет собой вторую смешанную частную произ- i\y водную функции F {х, у). Обозначим эту производную через f(x, у): У+*У f(*. У)— дх'ду — = F'xy{x, у). (3.5) х+Лх Рис. 44 ' х Функция f (x, у) называется плотностью распределения системы непрерывных случайных величин (X, Y). Таким образом, плотность распределения системы двух случайных величин представляет собой предел отношения вероятности попадания случайной точки (X, Y) в элементарный прямоугольник (рис. 44) к площади прямоугольника, когда оба размера его стремятся к нулю; она может быть вычислена как вторая смешанная частная производная от функции распределения системы. Геометрически функцию/ (х, у) можно изобразить некоторой поверхностью (рис. 45), которую называют поверхностью распределения. Рассматривая плотность распределения f (x) для одной случайной величины X, мы ввели понятие «элемента вероятности» f (x) dx, выражающего вероятность попадания случайной величины X на элементарный участок dx. Аналогично вводится понятие «элемента вероятности» и для системы двух случайных величин. Элемент вероятности f (x, у) dx dy системы двух случайных величин дает вероятность попадания случайной точки в элементарный прямоугольник со сторонами dx и dy, примыкающий ПО
к точке (л:, у) (рис. 45). Геометрически элемент вероятности есть объем элементарного параллелепипеда, опирающегося на элементарный прямоугольник со сторонами dx и dy и с высотой f (х, у) (рис. 45). Следовательно, зная плотность распределения/^, у), можем определить вероятность попадания случайной точки (X, Y) в произвольную область D. Эта вероятность может быть получена суммированием элементов вероятности по всей области D и предельного перехода, когда наибольший прямоугольник со сторонами &x = dx и ky = dy стягивается в точку: Р((Х, Y)C.D) = = И/(*, y)dxdy. (3.6) D Геометрически вероятность попадания в область D изображается объемом цилиндрического тела, ограниченного поверхностью распределения и опирающегося на эту область (рис. 46). Используя формулу (3.6), выразим функцию распределения системы F (х, у) через плотность распределения f (х, у). Функция распределения F (х, у) есть вероятность попадания в квадрант, ограниченный абсциссами —оо, х и ординатами —со , у, поэтому р(*> у)=\ \ f(x> y)dxdy- (3-7) — ОО — 00 Рассмотрим свойства плотности распределения системы двух случайных величин. Свойство 1. Плотность распределения есть функция неотрицательная: f(x, y)^Q. J'(оо, у) О Рас. 45 Рис. 46 111
Доказательство. Плотность распределения есть предел отношения вероятности попадания случайной точки в прямоугольник со сторонами Дл: и Дг/ к площади этого прямоугольника (при Ад: —0 и Дг/—0). Обе эти величины — неотрицательны. Следовательно, и предел их отношения не может быть отрицательным, т. е. f(x, у)^0. Свойство 2. Двойной несобственный интеграл с бесконечными пределами от плотности распределения системы равен единице: 00 00 5 \ f(x,y)dxdy=l. — 00 —00 Доказательство. На основании формулы (3.7) и свойства функции распределения F(-\-oo, -|-oo) = l имеем: 00 00 F(co, со)— \ $ f{x,y)dxdy—l. — 00—00 Геометрически это свойство озна- *х чает, что объем тела, ограниченного рцс< 47 поверхностью распределения и плоскостью хОу, равен единице. Пример 1. Плотность распределения системы двух случайных величин (X, Y) задана выражением f (х, у) — j _|_ х, _|_ х^ +^. Найти а. Определить функцию распределения F (х, у) и найти вероятность попадания случайной точки в прямоугольник (рис. 47) с вершинами 0(0,0), Л(0,1),- в{VзЦ) и с(1/"з7о). Решение. Пользуясь свойством 2 плотности распределения, найдем постоянную величину а: $ S 1 + х2 -f х2у2 + у9- dx Г dy dx dy=a\ $ dx dy (l+x2)(l+y [ dx С 1 + y = a-arctg x arctg (/ = шг Следовательно, а = ~,. 112
Функцию распределения F(x,y) определяем по формуле (3.7): — 00—00 «(1 arctg *+1)(^ arctg y + l). Вероятность попадания случайной точки (X, К) в заданный прямоугольник согласно формуле (3.6) равна Р((Х, Y)(ZD) = ~ \ \ dxdy — (l+^Hl+.y1) /г dx С dy 1 , v = -я arctg x l-fx2 A i_j_y arctgу 1 Jt 71 1 -Г2' 1" T ~ "12' В заключение этого параграфа отметим, что одним из наиболее простых распределений системы двух непрерывных случайных величин является равномерное распределение. Система двух непрерывных случайных величин (X, Y) имеет равномерное распределение в области D плоскости хОу, если плотность распределения в точках области D постоянна и равна нулю в остальных точках плоскости хОу: | С внутри D. { О вне D. Это означает, что с вероятностью 1 случайная точка попадает в область D, причем все положения в области D для этой точки в некотором смысле равноправны. В силу свойства 2 плотности распределения имеем: L V где Sd — площадь области D. Основное свойство равномерного распределения состоит в том, что для него применим геометрический способ определения вероятности. Так, если область ш содержится в области D, то нетрудно показать, что P((X,Y)(Z«>) = %*. где 5Ш—площадь области со. 113
Действительно, согласно (3.6) p«x'y>c"=SS ,Мл*= § 3.5. ПЛОТНОСТИ РАСПРЕДЕЛЕНИЯ ОТДЕЛЬНЫХ ВЕЛИЧИН, ВХОДЯЩИХ В СИСТЕМУ. УСЛОВНЫЕ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ Пусть известна плотность распределения системы двух случайных величин. Рассмотрим сначала задачу нахождения плотности распределения одной величины, входящей в систему. Согласно свойству 1 § 3.2, имеем: Ft (x) = F{x,co);- F2 (У) = F (оо, у). Следовательно, используя формулу (3.7) связи между f (X, у) и F(x, у), можно представить Fi(x) и Ft (у) в виде: х оо Ft (х) = F (х, оо) = $ J f (x, у) dx dy> — оо — оо у оо ^2 (У) = F (ОО, у) = J $ f (*, t/) flfc flfy. — со —оо Отсюда, дифференцируя первое равенство по х, а второе-— по у, получим выражение для плотностей распределения отдельных величин, входящих в систему: U (х) = F\(x)= J / {x, у) dyt — 00 оо /г (у) = F'2 (у) = \ f (x, у) dx. (3-8) Таким образом, для того чтобы получить плотность распределения одной из величин, входящих в систему, нужно плотность распределения системы проинтегрировать в бесконечных пределах по аргументу, соответствующему другой случайной величине. Перейдем теперь к решению обратной задачи: по известным законам распределения отдельных величин, 114
входящих в систему, найти закон распределения системы. Как легко видеть, в общем случае эта задача неразрешима. Действительно, законы распределения отдельных случайных величин, входящих в систему, характеризуют каждую из случайных величин в отдельности, но ничего не говорят о том, как они связаны между собой. С другой стороны, искомый закон распределения системы должен содержать все сведения о случайных величинах системы, в том числе и о характере связей между ними. Таким образом, если случайные величины X, Y зависимы между собой, то закон распределения системы не может быть выражен через законы распределения отдельных случайных величин, входящих в систему. Это приводит к необходимости введения условных законов распределения. Определение. Распределение одной случайной величины, входящей в систему, найденное при условии, что другая случайная величина, входящая в систему, приняла определенное значение,- называется условным законом распределения. Условный закон распределения можно задавать как функцией распределения, так и плотностью распределения. Условная функция распределения обозначается F (х/у), условная плотность распределения f (xjy) (мы записали условные законы распределения случайной величины X при условии, что другая случайная величина Y приняла определенное значение). Так как системы непрерывных случайных величин имеют основное практическое значение, то мы ограничимся рассмотрением условных плотностей распределения. Согласно определению плотности распределения для случайной величины X при условии, что случайная величина Y приняла определенное значение, имеем: И* 10 = lim P(*<X±* + **\r=y> , (3.9) Но в силу непрерывности случайной величины Y P(Y = y) = 0, и поэтому условная вероятность Р (х<^Х <^x-\-kx\Y = у) не существует (см. теорему умножения вероятностей). Следовательно, правую часть равенства (3.9) нужно усовершенствовать, не меняя, однако, ее смысла. Это можно сделать, заменив первоначальное условие (Y = y) 115
новым (у <CY <^y-\-ky) и устремив затем А у к нулю. Таким образом, примем следующее определение условной плотности распределения f(x\y): by- Ах По теореме умножения __Р{х <Х <х + Ах,у<У<у-{-Ау) Р(у<У<:у+ ДдО Следовательно, равенства (3.10) можно переписать так: f{x\y}—iimQ ьх.Р{у<:у<:у + Ау) Ьу-*0 Разделив числитель и знаменатель на А#, получим: Р(х<Х<х + Ах,у< Y<y+Ay) f (х\ и) = lim *х'*у =1±Ы1 П ' У) !™о Р(у<У<у + Ау ~ /, (у) • Ду - 0 Д _у (3.11) Аналогично получаем: Используя оба соотношения (3.11) и (3.12), можно записать, что ' f (*, у) = U (*) f(y\x) = h (У) f(x\y). (3.13) Отсюда видно, что для определения плотности распределения системы необходимо в общем случае знание плотности распределения одной случайной величины, входящей в систему, и условной плотности распределения другой случайной величины, входящей в эту систему. Равенство (3.13) часто называют теоремой умножения законов распределения. Эта теорема в схеме случайных величин аналогична правилу умножения вероятностей для случайных событий. Применяя правила определения плотностей распределения случайных величин, входящих в систему (см. 116
формулы 3.8), формулы (3.11) и (3.12) можно переписать так: н*ш= J{x'y) ] f (х, у) dx — со /(?!«) = J("'y) - I f(x, y)dy (3.14) Условная плотность распределения обладает всеми свойствами безусловной плотности распределения. В частности, как следует из (3.14), 00 00 \ f(x\y)dx=\, I f(y\x)dy=l. — со —со Для краткого описания условных законов распределения мы можем использовать различные характеристики, подобно тому как мы имели для одномерных распределений. Наиболее важной характеристикой является условное математическое ожидание. Условным математическим ожиданием дискретной случайной величины X при Y =у (у — определенное возможное значение случайной величины Y) называется сумма произведений возможных значений X на их условные вероятности: M[X\Y = y) = 2ixiP(xi\y). / = i Для непрерывных случайных величин со M[X\Y = y]-= I xf(x\y)dx, — со где f(x\y) — условная плотность распределения случай-, ной величины X при Y = y. Аналогично, условным математическим ожиданием дискретной случайной величины Y при Х = х называется сумма произведений возможных значений Y на их условные вероятности: т M[Y\X = x]=2tyjP(yJ\x). 117
Для непрерывных случайных величин M[Y\X = x] = ] yf(y\x)dy, — со где f(y\x) — условная плотность распределения случайной величины Y при Х = х. Подобным образом вводятся условные дисперсии и условные моменты более высоких порядков. Из определения условного математического ожидания М [X | Y = у] следует, что с изменением значения у будет изменяться и M[X\Y = y]. Это значит, что мы можем рассматривать функцию тх (у) = М [X \ Y = у], областью б) лУ у = т,,(х) определения которой является множество возможных значений случайной величины Y. Эта функция носит название регрессии X по Y. Аналогично условное математическое ожидание M[Y | Х=х] является функцией х, т.е. ту (х) = М [Y \ Х = х], которая носит название регрессии Y по X. Уравнения х = тх(у) ' (3.15) и у = ту(х) (3.16) называются уравнениями регрессии соответственно X по Y и Y по X. Линии, определяемые уравнениями (3.15) и (3.16), называются линиями регрессии. Эти линии вводятся лишь для непрерывных случайных величин (для дискретных случайных величин «линии регрессии» будут состоять из изолированных точек плоскости). Примерные графики линий регрессии изображены на рис. 48. 118
§ 3.6. ЗАВИСИМЫЕ И НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ Понятие зависимости или независимости случайных величин является одним из важнейших понятий теории вероятностей. Случайная величина X называется независимой от случайной величины Y, если закон распределения величины X не зависит от того, какое значение приняла величина Y. Для непрерывных случайных величин условие независимости X от Y может быть записано в виде f(x\y)=fi(x) при любом у. Если же случайная величина X зависит от случайной величины К, то f(x\y Фи{х). Используя равенство (3.13), легко показать, что если величина X не зависит от Y, то и величина У не зависит от X, т. е. зависимость или независимость случайных величин всегда взаимны. Действительно, пусть X не зависит от Y: f(*\y) = fi(x). (3-17) Из равенства (3.13) имеем: fi(x)f(y\x) = h(y)f(x\y), откуда, принимая во внимание (3.17), получим* f(y\x)=h(y), что и требовалось доказать. Таким образом, случайные величины X uY называются независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая. В противном случае случайные величины X и Y называются зависимыми. Укажем простой признак независимости случайных величин, который сформулируем в виде следующей теоремы. Теорема. Для того чтобы непрерывные случайные величины X и Y были независимыми, необходимо и достаточно , чтобы плотность распределения системы (X, Y) 119
была равна произведению плотностей распределения отдельных величин, входящих в систему: f(*> y) = h(x)h(y). Доказательство. Необходимость. Пусть X и Y — независимые случайные величины, тогда f(x\y) = fi(x), f(y\x)=fi(y), и, следовательно, равенство' (3.13) принимает вид: fix, #) = fi М/Ш- Достаточность. Пусть f(x, y)=fi(x)f%(y). Отсюда, используя равенства (3.11) и (3.12), получаем: f*W=f-KW=f(x\y) или f*M=f-J7$=f(y№- Теорема доказана. Следствие. Если плотность распределения f(х, у) представима в виде произведения двух сомножителей, первый из которых содержит только х, а второй — только у, то случайные величины X и Y независимы. Действительно, пусть f(x,y) = *(x)?{y). (3.18) Тогда в силу свойства 2 плотности распределения системы и формул (3.8) имеем: 00 00 00 ОО 5 \ f(x, y)dxdy= \ a.(x)dx\ $(y)dy=l, — ОО —00 h(x) = *(x) Hy)dy= /(X) J \ a (x) dx — 00 J h(y) = Hy) *(x)dx-. ^ 5 $(y)dy Отсюда h(y)=- 5 a(x)dx 5 $(y)dy h(x)h(y)=- °-Щ^ = a(x)Hy)=f(x,y) и, следовательно, случайные величины X, Y независимы, 120
Заметим, что (как видно из доказательства) функции а (*), В (у) в разложении (3.18) с точностью до постоянных множителей совпадают с плотностями распределения fi(x) и U{y). Пример 1. Система случайных величин (X, Y) имеет плотность вероятности: / (*, У) ^^(l + ^+y + ^y) * Требуется определить, зависимы или независимы случайные величины X и Y. Решение. Ответ немедленно следует из возможности разложения плотности f{x?y) на множители: h (х> У) ==те2 (1 4--^s) (1 +^2) * Отсюда видно, что случайные величины X и Y независимы, причем каждая из них подчиняется так называемому закону Коши: Пример 2. Система случайных величин (X, Y) равномерно распределена внутри круга радиуса г: —s при я*-4-и9 <; re,v n ,Л4 Н*,У) = Г (3-19) ( 0 при &-\-у->г*. Найти плотности распределения случайных величин X и Y, а также их условные плотности распределения относительно друг друга. Установить, зависимы или независимы случайные величины X и Y. Решение. Подставляя выражение (3.19) в формулы (3.8), находим плотности распределения случайных величин X к Y\ аз М*)= \ f(*> y)dy = У Г2 _ Х2 J КГ2 W2 V Г 0 -X* при при j * 1 < г, \x\>r. (3.20) 121
Аналогично вычисляя, получим: Ш = [-^У^^ "Р« !*!<'■ (3.21) ! О при |г/|>г. Подставляя полученные выражения (3.20) и (3.21) соответственно в формулы (3.14), найдем условные плотности распределения случайных величин X и К: f(x\y) 1 Vr1 2 У г — у 0 при |«1>У?^?, Г f(y|*)= 21"" при |i/|^l7 г2— л-'2, 0 при (# |> V г2 — #*. Так как их условные плотности распределения не совпадают с безусловными и произведение их плотностей распределения не равно их совместной плотности распределения, то случайные величины X и Y зависимы. § 3.7. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН. КОРРЕЛЯЦИОННЫЙ МОМЕНТ. КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ Законы распределения системы случайных величин являются исчерпывающими вероятностными характеристиками ее. Однако очень часто такая исчерпывающая характеристика не может быть применена. Иногда ограниченность экспериментального материала не дает возможности построить закон распределения системы. При исследованиях, связанных с системами случайных величин, весьма большое применение нашли их числовые характеристики, которые в определенной степени могут дать представление также и о характере закона распределения. В основу получения числовых характеристик системы случайных величин положено понятие моментов. Как и для одной случайной величины,, здесь различают начальные и центральные моменты. Начальным моментом aks порядка k-\-s системы (X, Y) называется математическое ожидание произведения k-и степени X на s-ю степень Y: aks = M[XkYs]. (3.22) 122
Формулы для вычисления начальных моментов а^ записываются следующим образом: для системы дискретных случайных величин ^ = ХЕЩР,г (3-23) где Р^ = Р (X — xh Y— у]) — вероятность того, что система (X, Y) примет значения (х}, у}), а суммирование распространяется по всем возможным значениям случайных величин X, Y; для системы непрерывных случайных величин 00 00 aks= \ \ xkysf(x,y)dxdy, (3.24) — со —со где f (х, у) — плотность распределения системы. На практике наиболее употребительными являются начальные моменты первого порядка: а10 = М [XlY°] = M[X}= mx, \ a01 = M[X«Yi] = M[Y]=my, } которые являются математическими ожиданиями случайных величин X и Y, входящих в систему. Эти математические ожидания определяют координаты точки, называемой центром рассеивания системы на плоскости. Перейдем теперь к рассмотрению центральных моментов. Центральным моментом у.*5 порядка k-{-s системы (X, Y) называется математическое ожидание произведения k-й и s-й степеней соответствующих центрированных величин: ц*. = М [(X - mx)k (Y - my)s].. (3.25) Формулы для вычисления моментов u.ks записываются следующим образом: для системы, дискретных случайных величин **>=2 2 (*< - m*)k (у - туУр*г> (3-26) для системы непрерывных случайных величин со со Hs = S S (х — mx)k {у - туу f (х, у) dx dy. (3.27) — 00 — 00 123
В практике наибольшее применение имеют центральные моменты второго порядка. Два из них представляют собой уже известные нам дисперсии величин X и Y: Dx = [х20 = М [(X - mxf (Y - myf] = M[(X- m,)2], Dy = ы = М[(Х- m,)° (Y - туУ) = M[(Y- ту)% которые характеризуют рассеивание случайной точки в направлении осей Ох и Оу. Особую роль при исследовании системы двух случайных величин играет второй смешанный центральный момент [х1Ь который называется корреляционным моментом, или моментом связи. Он обычно обозначается kxy\ kxy = pu = M[(X-mx)(Y — my)]. (3.28) Момент связи kxy, определяемый как математическое ожидание произведения отклонений двух случайных величин от их математических ожиданий, помимо рассеивания величин X и Y, может характеризовать взаимное влияние этих случайных величин. Для оценки степени этого влияния обычно используют не сам момент связи kxy, а безразмерное отношение '*=.%-. (3-29) которое называют коэффициентом корреляции случайных величин X и Y. Корреляционный момент и коэффициент корреляции обладают следующим свойством. Если случайные величины X и Y независимы, то корреляционный момент и коэффициент корреляции равны нулю. Доказательство проведем для непрерывных случайных величин. Пусть X и Y — независимые случайные величины с плотностью распределения f(x,y). Тогда согласно теореме § 3.6 имеем: f(x, y)=h(x)fz(y), где /i (x), /2 (у) —плотности распределения соответственно величин X и Y. Следовательно, СО 00 k*y — \ \ (х ~~ т0 (У — ту) f (x> У)dx dy = — со — со 00 ОО = \ (х — тх) \х {х) dx\ {у — mv) /* {у) dy, 124
т. е. двойной интеграл превращается в произведение двух интегралов, каждый из которых равен нулю, так как Ъни представляют математические ожидания от центрированных случайных величин (см. § 2.5, п. 4). Итак, для независимых случайных величин X и Y kxy = Q. Из равенства нулю корреляционного момента и формулы (3.29) следует равенство нулю коэффициента корреляции. Аналогично доказывается это свойство и для дискретных случайных величин. Равенство нулю коэффициента корреляции является только необходимым, но не достаточным 'усжжием дЛЯ независимости случайных величин. Это значит, что может существовать система зависимых случайных величин, коэффициент корреляции которой равен нулю. Примером такой системы является система случайных величин (X, Y), равномерно распределенная внутри круга радиуса г с центром в начале координат. В примере 2 § 3.6 мы показали, что случайные величины X и Y системы, имеющей такое распределение, являются зависимыми. Вычислим теперь корреляционный момент. Так как для системы случайных величин (X, Y), равномерно распределенных внутри круга с центром в начале координат, тх = 0, ту = 0, то *-ху \ S xyf (х, у) dx dy. Тогда имеем: где kxy— кг2 J f(x,y)=\ «г» Yr*-x* \ ydy - //-2— *2 dx, при x*-\-y9^.r*, О при х*-\-у*У>г. Здесь внутренний интеграл равен нулю (подынтегральная функция нечетна, пределы интегрирования отличаются только знаком), следовательно, kxy = 0, или, что то же, коэффициент корреляции гху — 0. 125
Две случайные величины X и Y называются некоррелированными, если их коэффициент корреляции равен нулю; X и Y называются коррелированными, если их коэффициент корреляции отличен от нуля. Таким образом, если случайные величины X и Y независимы, то они и некоррелированы, но из некоррелированности случайных величин нельзя в общем случае сделать вывод об их независимости. Кроме корреляционного момента и коэффициента корреляции, взаимная связь двух случайных величин может быть описана с помощью линий регрессии. Действительно, хотя при каждом значении Х = х величина Y остается случайной величиной, допускающей рассеивание своих 'значений, однако зависимость Y от X сказывается часто в изменении средних размеров Y при переходе от одного значения х к другому. Эту последнюю зависимость и описывает кривая регрессии у = ту(х). Аналогично, зависимость X от Y, которая сказывается в изменении средних размеров X при переходе от одного значения у к другому, описывается "кривой регрессии х = тх{у). § 3.8. ФУНКЦИЯ И ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ СИСТЕМЫ ПРОИЗВОЛЬНОГО ЧИСЛА СЛУЧАЙНЫХ ВЕЛИЧИН На практике очень часто приходится рассматривать системы более чем двух случайных величин. Эти системы, как мы уже отмечали в начале этой главы, интерпретируются как случайные точки или случайные векторы в пространстве соответствующего числа измерений. Полной характеристикой системы произвольного числа случайных величин является закон распределения системы, который может быть выражен функцией распределения или плотностью распределения. Функция распределения системы нескольких случайных величин вводится как обобщение функции распределения системы двух случайных величин. Так функцией распределения системы п случайных величин (Хь Ха Хп) называется функция п аргументов 126
Xi, Хъ, ..., xn, равная вероятности совместного выполнения п неравенств Xi<^xt (i = l, 2, ..., п), т. е. Г (Х\, ЛГ2, . . . , Хп) = = P(Xi<jfb X2<*2) .... Х„<дгл). (3.30) Эта функция является неубывающей функцией каждой переменной при фиксированных значениях других переменных. Если хотя бы одна из переменных хи *2, ... ..... хп стремится к —оо, то функция распределения F (хи лг2 хп) стремится к нулю. Выделим из системы величин (Хь Х2, ..., Х„) частг ную систему (Хи Х2, ..., Хт), тогда функция распределения этой системы определяется по формуле Fl, я m(Xl, Х9, ... , Xm) — F (Xit Хч, ... , Хт, ОО, . .. , ОО). В частности, функция распределения каждой из величин,, входящих в систему, получится, если в функции распределения системы положить все остальные аргументы равными -j-oo: F1(xi) = F(xi, оо, ... , оо). Если все переменные хи *2, •••, хп стремятся к -f-oo, то F (xi, x%, ..., хп) стремится к единице: F(oo оо) = 1. (3.31) Зная функцию распределения F (хи л:2, ..., хп), можно получить формулу, аналогичную формуле (3.2), для определения вероятности попадания случайной точки (Xi, Х2, ..., Хп) в прямоугольные области. Однако получающаяся при этом формула весьма громоздка. Функция распределения является достаточно общей характеристикой системы случайных величин. Любая система случайных величин имеет функцию распределения. Для описания закона распределения системы непрерывных случайных величин обычно используют плотность распределения системы. Плотность распределения f (хи лг2, .... хп) системы п случайных величин (Хь Хъ ..., Хп) определяется* как предел отношения вероятности появления системы (Хи Хь ...»Х„) в малой окрестности точки (х\, #2, 127
..., хп) к размеру этой окрестности при неограниченном ее уменьшении, т. е. / (*ь #2, •.., хп) = __ j-m Р (xi <Xt< Xj + А.У1,..., хп < Хп < хп -\- Ахп) ,£32) Для-"О Д*„-»-0 Плотность распределения системы не может быть отрицательной: f(xu х% xn)^Q. Вероятность попадания случайной точки с координатами (Хи Х^ Хп) в «-мерную область D выражается интегралом Р((Хи Х2 Xn)CD) = = JJ... Jf (*!, х^ xn)dxxdxi ... dxn. (3.33) D Применяя формулу (3.33) к области Xi<^Xi (t = l, ... ..., n), получим выражение функции распределения системы через плотность ее распределения: F (Х\, Хч, . .. , Хп) = Xi *2 ХП — S S •■• S ft*1» *2 xn)dxxdxi ... dxn. (3.34) — СО —00 — С» Дифференцируя эту формулу по каждой из переменных, получим выражение плотности вероятности системы (Хи Хъ, ..., Хп) через функцию распределения этой системы: f (у V Y \ ^U "*"2' '" ' Х?" l\XU Xi, ..., Xn)— dXldx2 ... dXn Полагая в (3.34) х1 — х% = ... = хп = со и принимая во внимание (3.31), получим: 00 ОЭ 5 ... J f (xi, х2, ..., xn)dxidxi ... dxn==l. (3.36) — 00 —00 Плотность распределения частной системы (Хи Xi, ... ..., Хт), выделенной из системы (Хи Xi, ..., Хп), равна /1,2 т(Х\, Xi Хп) = 00 00 = J- ... 5 f(xu x^ ..., xn)dxm+1 ... dxn. — OO — CO 128
В частности, плотность распределения каждой из величин, входящих в систему, получится, если плотность распределения системы проинтегрировать в бесконечных пределах по всем остальным аргументам: 00 00 fi(x)= 5 ... \ f(xlt xit ..., xn)dx* ... dxn. — со — оо Для того чтобы исчерпывающим образом охарактеризовать систему, нужно еще знать зависимость между величинами, входящими в систему. Эта зависимость может быть охарактеризована с помощью условных законов распределения. Условным законом распределения частной системы (Ль Хч, ..., Хт) называется ее закон распределения, вычисленный при условии, что остальные величины Лт+1 Хп приняли значения xm+i хп. Условная плотность распределения определяется по формуле: f (y Y V ] V Y \ 'f\XU X2> ••• ) Хп) I \лц л2> • • • > лт 1 л/я+1» • • • > лп) — ~? JZ. ГГТ" • fm+i, ... , п \лт+1, ... , лп) Случайные величины Хи Л2, ..., Хп называются независимыми, если закон распределения любой частной системы, выделенной из системы (Ль Л2) ..., Л„), не зависит от того, какие значения приняли остальные случайные величины. Для системы (Ль Л2, ..., Хп) независимых случайных величин плотность распределения равна произведению плотностей распределения отдельных величин, входящих в систему: f(xlt xit ..., *«) = fi(*i)M*a) ••• fn(xn)- § 3.9. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ ПРОИЗВОЛЬНОГО ЧИСЛА СЛУЧАЙНЫХ ВЕЛИЧИН Основными числовыми характеристиками, с помощью которых может быть охарактеризована система п случайных величин (Ль Ла, ..., Хп), являются следующие. 1. Математические ожидания случайных величин, входящих в систему тХ1, тХ2, ..., тХп, б Гурский 129
которые в совокупности определяют центр рассеиваний системы или математическое ожидание я-мерного случайного вектора. 2. Дисперсии DXl, DXil .... DXn, характеризующие рассеивание случайной точки в направлении осей. 3. Корреляционные моменты каждой пары из п случайных величин kXixf = М [(Xt — тх) {Xj — mXf)] {i ^ /), характеризующие попарно корреляцию всех случайных величин, входящих в систему. Зная корреляционные моменты, можно найти коэффициенты корреляции которые характеризуют степень связи между каждой парой случайных величин. Так как дисперсия каждой из случайных величин системы {Х\, Х2, ..., Хп) есть не что иное, как частный случай корреляционного момента, а именно корреляционный момент величины X,- и той же самой величины Xi Dx = kx.x.y то все корреляционные моменты и дисперсии располагают в виде прямоугольной таблицы которая называется корреляционной матрицей системы п случайных величин. Из определения корреляционного момента следует, что kx х =kx х.. Это значит, что элементы корреляционной матрицы, расположенные симметрично по отношению к главной диагонали, равны. В связи с этим часто для 130
простоты в корреляционной матрице заполняется только ее половина: В случае, когда случайные величины Хь Xz, ..., Xj некоррелированы, все корреляционные моменты kx.x.=0 (при i^a /). Следовательно, корреляционная матрица системы некоррелированных случайных величин имеет вид: '< 0 ... 0\ oL ... О Такая матрица называется диагональной матрицей. Вместо корреляционной матрицы часто пользуются нормированной корреляционной матрицей. Нормированной корреляционной матрицей назьшается такая матрица, элементами которой являются коэффициенты корреляции. Все элементы главной диагонали, нормированной корреляционной матрицы равны единице. Нормированная корреляционная матрица имеет вид ■1 'X X • • • ' X X 18 1 Я 1 ... Г, 1 В заключение этого параграфа введем понятие о некоррелированных случайных векторах. Рассмотрим два случайных вектора в n-мерном пространстве. Ух{Хи Xtt .... Хп) и V*{Yu Yit ..., Yn). Случайные векторы Уг и Vi называются некоррелированными, если каждая из составляющих X* вектора Vv б* 13)
некоррелирована с каждой из составляющих Y;- вектора Vi, т. е. если корреляционные моменты kx.y.=0 при i = l, 2, ..., л;/=1, 2, ..., п. § 3.10. НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ НА ПЛОСКОСТИ Из всех законов распределения системы двух случайных величин наибольшее распространение на практике имеет нормальное распределение. Рассмотрим вначале нормальное распределение для системы двух независимых случайных величин. Пусть X и Y — нормально распределенные и независимые случайные величины, а отвечающие им плотности распределения имеют вид (*-тх? . схУ2тг (у-туу суУ2п Следовательно, плотность распределения системы (X, Y) на основании теоремы умножения плотностей распределения для случая независимых величин получим в виде fix, y) = U(x)f9(y) = 2* г з— (3.37) Если центр рассеивания системы совпадает с началом координат, то тх = ту = 0, и следовательно, f<*.*>=vr*e П4 '*'• <3-38) Выражение (3.38) называется канонической формой нормального распределения на плоскости. Для выяснения вида поверхности распределения (3.38) будем применять метод сечений. Пересекая поверхность распределения плоскостями, параллельными координатной плоскости хОу, и проектируя сечения на эту координатную плоскость, мы полу- 132
чим семейство подобных и одинаково расположенных эллипсов с общим центром в начале координат. Для того чтобы убедиться в этом, напишем уравнение линии пересечения поверхности распределения (3.38) плоскостью z = Zo = const. Очевидно, что постоянному значению г0 функции z = f(x, У) = О 1 о Т о Jx"y 2к отвечает постоянное значение показателя степени, т. е. х* -^у~ = № (k = const). 3* СГу (3.39) Уравнение (3.39) является уравнением проекции на координатную плоскость хОу линии пересечения4 поверхности распределения (3.38) плоскостью z — z0. Преобразовав уравнение (3.39) к виду nf/ЗД {Qxkf к*)2 1, (3.40) мы видим, что оно является уравнением эллипса, главные полуоси которого пропорциональны Ох И рис 4д оу и совпадают соответственно с осями Ох и Оу, а центр находится в начале координат. Так как k может меняться от нуля до бесконечности, то мы имеем семейство подобных и одинаково расположенных эллипсов. Каждый эллипс из этого семейства является геометрическим местом точек, где плотность распределения / (х,у) равна постоянной величине. Поэтому они называются эллипсами равной плотности, короче, эллипсами рассеивания. Общие оси симметрии всех эллипсов рассеивания называются главными осями рассеивания. При ох = ау эллипсы (3.40) превращаются в окружности и распределение (3.38) называется круговым. 133
Пересекая поверхность распределения (3.38) плоскостями, параллельными координатной плоскости уОг или хОг, мы будем получать кривые, подобные кривым нормального распределения. uf(x*4) Рис. 50 Таким образом, поверхность распределения (3.38) имеет вид холма, вершина которого находится на оси О? (рис. 49). Поверхность распределения (3.37) отличается от поверхности распределения (3.38) только тем, что центр эллипсов рассеивания имеет координаты (тх, Шу), а главные оси рассеивания параллельны соответственно осям координат, т. е. поверхность распределения (3.37) получается параллельным переносом поверхности распределения (3.38) (рис. 50). Подсчитаем для распределения (3.37) вероятность попадания в прямоугольник со сторонами, параллельными осям координат. Прямоугольник ограничен абсциссами а и b и ординатами end (рис. 51). Применяя общую формулу для расчета вероятности попадания случайной точки в произвольную область к J й с 0 >У t Ш Шш № ТУ/Л ■ ■ г 1 ) X Рис. 51 Ш
рассматриваемому случаю, запишем исходное выражение для искомой вероятности в виде Р(а<Х<:Ь, c<Y<d) = \dx\f(x, y)dy = ас Ь d Ь (х~тх? = \h(x)dx^h(y)dy=^—L=e 2°* dxX а (у-шу)* У2к dy. Отсюда, применяя формулу (2.40) для вероятности попадания случайной величины на интервал, находим: P{a<X<b, c<Y<d) = Ф шх\ — Ф ■-\ Ф ту Ф mv\ V2/ «*/2 У "le*^2/JL I *yV2 Если стороны прямоугольника не параллельны осям координат (главным осям рассеивания), эта формула для вероятности попадания в прямоугольник не применима. Двумерное нормальное распределение (3.37) допускает непосредственное обобщение на систему п случайных величин (Хь X2, ..., Хп). А именно, если случайные величины Хи X2, ..., Хп имеют нормальные распределения и независимы между собой, то система случайных величин (Хи Хъ Хп) имеет /г-мерное нормальное распределение хс плотностью вероятности / {х\, *2> • • •. *п)== '{xi-mxlf (x2~mx,)2 (хп-т*пУ~ J*i)2 (J — +- г^)2 (хп-т> —+... + -—— J*i J*2 'xfxi — 'xni2*) (3.41) Рассмотрим теперь нормальное распределение на плоскости для зависимых случайных величин. . Плотность нормального распределения для системы двух зависимых случайных величин X и Y выражается формулой f(xf у)=- ^===Х -(х-тху Хе 2(1 — 2г 2™x°yVl ( ху тх){У-ту) xyt ху (у-туу (3.42) 135
Этот закон зависит от пяти параметров тх, ту, вх, оу и гху. Для выяснения смысла этих параметров определим частные распределения случайных величин системы. Согласно формулам (3.8) имеем: * Ы*)= \ fix* y)dy = - * -е 4*-'h)°a*x J 2тса».а„ 1/ 1 — Г* 2lta*ay У~\ — Г ху 1 ПУ-туУ {х-тх)(у-ту) — оо Положим: 20->^)L — Чг ху dy. х — тх у — ту °xV2 ~U' °vV2 ~V' •у тогда М*) = 1/9 1lf==g ,_4v \ е'~г%у dv. 7i 1/2 о„1/ 1 — г* J _р " 'xv \ р' ' ху *У2сху\-гху Дополним выражение в скобках до полного квадрата и* rvvu ■+ з а ху' со ^-(*-r e)i X S е 1_г*> eft» — со Сделаем- подстановку: тогда / = ^ Ai ^ (v — г^и), те I/2 а*. #) — со Но J £-'2d/ = |Ar (интеграл Пуассона). Поэтому, учитывая, что и = -—^, имеем: ахУ2 (х-тх)* ал]/2те 136
Таким образом, случайная величина X распределена нормально с математическим ожиданием тх и дисперсией о%. Аналогично, определяя плотность распределения случайной величины Y, получим (У-ту)а оуУ2п т. е. случайная величина Y распределена нормально с математическим ожиданием ту и дисперсией а\. Покажем теперь, что параметр гху есть коэффициент корреляции случайных величин X и Y. Для этого вычислим корреляционный момент kxy: со kxy= \\ (x — mx)(y — my)f(x, y)dxdy = — 00 со ^Ъ 1/1—7г-\\ (х — тх)(У-Пу)Х 2паха у \ — Г* J J — со (х~тх? 9г (*-тх)(У-ту) , (У-туУЛ 5 »ху. — + Л J Хе 2(1-г*>) у J dx dy. Произведем в двойном интеграле замену переменных, положив х — тх # 1 (у — ту х — т ■ = «; =. -— rxv ±\ = w. Якобиан преобразования равен 2охоу У\~- гху. Поэтому со kxy = ±\\mxV2bVni-r\y)lw + -^^X — Ou ' ХУ со со 2a,.avl/l — r*v С С X е~и- w- du dw = —-^-~ — V шгиа du \ we~w- dw -f — со —со со со 137
Но . \ ие~и* du = J we~wS dw — 0, как интегралы от нечет- — 00 —00 ной функции в симметричных пределах, а также 0° -«2 du = V* е~™* dw = У к Следовательно, ъху == Гху°хау\ Г *-v ' ^ху QxPy Таким образом, параметр гху в формуле (3.42) есть коэффициент корреляции случайных величин X, Y Рассмотрим уравнение (х - тх) (у - ту) , (у-туУ _ ^ (х - тхУ 2г ху (3.43) •"х^у у Анализируя уравнение (3.43) обычными методами аналитической геометрии, убеждаемся в том, что оно представляет эллипс, центр которого находится в точке с координатами (тх, ту), а оси симметрии такого эллипса составляют с осью Ох углы, определяемые уравнением 2гхуах°у 1 ту 0 М —{-(-( \а s^^\s// 1 1 1 тх X tg2a = (3.44) Рис. 52 Уравнение (3.44) дает два значения углов ^ и а2, различающихся на величину у. Придавая k различные значения, мы получим семейства подобных и одинаково расположенных эллипсов (эллипсов рассеивания), оси симметрии которых (главные оси рассеивания) не параллельны координатным осям (рис. 52). Из уравнения (3.44) следует, что ориентация эллипсов рассеивания относительно координатных осей находится в прямой зависимости от коэффициента корреляции гху системы (X, Y). Если величины X и Y некоррелированы (гху = 0), то главные оси рассеивания параллельны координатным осям. Плотность распределения для некорре- 138
лированных случайных величин получается из уравнения (3.42) при гху = 0: f (*. У) 1 'I {х-тх)* {у-ту) ! "Т" о (3.45) Но выше было показано, что выражение (3.45) представляет плотность распределения'системы независимых случайных величин. Таким образом, мы получили важный вывод: если нормально распределенные случайные величины некоррелированы, то они и независимы. Из приведенных рассуждений следует, что от нормально распределенной системы зависимых случайных величин можно перейти к нормально распределенной системе независимых случайных величин путем поворота системы координат хОу на угол а, определяемый уравнением (3.44). В заключение этого параграфа рассмотрим условные законы нормального распределения, для определения которых применим формулы (3.14). Будем иметь: _ f(x,y) 1 fiy\x) jj / (х, у) dy V2*'vVl-r% X ху Xe 20-rly) (x-mx)* 2rxy(x-mx)(y-my) (v- + (*-"*)■ f(x\y) = fix, У) \ f(x, y)dx v xV xy X Xe 2('-4v) (х~тх)2_ *rxy(*-nx)(y-my) ' (v-mvy 2 "Г а + (У-гПу) 2oi Преобразуя показатель степени при е, получим: f(y\x) /2*av^l-r» X ху Хе Хе 1 Г °v V f(x\y) У2поху\-г1 X ху ^4( b^)h^~K^-mv)J 139
Анализируя полученные выражения, мы видим, что они представляют собой плотности нормального закона с центрами рассеивания соответственно M[Y\X = x] M[X\Y = y] и средними квадратическими отклонениями ау \ х = ау V 1 — Гху, ах\у = ахУ 1 —гху Формулы (3.46) показывают, что линии регрессии Y по X и X по Y в случае нормального распределения являются прямыми линиями у = ту + гху ~(х — тх), ®х x = mx + rxy°f {y — my), ау которые проходят через точку (тх, mv), т. е. через центр распределения системы (X, Y). Угловые коэффициенты прямых регрессии гху — и гху— называются соответственно коэффициентами линейной регрессии Y по X и X по Y. Вопросы для самопроверка 1. Что называется системой случайных величин? 2, Как можно трактовать систему случайных величин? , 3. Дайте определение функции распределения системы двух случайных величин и укажите се свойства. 4. Дайте определение плотности распределения вероятностей системы двух случайных величин. Перечислите и докажите ее свойства. 5. Как определить вероятность попадания в данную область? 6. Что называется условным законом распределения? 7. Как выражается плотность распределения кажд\эй из величин, входящих в систему, через плотность распределения системы? 8. Какие случайные величины называются зависимыми? независимыми? 9. Что является необходимым и достаточным условием независимости случайных величин? 10. Что называется корреляционным моментом? коэффициентом корреляции? т ау у (х) = /га, + гху ^-(х — тх) = тх {у) = тх + rxy f (у — ту) (3.46) 140
il. Чему равен коэффициент корреляции для независимых случайных величин? 12. Какие случайные величины называются некоррелированными? 13. Следует ли из некоррелированности случайных величин их независимость и наоборот? 14. Что называют функцией распределения системы п случайных величин? 15. Как определяется плотность распределения системы п случайных величин? 16. Как определяется плотность распределения частной системы т случайных величин, входящей в систему п случайных величин (т < я)? 17. Чему равна плотность распределения системы п независимых случайных величин? 18. С помощью каких числовых характеристик может быть охарактеризована система п случайных величин? 19. Что называется корреляционной матрицей системы п случайных величин? 20. Какая матрица называется нормированной корреляционной матрицей? 21. Как записывается формула для плотности распределения нормально распределенной системы двух независимых случайных величин? зависимых случайных величин? 22. Какие эллипсы называются эллипсами равной плотности или эллипсами рассеивания? 23. Равносильны ли понятия некоррелированности и независимости случайных величин для нормально распределенной системы? Упражнения 1. По некоторой цели производится два выстрела. Вероятность попадания при одном выстреле равна р. Рассматриваются две случайные величины: X — число -попаданий в цель, К— число промахов. Составить таблицу распределения и определить числовые характеристики системы. тх = 2р, my = 2q, •sj \ i 0 0 0 ра Отв. .. DX = DV = 2pq, kxy = - 2РЯ- 2. Независимые случайные величины X и У подчиняются законам равномерной плотности распределения соответственно в интер- 0 1 2 0 0 0 <?2 1 0 2pq 0 2 Р* 0 0 141
валах (0, 2) и (—2, 1). Написать выражения для плотности распределения системы (X, У). ( 1 6 Отв. f (х, у) — О при х < О или х > 2; у< — 2 или >»> 1. 3. Система случайных величин (X, У) имеет плотность распределения (X - 2)* где = ае 8 cos .у при 0 при g(y), \У\*$. \У\>Т- g(y) Найти а. Написать выражения для плотностей распределения случайных величин X и У. Определить математические ожидания и дисперсии величин X и Y. 1 1 -£=*!! Отв. а = ——, Л (х) = ——- е 8 , 4/271' 2/2* е (v) я2 f2(y)=^f, mx = 2, mv = 0, Dx = 4, Dy = ^-2. 4. Плотность вероятности системы случайных величин (X, У) задана выражением /(х,у) = ае-(х + 1)а-)У'. Найти а. Написать выражения для плотностей распределения случайных величин X и У. Определить числовые характеристики системы 2 }Лг ' Уп Отв. j f2(y) = Y е~'У1' тх = -~ I, ту = 0, Г) —— Л —9 Ъ — О 5. Плотность вероятности системы случайных величин (X, У) задана выражением /(л-, y) = acos(x— у) при Osg^sSy, 0==Sjy«g — Требуется: а) определить величину а; б) найти функцию распределения F(x, у); в) определить числовые характеристики системы. Отв. 1 а) а = у; 142
' 0 при х < 0 и у < О; ■к |COS {X -f 3») — COS X — COS у -f- 11 6) FU, j/) = < при 0. 7C Osgj/r в) /»д I 1 при *>-=- или у> т. Я2 , л OTV = -т-, Д* — Dy — ys -f- у — 2; ^""16 2+ ' r*v"~ JT» + 8« —32* 6. Система двух случайных величин (X, К) подчинена закону распределения с плотностью вероятности f(x,.y)=s 1 + (лг2+У)2' Определить коэффициент а и найти радиус круга с центром в начале координат, вероятность попадания в который равна р. Отв. я = -2, r= j/tgH^, 7. Система трех случайных величин (X, У, Z) подчинена закону равномерной плотности распределения внутри цилиндра, ось которого совпадает с осью Oz и точкой О делится пополам. Радиус цилиндра равен г, а высота равна 2Л. Написать выражение для плотностей распределения системы и отдельных случайных величин, входящих в систему. Установить, являются ли случайные величины А', У и Z зависимыми. 1 при х2 -\~у2 г* и Л; Отв. f (x, у, z) = l 2кг2П [ 0 при xs + f > г2 и | z \ > h , < ч \~aVr2-x2 Л (х) = Ыг*' при при f,(y)J~.Vr'-fnv,\y х \ =^г; *|>г, 0 при | у | > г, 1 при Л; I 0 при | г | >Л, X, У и Z — зависимы. 8. Плотность распределения системы двух случайных величин {X, Y) задана выражением /(*, у) = ае (x + *)i (у-О» 8 3 143
Найти коэффициент а. Установить, являются ли случайные величины X и У зависимыми. Определить вероятность совместного выполнения двух неравенств X< — 3; К<4. Отв.а==-Щ^> гдев*==2'в>г51' X и Г—независимы, Р(Х< — 3, Г< 4) да0,5. 9. Производится единичное бомбометание по прямоугольной наземной цели. Ширина цели равна 20 м, а длина— 100 м. Прицеливание по центру цели. Оси рассеивания совпадают с направлением полета и с перпендикуляром к этому направлению. Вероятное отклонение в направлении полета равно 60 м, в направлении, перпендикулярном полету—40 м. Систематические ошибки отсутствуют. Найти вероятность попадания в цель при сбрасывании одной бомбы. Отв. р^ 0,058. 10. Система двух случайных величин (X, У) подчиняется нормальному закону. Рассеивание круговое. Найти вероятность попадания случайной точки (X, У) в круг, центр которого совпадает с центром рассеивания, а радиус равен двум вероятным отклонениям. - Отв. р = 0,598.
Глава 4 ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН § 4.1. ЗАКОН РАСПРЕДЕЛЕНИЯ ФУНКЦИИ ОДНОЙ СЛУЧАЙНОЙ ВЕЛИЧИНЫ При решении задач, связанных с оценкой точности работы различных автоматических систем, точности производства отдельных элементов систем и др., часто приходится рассматривать функции одной или нескольких случайных величин. Такие функции тоже являются случайными величинами. Поэтому при решении таких задач необходимо знать законы распределения фигурирующих в задаче случайных величин. При этом обычно закон распределения системы случайных аргументов известен и известна функциональная зависимость. Таким образом, возникает задача, которую можно сформулировать следующим образом. Дана система случайных величин (Хи А"2, ..., Хп), закон распределения которой известен. Рассматривается некоторая случайная величина Y как функция случайных величин Xi, Хг, ...,Хп У = ?(Хи Xit :.., Х„). (4.1) Требуется определить закон распределения случайной величины Y, зная вид функции (4.1) и закон совместного распределения ее аргументов. Начнем с рассмотрения наиболее простой задачи, относящейся к этому классу: задачи о законе распределения функции одного случайного аргумента у=?т- (4-2) В дискретном случае решение этой задачи очень просто. Действительно, пусть X—дискретная случайная величина, имеющая ряд распределения: X р Х\ Pi Xi Pi хп Pn 145
Тогда У = ср(Х)— также дискретная случайная величина с возможными значениями //i = ?(*i)> Уъ = у {хъ), ■•• ..., уп= <р{хп). Если все значения уи у* уп различны, то для каждого k=\, 2, ..., п события \X = xk) и {Y =yk = <? (хк)} тождественны. Следовательно, P{Y = yk) = P(X = xk) = pk и искомый ряд распределения имеет вид: Y Р Ух = ? {хх) Pi У* = ? (лга) Р2 0л = ? (Х„) Рп Если же среди чисел yl = <?(xi), z/2 = cp(x2), .... //„ = = ср(хя) есть одинаковые, то каждой группе одинаковых значений yk = y(xk) нужно отвести в таблице один столбец и соответствующие вероятности рк сложить. Для непрерывных случайных величин задача ставится так: зная плотность распределения / (х) случайной величины X, найти плотность распределения g (у) случайной величины У = ср(Х). При решении поставленной задачи рассмотрим два случая. 1. Случай монотонной функции. Предположим сначала, что функция у = у(х) является монотонно возрастающей, непрерывной и дифференцируемой на интервале (а, Ь), на котором лежат все возможные значения величины X (в частном случае, когда область возможных значений X ничем не ограничена, а — — со, Ь — ~\-оо). Тогда обратная функция x = ty(y) существует, при этом является также монотонно возрастающей, непрерывной и дифференцируемой функцией. Зададим на оси Оу интервал (у, у-\-ку) и отобразим его с помощью функции х = ^(у) на ось Ох; получим интервал (х, лг-рДх) (рис. 53). События (у <i Y <^у -f- Д#) и (х <^ X <[ х -f- Ax) тождественны. Поэтому"Р (y<CY<^y-\-by) = Р (х<[ X<х-\-lix) и, следовательно, согласно формуле (2.8),. имеем: g(y)= lim Р(у< Y<y + ty) = lim Ay — о Ддс-+о Ay Р(Х<Х Ах lim Ay-* О ,у -{- &х) Да- Ау- Р(х<Х<х + Ах) Ау ■f{x)-x •У т
Если функция у = ср (х) является монотонно убывающей, то приращению Д//>0 соответствует приращение Дх<^0 (рис. 54). Следовательно, ьу - о у ,. ГР (а: < X < х -f Д*) | кх } , . ч , ,. (Лх-»0) Объединяя оба случая и учитывая, что х = 'Ь(у), получаем: если у = ср(лг) — монотонная дифференцируемая функция, то g(y)=fty(y)]\V(y)\- (4-3) Пример 1. Случайная величина X распределена нормально {тх = 0, 0^ = 1): Найти закон распределения случайной величины Y, связанной с величиной X зависимостью Y = X\ Решение. Так как функция y~xz монотонна на участке (—со, -j-00)» то можно применить формулу +Д</ У 0 1 1 i l , х+Дх х х X Х+ДХ Рас. 53 Рас. 54 лу (4.3). Обратная функция по отношению к функции ср (лг) = л:3 есть ф(//) = |Л/, ее производная <]/(#) =■ Следовательно, yjs уф g(y) = -^e 2 ___==___£ з$/у" |/"2л 3 у у2 3 у2п у? 147
Докажем теперь одно важное свойство линейного преобразования случайной величины. Теорема. Линейное преобразование случайной величины не изменяет вида закона распределения. Доказательство. Пусть случайная величина Y связана со случайной величиной X линейной функциональной зависимостью Y = aX + b, где а и Ь — не случайные коэффициенты. Поскольку выражение у = ах-\- Ь определяет монотонную функцию, то обратная функция *=♦<*)=*^ также монотонна. Далее, имеем +'<</) =4- Используя общую формулу (4.3), получаем: ito-t^Yr*- (4-4) Полученное выражение (4.4) показывает, что линейное преобразование случайной величины X равносильно изменению масштаба изображения кривой распределения f (x) и переносу начала координат в новую точку. Вид кривой f (x) при таком преобразовании не изменяется. Это значит, что линейное преобразование случайной величины не изменяет вида закона ее распределения. Пример 2. Случайная величина X подчинена нормальному закону с плотностью (*-отл-)8 f(x)=-±re < . ахУ2п Требуется найти распределение случайной величины Y, связанной со случайной величиной X линейной функциональной зависимостью У=аХ-\-Ь. Решение. Используя формулу (4.4), получим: 148
[у-(Ь + атх)у или после преобразования: I а | ах У 2я Таким образом, случайная величина К имеет нормальное распределение с параметрами ту = атх -\- Ь, оу = \а\ох 2. Случай немонотонной функции. Имеется непрерывная случайная величина X с плотностью распределения У+йу JCp 3Cfj+uX/j ^ Рис. 55 f(x); другая случайная величина Y связана с X функциональной зависимостью: Y = ?(X), причем функция г/ = <р(лг) такова, что обратная функция х=-<?(у) неоднозначная, т. е. одному значению величин у соответствует несколько значений аргумента х-, которые мы обозначим через_х\ = $\ (у), х* = $ъ(у), ...; xn = tyn(y), где п — число участков, на которых функция у = у(х) изменяется монотонно (рис. 55). Очевидно, что событие y<^Y <^у-\-&у происходит при наступлении хотя бы одного из нескольких несовместных событий Xi<^X<^Xi-\- Д#1'| х*<^X<^Хъ-\- Дх2, ... ..., хп Применяя теорему сложения вероятностей несовместных событий, получаем, что РЬ<У<у+Ьу)=21Р{хк<Х<хк + Ьхк). 149
Следовательно, 2 P(xk<X<xk + bxk) Дд'-»0 -^ AjV-*0 Д^ Применяя теорему о пределе суммы и произведя преобразования под знаком суммы, получим: Ь* Д_у-0 L Ах* >2/(^)1^|=2/[ф*(у)ЛФ^)|. А=1 А=1 (4.5) Хг-Гу Пример 3. Случайная величина X имеет нормальное распределение с параметрами тх = 0 и ах=\. Найти распределение случайной величины Y = X\ Решение. Обратная функция x = ty(y) неоднозначна. Одному зна- ^ чению аргумента у соответствует два х, = +^~ц значения функции х (рис. 56): *1 = <!»1 (#) = + Vy, Xi~^(y) = ~Vy- Так как плотность распределения случайной величины имеет вид то, применяя формулу (4.5), получим: g (y)=fib (у)] I <tf (у) I + f l'h (у)) I«(у) I = (-/Л2 , , (уТ) е 2 Рис. 56 Уъ. 2Уу ~^У2к 2Уу 1 - У'2к Итак, 2Уу '(У) = 1 У2п 1_ УЪу 1 -т 1 — е 2 1 2 У у У2ку е > (*/>0). 150
§ 4.2. РАСПРЕДЕЛЕНИЕ ФУНКЦИОНАЛЬНОГО ПРЕОБРАЗОВАНИЯ СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН Пусть система двух случайных величин {U, V) является результатом функционального преобразования системы случайных величин (X, Y), заданного функциями U = U(X, Y), V = V(X (4.6) Будем считать, что известно также обратное преобразование X = X(U, V), \ Y = Y(U, V). J (4J) Рассмотрим только тот случай, когда преобразования (4.6) и (4.7) являются взаимно однозначными. Кроме h , йб Q(X,Y) а: Рис. 57 того, предположим, что все рассматриваемые функции (4.6) и (4.7) непрерывны и дифференцируемы. Примерами таких функциональных преобразований систем случайных величин являются преобразования прямоугольных координат в полярные и обратно или прямоугольных координат в прямоугольные. Задача состоит в нахождении плотности распределения g (и, v) системы случайных величин (О, V), если известна плотность распределения f (х, у) системы (X, Y). В силу сделанных предположений относительно преобразований (4.6) и (4.7) каждой точке Q{X, Y) элементарной области Аа плоскости хОу отвечает одна вполне определенная точка Qt (U, V) соответствующей элементарной области Aoj плоскости uOv (рис. 57). 151
Следовательно, события {(X, Y) С д<3} и {(U, V) С ^а\] тождественны и их вероятности равны, т. е. Р{(Х,У)САа) = Р{((/, К)СЧ Используя определение плотности распределения для системы двух случайных величин, имеем: g(U,V)= lim ЕЖЛ^а*- lim Д°1-<2, (Да - Q) (Р{(а; У) С Да} Да, Да _Да Да '-Н<* У) lim До,—О Да Дах где Но, х=х(и, v), у—у {и, v). как известно из математического анализа, lim -— = д(х, у) д(и, v) = \J (4.8) (4.3) где У — якобиан преобразования (4.7) в точке Qi- Таким образом, имеем: g (и, v) = f[x(u, v); у (и, v))-\J\. Полученный результат соответствует формуле для одной случайной величины и может быть распространен на случай функционального преобразования системы п случайных величин. Если система (4.6) неоднозначно разрешима относительно X, Y, то подобно формуле (4.5), число слагаемых в формуле (4.8) увеличивается. На практике наиболее частым преобразованием случайных величин является линейное преобразование, сводящееся к преобразованию прямоугольных координат в прямоугольные. Рассмотрим преобразование прямоугольных координат, заключающееся в повороте осей координат на угол а (рис. 58). В таком случае прямое и обратное преобразования задаются формулами: U = X cos a -j- Y sin а, V = — X sin а-j- Y COS а, X — U COS а — V sin а, Y = U s'ma-\- V cos а. Рис. 152
Якобиан преобразований прямоугольных координат равен единице: / = дх дх ди dv ду_ ду^ ди dv COS a— sin а sin а COS а Следовательно, g(u, v) = f (и cos a — v sin а, и sin а -j- v cos а), a это значит, что при преобразовании прямоугольных координат в прямоугольные плотность распределения в точке (и, v) равна плотности распределения в соответствующей точке (х, у). § 4.3. ЗАКОН РАСПРЕДЕЛЕНИЯ ФУНКЦИИ НЕСКОЛЬКИХ СЛУЧАЙНЫХ ВЕЛИЧИН Ч Пусть случайная величина Y является функцией нескольких случайных величин, образующих систему (Хь Х2 Хп), т. е. Y = v(Xlt X2 Хя). Наша задача состоит в том, чтобы по известному распределению системы (Х\,,Хъ, ..., Хп) найти распределение случайной величины Y. Рассмотрим решение этой задачи для наиболее простого случая функции двух переменных: К = ср(Хь- Х2). Пусть f (xu Xt) — плотность распределения системы случайных величин (Хи Хч). Введем в рассмотрение новую величину Ylt равную Xi, и рассмотрим систему уравнений Ух = хх. } Будем полагать, что эта система однозначно разрешима относительно хи х$ (4.10) *2 = <]>(*/, Ух) и удовлетворяет условиям -дифференцируемостй. Тогда к рассматриваемому преобразованию можно применить 153
формулу (4.8) для определения плотности вероятности ё(У> У\) системы (Y, Yi). Якобиан преобразования (4.10) имеет вид: / = Поэтому Но так как то dxt dxt дух ду дх% дхг dyt ду 1 0 дха dxs dyi ду g(y> yi)=flyu у (у, yi)] У1 = хи g(y, Xi) = /[Xi, ty (у, Х%)] ду д<\> (У, yi) ду д<\> (у, xt) ду (4.11) Интегрируя это выражение по аргументу Х\ в бесконечных пределах, получим плотность распределения случайной величины Y (см. § 3.5, гл. III): gi(y)= $ 8 (У, *\)dxv оо ^ f[XU ф(#, Xt)] дф (У, ху) ду dx\. (4.12) Заметим, что рассуждения не изменяются, если введенную новую величину Y\ положить равной X*. Рассмотренный метод решения задачи для случая функции двух переменных легко обобщается для случая, когда случайная величина Y является функцией трех и большего числа случайных величин. Так например, для функции трех случайных величин К = <р(Хь X*, Хг) можно ввести новые переменные: Уа = Х%. И если при этом между системой (Y, Yu К2) и системой (Хи Хч, X*) устанавливается взаимно однозначное соответствие, то плотность распределения случайной величины Y ОО 00 8(У)=[ \ fUu X* ПУ^ х2)]|^(у ^ —оо —оо где ф (у, Хи Л'2) — обратная функция. 154 dxt dx$,
Рассмотрим применение формулы (4.12) для определения плотности распределения суммы, разности, произведения и частного от деления двух случайных величин. 1. Распределение суммы двух случайных величин Пусть Y = Xl + Xi, тогда имеют место следующие функциональные зависимости: Х\=у — лг2» Хъ = у — хх. Отсюда &?! дхз , ду ~~ ~ду~~ • Следовательно, согласно формуле (4.12), имеем: оо оо g(y)= S /(*e. y—Xi)dx9= \ f(xu y — xi)dxi. — 00 —ОС В случае, когда случайные величины Xlf X* независимы, плотность распределения системы равна произведению плотностей отдельных случайных величин, входящих в систему, т. е. f(X\, Jfa) = M*i) •/«(**) • Поэтому плотность распределения суммы запишется в виде: 00 00 g{y)= J hMU(y — xa)dxt= J h(xi)f9(y — xi)dxi. — 00 — ОО Распределение суммы независимых случайных величин Xi и Хч называют композицией распределений этих величин. 2. Распределение разности двух случайных величин Пусть Y = Ху — Хч, тогда имеют место следующие зависимости: Xi=y-\-Jb, Xi = Xi — у. 155
Так как dxt ду дх2 ду = 1. то, согласно формуле (4.12), имеем: с» с» g(y)= S /(** У-\-Хз)с1ха= 5 f (хи хг — y)dxx. — ос — со В случае независимости случайных величин Хх и Х2 С» 00 ё(У)= \ h (x9) U (у + х9) dx*= \ fi(xi)fi(x1 — y)dx1. — 00 — 00 3. Распределение произведения двух случайных величин Пусть Y = Xi • Х2, тогда имеют место следующие зависимости: У У Х\ — — И Х% = — ЛГ2 Xi Так как алг, 1 1 ду ха ду xt' то, согласно формуле (4.12), имеем: 00 00 — 00 — 00 В случае независимых величин Х* и Х% со dxo 00 ■^Я/ I -^2 d*. 4. Распределение частного от деления двух случайных величин Пусть Y — -~. В таком случае имеют место следующие функциональные зависимости: Xl = l/X2 И X* = j, 156
Так как &*1 — х и дх*__ xi ду 2 ду у2' то, согласно формуле (4.12), имеем: с» с» g(y)= 5 f(Xl> 7) 7 dXl== \ f(x*' ух*)\хЛЛъ- — оо — оэ Если Х\ и Хз — независимые случайные величины, то ОО 00 g(y)= § fMf*(j) f*\dxi= \ f(Xi)h(yXi)\Xi\dx2. — 00 — 00 § 4.4. РАСПРЕДЕЛЕНИЕ РЭЛЕЯ Найдем закон р*аспределения величины отклонения случайной точки (X, Y) от начала координат при условии, что система случайных величин (X, Y) имеет нормальное распределение с параметрами тх = ту = О и ах = = а^ = а. Плотность распределения такой системы имеет вид: 1 2^~ !{х, У) = ^е . Обозначим через R случайное отклонение точки (X, Y) от начала координат. Это отклонение является функцией случайных величин X и Y: R = YX* + Y\ Так как случайная величина R является полярным радиусом в полярной системе координат, то для определения ее закона распределения перейдем от декартовых координат к полярным координатам, т. е. положим: i/ = rsin6. В таком случае плотность распределения g (r, 6) системы случайных величин (R, б) определим через плот- 157
ность распределения f (x, у) системы (X, Y) по формуле (4.8). Имеем: /•2 8(г> ^=^?е *" г* (4ЛЗ) так как г* -f- у1 = г3, а якобиан перехода от декартовых координат к гюлярным координатам равен г. Интегрируя выражение (4.13) по переменной 9 в пределах от 0 до 2тс, най- t\f(r) дем плотность распределения случайной величины R г* 1 О 2* 2зг *'<r>=$55»' '«» = О г б 26 36 г =г_е при ^^ При г<^0, очевидно, gi(r) = 0. Закон распределения, имеющий плотность вероятности (_ IL ie *" ПРИ'>0> (4.13) О приг<0, называется распределением Рэлея. График распределения Рэлея показан на рис. 59. Закон распределения случайного отклонения R = YX*-\-Y* при условии, что система случайных величин (X, Y) подчиняется круговому нормальному распределению с плотностью называется обобщенным распределением Рэлея, Плотность распределения обобщенного закона Рэлея имеет вид: Г 2а* [ГГ, ,(„=?« ./.^приг>0, 10 при г<0, 158
где /о—полярный радиус Центра нормального распределения, а /01^-£-) - функция Бесселя мнимого аргумента. § 4.5. ОПРЕДЕЛЕНИЕ МАТЕМАТИЧЕСКОГО ОЖИДАНИЯ ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН. ТЕОРЕМЫ О МАТЕМАТИЧЕСКИХ ОЖИДАНИЯХ ' В предыдущих параграфах этой главы мы рассмотрели различные задачи определения закона распределения функции случайных аргументов, если известны законы распределения аргументов. Однако на практике часто встречаются случаи, когда нет особой надобности полностью определять закон распределения функции случайных величин, а достаточно только указать его числовые характеристики, Таким образом, возникает задача определения числовых характеристик функций случайных величин, помимо законов распределения этих функций. Начнем с простейшего случая, когда случайная величина Y является функцией случайного аргумента X с заданным законом распределения, К = *(*). Требуется, не находя закона распределения величины Y, определить ее математическое ожидание ту = М[<?(Х)). Рассмотрим сначала случай, когда X есть дискретная случайная величина с рядом распределения Xi I X\ \ Хч ... I Хп Pi | Р\ | fh | • • • I Рп Составим таблицу значений величины Y и вероятностей этих значений: Уг = <Р (Xi) I <Р (Xi) | ср (Jd) I ... | ? (*„) . (4.15) Pi I Pi I P-2 I ••• I Pn Таблица (4.15) не является рядом распределения случайной величины У, так как в общем случае некоторые 159
из значений могут совпадать между собой и значения в верхней строке не обязательно идут *в возрастающем порядке. Однако математическое ожидание случайной величины Y можно определить по формуле М[<Р(Х)1 = 2 9(*')Рч (4Л6) «=| так как величина, определяемая формулой (4.16), не может измениться от того, что под знаком суммы некоторые члены будут заранее объединены, а порядок членов изменен. В формуле (4.16) для математического ожидания функции К = ср(Х) не содержится в явном виде закона распределения самой функции ср (X), а содержится только закон распределения аргумента X. Таким образом, для определения математического ожидания функции Y = = ср (X") вовсе не требуется знать закон распределения функции ср (X), а достаточно знать закон распределения аргумента X. Если в формуле (4.16) сумму заменить интегралом, а вероятность pi — элементом вероятности, то получим аналогичную формулу для непрерывной случайной величины: по М[<?(Х)] = J 9(x)f(x)dx, (4.17) — 00 где f (x) есть плотность распределения случайной величины X. Аналогично может быть определено математическое ожидание функции Z = cp(X, Y) от двух случайных аргументов X и Y. Для дискретных случайных величин М [с? (X, Y)] = 2 £ * (*ь Уд PiP (4.18) «' i где pi j = Р (Х = хи Y = yj). Для непрерывных случайных величин со М [ср (X, Y)) = JJ ср (х, у) f (x, у) dxdy, (4.19) — со где / (х, #)-плотность распределения системы (X, Y). 160
Если случайная величина Y есть функция нескольких случайных величин Хи Х%, ..., Хп: ' V/ = cp(Xlt X*..., Хп), то математическое ожидание определяется совершенно аналогично предыдущим определениям. Так, например, для непрерывных величин имеем: M[f(Xlt X* ..., Хп)] = СО 00 == \ ... \ у(хи хъ ..., xn)f{xu хъ..., хп) dxi... dxn, — оо — со (4.20) где f(xu х%, ..., хп) - плотность распределения системы {Х\, Хч, ..., Хя). Пример 1. Система (X, Y) равномерно распределена внутри круга радиуса г с центром в начале координат. Определить математическое ожидание расстояния R случайной точки (X, Y) от начала координат. Решение. Так как /? = "[/"Х9-(-Ка и (—s, если х2 -4- У* ^ г*> ' f(x, У)={^- ™ 10, если~г! + #2>Л то согласно формуле (4.19) M[R) = M [/F+H = JI K^TT^i dxdy== D 2я г о о Рассмотрим случаи, когда для нахождения математического ожидания функции случайных аргументов не требуется знать даже законов распределения аргументов, а достаточно знать только некоторые их числовые характеристики. Сформулируем эти случаи в виде следующих теорем. Теорема 1. Математическое ожидание суммы как зависимых, так и независимых двух случайных величин равно сумме математических ожиданий этих величин M[X.+ Y] = M [X] + М [Г]. (4.2Г) 6 Гурский , 161
Доказательство, а) Пусть (X, Y) — система дискретных случайных величин. Применим общую формулу (4.18) для математического ожидания функции двух аргументов: +2 2 yjptf=£ * 2 pt j+2>;2 Pi)- i j i j J i Ho ^Ptj представляет собой полную вероятность того, j что величина X примет значение xt: 2Pij=P(X = xi)=:pi. I Следовательно, ^Х1^ри = ^х^ = М[Х\. Аналогично 2>/2>/=2^,=мт и теорема доказана. б) Пусть (X, Y) — система непрерывных случайных величин. Тогда по формуле (4.19) имеем: со M[X + Y] = ll(x + y)f(x,y)dxdy = — 00 со оо = И *f (х> У) dxdy-\-\ \ yf (х, у) dxdy— оо г со оо г со — \ х\ \ f(x> У)ЛУ dxJr \ У \ f(x> y)dx — оо L—°° J —оо |_ — оо Но так как dy. S f(x> y)dy = fi(x) и \ f(x, y)dx = h(y), TO M[X + Y]=l xh(x)dx+l yh(y)dy = M[X] + MJY]. Теорема доказана. 162
Теорема сложения математических ожиданий методом полной математической индукции .обобщается на произвольное число слагаемых: М 2*< i = l ■S M[xt (4.22) /=i (доказательство формулы (4.22) предлагается читателю). Следствие. Математическое ожидание линейной функции случайных величин равно той же линейной функции от математических ожиданий этих величин: М S <kXi + b i=\ 2 ъМШ + ъ (at, b — не случайные величины). Доказательство. Пользуясь теоремой сложения математических ожиданий и простейшими свойствами математического ожидания (см. § 2.5), получим: М 2 <hXi + b =м Г Л 1 S atXt + ЛОД = = 2 ^[^«1 + ^ = 2 atM[Xi] + b. i=i i=i Используя теорему сложения математических ожиданий и простейшие свойства числовых характеристик, легко доказать справедливость следующих формул: М [X] = /(м[^=^-] + хо, (4.23) D [X] = К2М [(^x^f] - (М [X - *о])2, (4.24) которые при умелом подборе К и х0 значительно облегчают вычисление соответственно математического ожидания и дисперсии. Докажем, например, справедливость формулы для дисперсии. Для этого, пользуясь свойствами математического ожидания, преобразуем правую часть формулы (4.24): Км [(^г~0)1 ~{М [Х ~ *о1)2=м {Х*—2Хх«+*и - — (М [X] — *0)2 = М [X9] — 2х0М [X] -f 4 — (МIX])2 + -j-2x0M[X]— 4 = M[X2] — т%. 163
Но М[Х*] — m*x = D\X] (см. свойство 3, §2.5, п. 4). Следовательно, D[X] = KW[(~^J]-(M[X -х«])\ Теорема 2. Математическое ожидание произведения двух случайных величин равно произведению их математических ожиданий плюс корреляционный момент: M[XY] = M[X]-M[Y] + kxy. (4.25) Доказательство. Согласно определению корреляционного момента имеем: kxy = M\(X-mx)(Y~ my)], (4.26) где тх = М[Х]; my = M[Y]. Преобразуем выражение (4.26), пользуясь свойствами математического ожидания, получим: kxy = М [XY] — тхМ [Y] — туМ [X] + тхту = = M[XY] — M[X]M[Y]. Отсюда M\XY] = M[X].M[Y]+kxy. Теорема доказана. Следствие 1. Математическое ожидание произведения двух некоррелированных случайных величин равно произведению их математических ожиданий. Действительно, если случайные величины X и Y некор- релированы, то kxy = 0 и формула (4.25) примет вид: M[XY] = M[X)-M[Y]. Следствие. 2. Математическое ожидание произведения независимых случайных величин равно произведению ожиданий этих величин, т. е. г я м Uxi =Пм[хл Это следствие легко доказывается методом полной математической индукции. Пример 2. Производится п опытов, в каждом из которых может появиться или не появиться событие А. Вероятность появления события А в i-u опыте равна pt. Найти математическое ожидание числа появлений события А. 164
Решение. Рассмотрим дискретную величину X — число появлений события А во всей серии опытов. Очевидно, где Xi — число появлений события А в первом опыте, Хч—число появлений события А во втором опыте, Хп—число появления событий А в л-м опыте. Каждая из величин Xt (i=\, 2,..., п) есть дискретная случайная величина с двумя возможными значениями: 0 и 1. Ряд распределения величин Xi имеет вид: *, | 0 | 1 Pi I 9i I Pi где qi — 1 — pi — вероятность непоявления события А в 1-й опыте. По теореме сложения математических ожиданий имеем: mx = M[X] = ^M[Xi]. (4.27) i=\ Вычислим математическое ожидание случайной величины Xi. По определению математического ожидания M[Xi] = 0>qi-\-\-pi = pi. Подставляя это выражение в формулу (4.27), получим: mx = j]ph (4.28) т. е. математическое ожидание числа появлений события А при нескольких опытах равна сумме вероятностей события в отдельных опытах. В частности, когда условия опытов одинаковы, случайная величина X подчинена биномиальному распределению и формула (4.28) принимает вид: тх = пр. Заметим, что формула (4.28) применима к любым опытам — зависимым и независимым, так как теорема сложения математических ожиданий применима к любым случайным величинам — как зависимым, так и независимым. 165
§ 4.6. ОПРЕДЕЛЕНИЕ ДИСПЕРСИИ ФУНКЦИИ СЛУЧАЙНЫХ ВЕЛИЧИН. ТЕОРЕМЫ О ДИСПЕРСИЯХ Рассмотрим случайную величину Y, являющуюся функцией нескольких случайных величин Хъ Х2,..., Хп, Y =у(Хи Хъ ..., Хп) и поставим задачу найти ее дисперсию, минуя определение закона распределения этой функции. По определению дисперсии , ■ D[Y\ = M[{Y — myY]. Следовательно, D[Y] = M[(v(Xu X2,..., XJ-mHXuXn...tXn)y]t (4.29) где т<?{Хи х2,'" , Xa) = M[<?(Xi, X* Хп)]. Выражение (4.29) показывает, что дисперсия функции случайных величин определяется как математическое ожидание некоторой новой функции тех же' случайных величин. Поэтому вычисление дисперсии может быть осуществлено приемами, совершенно аналогичными рассмотренным в предыдущем параграфе. Здесь мы приведем расчетные формулы только для случая непрерывных случайных аргументов. Для функции одного случайного аргумента Y = y{X) дисперсия выражается формулой 00 D[9(X)]= J [<?(x)—m9\%f(x)dx, (4.30) — 00 где т9 = М [ср (X)] — математическое ожидание функции 9 (X); f (х)— плотность распределения величины X. Аналогично выражается дисперсия функции двух аргументов: со D[y(X, Y)]= $$ [?(*, у)-т9\Ч{х, y)dxdy, (4.31) — 00 где mf = M[v (X, Y)], a f (x, у) — плотность распределения системы. Наконец, если имеем функции произвольного числа случайных аргументов Y = <? (Хь Х-2,..., Хп), то дисперсия 166
выражается формулой со со D[<f(XuXi *„)]==$$...$ [?(Ль x2)...4)-mJX — 00 —СО X f (xi, x9,..., xn)dxidxt...dxn. (4.32) Заметим, что при вычислении дисперсии бывает удобно пользоваться формулой D[X] = M[X*]-mx. В таком случае формулы (4.30) — (4.32) можно заменить соответственно следующими: со ЯМ*)] =5 l9(x)ff(x)dx-ml, (4.33) — со со D[(?{X,Y)]= $$ [<?(x, y))*f(x, y)dxdy-ml, (4.34) — со £>[?№ *„)] = со со = 5 • • • 5. [<Р {хи • • •. хп)]*1 (хи • • •, хп) dxi...dxn — m%.(4.35) — со —со Таким образом, дисперсия функции случайных величин может быть определена как математическое ожидание квадрата этой функции минус квадрат ее математического ожидания. Рассмотрим теперь теоремы о дисперсиях, которые играют очень большую роль в теории вероятностей и ее приложениях. Теорема 1. Дисперсия суммы случайных величин равна сумме дисперсий этих величин плюс удвоенная сумма корреляционных моментов каждой из слагаемых величин со всеми последующими, т. е. г п D 2*< i = i = 2 DlXt) + 2%kXiX. (4.36) «=1 * i<j Доказательство. Обозначим Y^Xi + Xt + ... + Хп- (4.37) тогда по теореме сложения математических ожиданий ту = тЛ1^тХ2-^-,,,-\-тХп. (4.38) 167
Вычитая почленно выражение (4.38) из равенства (4.37), получаем: Y — ту — (Xi — mXi)-f-(X9 — mXi) -f-... + (Хя — mXfi). По определению дисперсии имеем: D 2^ = D[n = M[(F-"b,)2] /И U=i J J L« = > + 2 2 (X,-m,,) (X,- m,,) = £ M [(X, -mXi)■] + »<; i = l + 2SM[(X,-m,,)(X/-mX/)] «<7 ■ к/ i=i что и требовалось доказать. Следствие 1. Дисперсия суммы некоррелированных случайных величин равна сумме дисперсий слагаемых, т. е. D 2* i=i = IiD[Xi]. (4.39) Действительно, если случайные величины некоррели- рованы, то kx.x. — 0 при i Ф / и формула (4.36) принимает вид формулы (4.39). Следствие 2. Дисперсия линейной функции случайных величин Y = j]aiXi+b ; = i («/, Ь — не случайные величины) выражается формулой D[Y\ = D J]a,Xt + b i=l + 2 £ aiajkx.x Sfl?^[Xi] + i=l (4.40) Доказательство. Введем обозначение: a/ X/ = Yt. 168
Тогда v==2>xi + &=2Ki + &. (4.41) i~\ Применяя к правой части выражения (4.41) теорему о дисперсии суммы и учитывая, что D[b] = 0, получим: i = l KJ Так как D[r/] = D[aiXt] = aID[Xt] ky.y^M^Yt — my.) (У/-ту..)] =М [(a, Xt - ъ тх.) X X (aj Xj — aj mXj)] = М [щ ау (Х{ - /тц) (Xf — mX/)] = = a* fly M [(Хг — /тц) (Xj — mx.)] = at a, kx.X/, то D[Y]=D ZciiXi + b i = \ D l>Yi + b 0 = \ =2D^] + i=i + 2 2 ^,= 2 4DIXA + 2 2 ^;ЦУ Формула (4.40) доказана. В частном случае, когда все случайные величины некоррелированы, формула (4.40) принимает вид: D[Y] = D 2>х,--и i = l 2 alD[X,], т. е. дисперсия линейной функции некоррелированных случайных величин равна сумме произведений квадратов коэффициентов на дисперсии соответствующих аргументов. Теорема 2. Дисперсия произведения двух независимых случайных величин вычисляется по формуле D [XY] = D[X]-D [Y] -\-m% D [Y] +myD [X]. (4.42) Доказательство. Так как случайные величины X и К независимы, то независимы и случайные величины X2 и Y\ 169
Следовательно, M[XY] = mxmy, M[X*Y*] = M[X*]M[Y*} По определению дисперсии с учетом равенств (4.43) имеем: D[XY] = M [{XY — тпх myf\ = М [X2] М [Г2] — — 2mxmy М [X] М [Y] -f тп%шу = М [X2] М [Г2] — m%my. Но M[X*\ = D\X\-\-mx и M[Y*] = D[Y]-\-my, поэтому D [XF] = (D [X] + mi) (D [Г] + mj.) - mj mj. = = D[X]D[F]+miD[F]4-OTJ,D[Xl. Следствие. Дисперсия произведения независимых центрированных случайных величин равно произведению их дисперсий. Доказательство. Рассмотрим две центрированные и независимые случайные величины X и Y. Математические ожидания центрированных случайных величин равны нулю, т. е. m[x] = m[y]=o. Следовательно, формула (4.42) принимает вид: D[XY] = D[X]-D[Y]. Пример 1. Производится п независимых опытов, в каждом из которых может появиться или не появиться событие Л, причем вероятность появления события Л в t-м опыте равна pt. Найти дисперсию и среднее квадра- тическое отклонение числа появления события Л. Решение. Пусть случайная величина X — число появлений события Л в п опытах, a Xt — число появлений события Л в 1-м опыте, тогда (4.43) 170
В силу независимости опытов случайные величины Xi (i = l, 2,..., п) независимы. Поэтому, используя теорему о дисперсии суммы, получим: D* = %DX Найдем дисперсию случайной величины X;. Используя результаты решения примера 2, § 4.5, имеем: Dx. = (О - Pif ъ + {\— Pif Pi = Pi qt. . Следовательно, n Dx = ^Piqh (4.44) t=i - т. е. дисперсия числа появлений события Л при нескольких независимых опытах равна сумме произведений вероятностей появления и непоявления события Л в каждом опыте. Из формулы (4.44) находим среднее квадратическое отклонение числа появлений события Л: В частности, когда условия опытов одинаковы, случайная величина X подчинена биномиальному распределению и формула (4.44) принимает вид Dx = npq. Среднее квадратическое отклонение в этом случае ах = Vnpq- Пример 2. Пусть одним и тем же методом производится п независимых измерений какой-либо величины. Результаты измерений являются независимыми случайными величинами Х\, ^2, • • •, Хп с равными дисперсиями D[Xi] = ax (i = l, 2,..., п). В этих условиях требуется определить дисперсию среднего арифметического результатов измерений п 2 ** п 171
Решение. Находим D [&] = D -—\=\d 2* Z^-iZ^i-^-V- Li = l Используя теорему сложения дисперсии, получим: г л £>[а] = 1/) Таким образом, дисперсия среднего арифметического результатов л независимых измерений в п раз меньше дисперсии отдельного результата измерения. § 4.7. ОПРЕДЕЛЕНИЕ КОРРЕЛЯЦИОННОГО МОМЕНТА ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИЧИН. СВОЙСТВА КОРРЕЛЯЦИОННОГО МОМЕНТА И КОЭФФИЦИЕНТА КОРРЕЛЯЦИИ Согласно определению корреляционного момента двух случайных величин X и Y, имеем: ЬхУ = М[(Х — тх)(Г~ту)]. Раскрывая скобки и применяя свойства математического ожидания, получим: ' kxy = M[XY] — M[X]-M[Y). (4.45) Рассмотрим две функции Y\ и У2 системы случайных величин (Хь Х2,..., Хя): Yt = b{Xu *„..., Хп), У* = ъ(Хч X,,..., Хп). Согласно формуле (4.45) kyxyt = М [F,F«1 - М [Г,1 М [72], отсюда *у,л = М [?1 (Х„ Х2, ..., Х„) ср2 (Хь Х2, ..., Х„)] - - М [<р, (Х„ Х2, ..., Хп)\ М [ср2 (X,, *«,..., Хя)], (4.46) т. е. корреляционный момент двух функций нескольких случайных величин равен математическому ожиданию произведения этих функций минус произведение их математических ожиданий. Рассмотрим основные свойства корреляционного момента и коэффициента корреляции. 172
Свойство 1. От прибавления к случайным величинам постоянных величин корреляционный момент и коэффициент корреляции не меняются. Доказательство. Пусть kxv есть корреляционный момент случайных величин X и Y, т. е. kxy=M[{X—mx){Y — my)\. Найдем теперь корреляционный момент kxy случайных величин Х' = Х + а и Y' = Y-\-b. Так как X' - тх: = X -\- а — М [X -f- а]=Х + а— тх—а=Х—тх, Y' — my = Y + b—MlY + b] = Y — my, - то kxy = M[(X'- m,0 (Y - ту)] = =*M[(X-mx)(Y-mv)] = kxy, что и требовалось доказать. Свойство 2. Для любых случайных величин X и Y абсолютная величина корреляционного момента не превосходит среднего геометрического дисперсий данных величин, т. е. \kxy\^V'DxD'y = oxb, (4.47) где ах> ау — средние квадрэтические отклонения величин X и У. Доказательство. Рассмотрим случайную величину Z = aX-\- ЬУ-j-c, где a, b и с — неслучайные величины. Определим дисперсию величины Z. По формуле (4.40) имеем: Dz = аЮх -f ЬЮУ + 2abkxy. Полагая а = оу, Ь = ±ах, получим (Dx = ax, Dy = oy): Dz = 2зхОу ± 2oxoykxy. Так как дисперсия любой случайной величины не может быть, отрицательной, то 2зхоу ±. 2sxOykxy ^ 0, 173
или axoy±kxy^O, откуда • \kxy\^oxay. Следствие. Для любых случайных величин X и Y абсолютная величина коэффициента корреляции не превосходит единицы, т'. е. \гху\^\. Действительно, из равенства (4,47) следует: . _ I kXy 1 1 *У 1 — а а ^ QxQy Свойство 3. Если случайная величина Y есть линейная функция случайной величины X, то коэффициент корреляции между ними по абсолютной величине равен единице, а его знак определяется знаком множителя при X, т. е. если ' Y = aX + b, то а г*у—щ- Доказательство. Используя определение корреляционного момента, получаем: kxy = M [(X — тх) (У — ту)\ = М[(X — тх) {аХ-\-Ь — — amx — b)] = M[a{X — mxf] = аМ [(X — mxf] = aDx. Так как (см. § 4.6) Dy = D[aX-\- b] = a*Dx, то ___ ау==У0у=УШх = \а\У0х=\а\сх. Следовательно, kxy aDx aDx a Гху = ^~у=:= °х\а\сх==-\^%==~\7]> что и требовалось доказать. Таким образом, если случайные величины X и Y связаны точной линейной функциональной зависимостью: ' Y=aX-{-b, 174
то гху = ± 1, причем знак плюс или минус берется в зависимости от того, положителен или отрицателен коэффициент а. В общем же случае, когда случайные величины X и Y связаны произвольной вероятностной зависимостью, коэффициент корреляции может иметь значение в пределах Это значит, что коэффициент корреляции гху может служить характеристикой того, насколько зависимость между случайными величинами X я Y близка к линейной. Чем меньше по абсолютной величине коэффициент корреляции гху, тем сильнее отклоняется зависимость между величинами X и Y от линейной. В рассмотренном примере 2 § 3.6 мы видели, что для системы случайных величин (X, Y), распределенной внутри круга с равномерной плотностью, несмотря на наличие зависимости между случайными величинами X и Y системы, линейная зависимость между ними отсутствует (при возрастании величины X меняется только интервал изменения величины Y) и коэффициент корреляции гху = 0 (см. § 3.7). Свойство 4 (теорема сложения корреляционных моментов). Корреляционный момент между составляющими случайного вектора, являющегося суммой нескольких некоррелированных случайных векторов, равен сумме корреляционных моментов составляющих этих векторов. Доказательство. Рассмотрим два некоррелированных вектора V\ и V2 на плоскости хОу (рис. 60). Пусть составляющие вектора Vx есть (Хи Yi), а вектора V% — (Х2, Y^. Тогда вектор V = Vi-\-Vi имеет составляющие: X = Л} -}- Л2, Y = Yl-\-Y,. Определим корреляционный момент составляющих X и Y вектора V, 1 Уг Y, 0 У " 1 1&**\ \х2 X Ту х, Т\ Y X Рас. 60 175
Так как mx = mXiJrmX2, my = myi-{-my,t то kXy = M[(X-mx)(Y-my)] = M[(X1 + Xs-mXl-mX2)X XO'i + n-'m,,, — myt)] = M[{Xi — mXl) + (X9 — mXa)}X X{(Yi- myi) + (Y* - my,))] = M[(Xl- mXl) (Yt -mn)] + + M[(X2 — mX2) (Yt- myi)]~\- M [Xt - mXi) (Yz- my,)]-\- + M [(X,- mX2) (Г2- m,,2)] = — ^tji 4~ &Х2.У1 + KXly2 -j- «л;2>12. Так как векторы Ki и К2 некоррелированы, то kX2yi= = kXiya = 0, и мы получаем: т. е. корреляционный момент между составляющими случайного вектора, являющегося суммой двух некоррелированных случайных векторов на плоскости, равен сумме корреляционных моментов составляющих этих векторов. Приведенное доказательство можно распространить на любое число некоррелированных случайных векторов, заданных как на плоскости, так и в пространстве любого измерения. Свойство 5 (теорема сложения корреляционных матриц). Корреляционная матрица случайного вектора, являющегося суммой некоррелированных случайных векторов, равна сумме корреляционных матриц слагаемых векторов. Докажем свойство для двух случайных векторов, заданных в /г-мерном пространстве. Пусть V{XU Ха, ..., Хп} и Vi{Yu К* .... Yn) некоррелированные векторы с известными корреляционными матрицами для каждого из них. Определим корреляционную матрицу вектора суммы V = Vt + Vi. Составляющие вектора V равны: Zi = Xi + F„ Z% = Х% -f- Y^, 2л = ^л-Г" Yп> 176
По теореме сложения дисперсий имеем: £>[Z£]:=D[X,] + D[K£b (1 = 1, 2, .... п) или в других обозначениях: кг.г. = kx.x. -J- ky{yv На основании свойства 4 для корреляционных моментов при i Ф I имеем: kZ.z. = kX.X. + ky.y^ Так как под суммой двух матриц мы понимаем матрицу, элементы которой получены сложением соответствующих элементов этих матриц, то корреляционная матрица суммы двух некоррелированных случайных векторов равна сумме корреляционных матриц слагаемых. § 4.8. КОМПЛЕКСНАЯ СЛУЧАЙНАЯ ВЕЛИЧИНА Комплексной случайной величиной называется величина вида Z = X + jY, . где X и Y— действительные случайные величины; j==V.— 1 —мнимая единица. Геометрически комплексную случайную величину можно интерпретировать как случайную точку Z на координатной плоскости хОу. Таким образом, случайная величина Z является другим способом описания систем двух случайных величин (X, Y). Числовые характеристики комплексной случайной величины определяются так, чтобы в частном случае, когда Y = 0 и величина Z действительна, они сводились к обычным определениям характеристик действительной случайной величины. Математическим ожиданием комплексной случайной величины Z = X-\-jY называется комплексное число mz = mxJrjmr Геометрически это есть некоторая средняя точка тг, вокруг которой происходит рассеивание случайной точки Z. 177 '
Дисперсией комплексной случайной величины Z = =*X-\-jY называется математическое ожидание квадрата модуля соответствующей центрированной случайной величины Z = Z— mz, т. е. D[Z] = M[\Z?l Так как О 0 0 Z = Z — тг = X -J- /Т — тх — ]ту = Х-\- /У2, то D[Z] = M[\Z\*] = M[X*-\-Y2] = = MlX*] + M[Y*} = D[X]JrD[Y}, т. е. дисперсия комплексной случайной величины равна сумме дисперсий ее действительной и мнимой части. Из определения дисперсии следует, что дисперсия комплексной случайной величины удовлетворяет соотношению D[Z]^0. Обращаться в нуль она может только в том случае, если величина не случайна. Геометрически дисперсия комплексной случайной величины есть среднее значение квадрата расстояния от случайной точки до ее математического ожидания тг. Эта величина характеризует разброс случайной точки Z около ее среднего положения. Корреляционный момент комплексных случайных величин Z, = X1 + /Ti и Z2 = X2 + /T2 определяется так, чтобы при условии Zi = Z2 = Z он обращался в дисперсию величины Z. Для этого необходимо назвать корреляционным моментом математическое о ~о ожидание произведения Zi на Z2, т. е. k~lZ.2 — M[Zu Z2J, 0 0 О где Z2 = X2— /Т2 есть комплексная сопряженная вели- ооо чина по отношению к величине Z2 = X2-|-/T2. Выразим корреляционный момент kZlZ2 через корреляционные моменты действительных и мнимых частей комплексных случайных величин Z\ и Z2. Имеем: kziza = М [zu Ы = М [(*,'+ /Т,)(Х2 - /У,)] = г00 00 00 0 0 , = М [Х,Х2 + YiY* + /Т,ХЯ - jXtYi] = 178
Итак, определения основных характеристик комплексных случайных величин отличаются от обычных определений аналогичных характеристик для действительных величин только тем, что для дисперсии рассматривается не математическое ожидание квадрата центрированной случайной величины, а математическое ожидание квадрата ее модуля и для корреляционного момента рассматривается не математическое ожидание от произведения центрированных величин, а математическое ожидание произведения одной центрированной величины на комплексную сопряженную величину по отношению к другой центрированной величине. § 4.9. ХАРАКТЕРИСТИЧЕСКИЕ ФУНКЦИИ Характеристические функции являются одним из способов описания случайных величин, удобным при решении многих задач теории вероятностей. Пусть имеется вещественная случайная величина X. Образуем комплексную случайную величину U, функционально связанную с величиной X по следующему закону: U = e'tx, где аргумент t принимает вещественные значения на интервале (—сю, оо). Характеристической функцией g (t) случайной величины X называется математическое ожидание комплексной случайной величины U = eJ'iX, т. е. g(t) = M[e>tx]. (4.48) Зная закон распределения случайной величины X, можно найти ее характеристическую функцию. Для дискретной случайной величины X с рядом распределения %k \ %\ \ Хч ... \ Хп Pk I Pi I Pi I • • • I Pn характеристическая функция Для непрерывной случайной величины X с плотностью распределения f (x) характеристическая функция 179
£(*)= J ef(xf(x)dx. (4.50) — ОЭ Как видно из формулы (4.50), характеристическая функция g(t) является преобразованием Фурье соответствующей ей плотности вероятности f (х). Из теории преобразований Фурье известно, что функция f(x), или в дан ном случае плотность распределения, может быть определена путем обратного преобразования Фурье: ОЭ f(*)=4 \rftxg(t)dt. (4.51) Формула (4.51) позволяет сделать вывод о том, что плотность распределения случайной величины однозначно определяется ее характеристической функцией. Приведем примеры определения характеристической функции случайной величины, 'закон распределения которой известен. Пример 1. Найти характеристическую функцию случайной величины X, подчиняющейся распределению Пуассона, Р(Х = т) = а^е-а. / Решение. По формуле (4.49) имеем: 00 СО g(t)=2 «""£g-a = е-а 2 {^f = е°• е^ = е-<«*-0. т=0 m—Q Пример 2. Найти характеристическую функцию нормированной случайной величины, имеющей нормальное распределение. Решение. Случайная величина X называется нормированной, если ее математическое ожидание тх = 0, а дисперсия Dx=l. Следовательно, плотность распределения нормированной нормально распределенной случайной величины X имеет вид: 180
По формуле (4.50) имеем g «н ё Чх 1 - Xs V2n е 2 dx = V2 (* jtX — =■ V е 2 dx. (4.52) После преобразования .v.. x*_2jtx-x*-(jty+-qtr jix 2 — 2 .(x—jty-t* и замены z = х -— /7 интеграл (4.52) приводится к виду: g{t) ~=-е 2 \ er\ dz, /2я где интегрирование производится в комплексной плоскости вдоль прямой L, изображенной на рис. 61. Но так как *2 а е 2 dz= \ е 2 dx = V2it, то характеристическая функция нормированной случайной величины X, имеющей нормальное распределение, будет \У g(t) = e (4.53) 1 0 -v .У JT X Установим основные свойства характеристических функций. Свойство 1. Характеристическая функция g (/) вещест- Рис. 61 венна тогда и только тогда, когда соответствующая плотность вероятности f(x) является четной функцией. При этом сама функция g(t) является также четной. Справедливость этого свойства следует из свойств преобразований Фурье. Свойство 2. Если случайные величины X и Y связаны соотношением Y=aX, 181
где а — неслучайный множитель, то их характеристические функции связаны соотношением gy(t) = gx(af). (4.54) Доказательство. Имеем: gy (t) = M [eJtY\ = M [eitaX\ = M [eJMx] = gx (at). Свойство 3. Характеристическая функция суммы независимых случайных величин равна произведению характеристических функций слагаемых. Доказательство. Пусть Хи X*, ..., Хп — независимые случайные величины, имеющие соответственно характеристические функции gr^t). gxt{t) gxn(t). Найдем характеристическую функцию случайной величины Y=f1Xk. k=\ Имеем: J* i xk] gy (/) = M [еЩ = M \_e * = ' J = M [e^ • е*х» ... Л]. Так как случайные величины Xk (k= 1, 2, ..., п) независимы, то независимы и их функции eJtXk. По теореме умножения математических ожиданий получим: gy{t) = М[е*х>]• М[ejtx>] ... М[eJtxn] = = gxl(f)-gxt® ...^я(/). (4.55) Рассмотренные свойства позволяют применить аппарат характеристических функций для композиции законов распределения. Приведем примеры. Пример 3. Композиция биномиальных распределений. Найдем закон распределения суммы Z = XJrY независимых случайных величин X и Y, имеющих биномиальное распределение Р(Х = т) = С™р™ (1 — pl)ni~mt Р(у = т) = С™р?(1-р,)п*-т. Для определения характеристической функции случайной величины X, имеющей биномиальное распределение, воспользуемся формулой (4.49), получим: 182
gx(t)= E е>шР(Х = т)= 2 JtmCyj>™{\-p^-™ = m = 0 m = 0 = 2 с"(р/Г(1-Р1)Я1-т=[(1-р1)+р/1'11= = [1+Pl(e*—l)]»i. Аналогично Следовательно, согласно свойству 3, характеристическая функция случайной величины Z g,M==gx{f)gy(t) = [l+Pi(e?i--l№[l+pt(<?t-\)». (4.56) Выражение (4.56) показывает, что композиция биномиальных распределений при различных значениях параметров р\ и р2 не дает биномиального распределения. В частном случае, когда pi = р2 = р, из выражения (4.56) получаем: Таким образом, при постоянном параметре р композиция биномиальных распределений имеет тоже биномиальное распределение. Пример 4. Композиция распределений Пуассона. Найдем закон распределения суммы Z = X-\-Y независимых случайных величин X и Y, подчиняющихся закону Пуассона с параметрами а\ и а2 соответственно. Согласно, результату примера 1, имеем: gx(t) = ea^eJt-]) и gy(t)==ea^eJt-]K Поэтому, применяя свойство 3, найдем: gg (/) _ eai (ejt-\) . еа% (е#-\) __ е(сц + а2) (е#- 1)^ т. е. случайная величина Z также подчиняется закону Пуассона с параметром a = ai-\-ch. Этот результат можно распространить на лю*бое число взаимно независимых слагаемых. Пример 5. Композиция нормальных распределений. Найдем закон распределения суммы Z = X-{-Y независимых нормально распределенных случайных величин X и Y, имеющих плотность распределения 183
ax У 2л ауУ 2* Определим характеристическую функцию случайной величины X. Для этого представим ее в виде X = oxU, где U — нормально распределенная нормированная случайная величина. Тогда, пользуясь результатом примера 2, найдем: gu{t) = e'^. Согласно свойству 2 характеристических функций IV!2 _!^ gx(t)=gu(°xt)=e 2 =e 2 . Аналогично Применяя свойства 3, определим характеристическую функцию случайной величины Z gz(t)=gx(t)-gy(t) = e * e 2 = e a '. Сравнивая полученную функцию gz (/) с характеристической функцией нормально распределенной случайной величины X, мы видим, что случайная величина Z также имеет нормальное распределение с параметрами тг = 0, Из полученного результата вытекает, что сумма любого числа взаимно независимых нормально распределенных случайных величин также подчиняется нормальному закону. Пример 6. Композиция показательных распределений. Найдем распределение суммы Z = X-\-Y независимых случайных величин X и Y, каждая из которых распределена по показательному закону: ( \г e~Xi* при х^О, ( Хав*-*».? при z/^0, /(*)= иШ = . [ 0 при х<^0 { 0 при у<^0. Определим характеристическую функцию случайной величины X: 184
(/) = 5 jtx\(x)dx=\ е?(%е~^хdx = — oo 0 00 = Xt [e-^xdx = ~^-r (4.57) Аналогично gy(t) la—jr Следовательно, характеристическая функция случайной величины Z g.(0^g,(Og,(0-(tl_^_w (4-58) к выражению вида (4.57) не приводится. А это значит, что показательное распределение свойством устойчивости не обладает. В частном случае, когда Xi = \2 = ^s из выражения (4.58) получаем: ,Л _ х* Используя обратное преобразование Фурье, имеем: 00 ОО f (*) = ^ $ «*"fc (О Л = а ^ ^ (Пгй! Л- - , —00 —00 Отсюда, вычисляя интеграл с помощью вычетов, получим: . ( ^ге~1г при 2^0, 'W^l о при z<0. Вопросы для самопроверки 1. Как находится плотность распределения случайной величины Y, если эта случайная величина есть монотонная функция случайной величины X, закон распределения которой известен? 2. Что можно сказать о законе распределения линейной функции? 3. Как находится закон распределения немонотонной функции одного случайного аргумента? 4. Как определяется закон распределения функции нескольких случайных аргументов? 5. Что значит произвести композицию двух законов распределения? 185
6. Как определяется математическое ожидание функции случайного аргумента, закон распределения которого известен? 7. Сформулируйте и докажите теорему о математическом ожидании суммы двух случайных величин. 8. Сформулируйте и докажите теорему о математическом ожидании произведения двух случайных величин. 9. Чему равно математическое ожидание от произведения не-' скольких независимых случайных величин? 10. Как определяется дисперсия функции случайного аргумента (нескольких аргументов), если известен только закон распределения аргумента (аргументов)? 11. Сформулируйте и докажите теорему о дисперсии суммы случайных величин. 12. Чему равна дисперсия суммы некоррелированных случайных величин? 13. Сформулируйте и докажите теорему о дисперсии произведения двух независимых случайных величин. 14. Сформулируйте и докажите свойства корреляционного момента. 15. Чему равен коэффициент корреляции случайных величин, связанных между собой линейной зависимостью? 16. Дайте определения числовых характеристик комплексной случайной величины. 17. Дайте определение характеристической функции и назовите основные ее свойства. 18. Каким образом применяется аппарат характеристических функций для композиции законов распределения? 19. Какой закон получается при композиции нормальных законов? У пр ажнен и я 1. Найти плотность вероятности площади квадрата, сторона которого Л" —случайная величина, равномерно распределенная в интервале (0, 1). —— при 0<.у< 1; 2Уу О при у^0 или у^\. 2. Через точку (0, /) проведена наугад прямая. Найти плотность распределения расстояния этой прямой от начала координат. — " при 0 < г < I; к у Р — z* О при г^О или z^l. 3. Дана плотность вероятности f(x) случайной величины X (0 < л: < оо). Найти плотность вероятности случайной величины Отв. g(y)=f(ey)ey. 4. Система двух случайных величин (X, Y) подчинена нормальному закону распределенияг Рассеивание круговое. Вероятное отклонение равно Е. Найти выражение для плотности распределения случайной величины Z = a(X2Jr У2), где а>0. 186
9-z Ome.g(z) = \ ^e приг>0; О при 2<0. 5. Известны математическое ожидание и дисперсия случайной величины X: тх = 2, Dx = 3. Найти математическое ожидание и дисперсию случайной величины У=ЗХ — 5. Отв. ту=\, Dy = 27. 6. Случайная величина X подчинена закону равномерной плотности на интервале (0, 2). Найти математическое ожидание случайной величины Г= — Х2 + ЗХ — 2. Отв. ту — ~ — ш 7. Случайная величина X подчинена закону равномерной плотности на интервале (0, 1)- Найти дисперсию случайной величины У= 2XS. Отв. Я, = 45. 8. Система двух случайных величин (X, У) характеризуется математическими ожиданиями тх = 2, ту = 0, дисперсиями Dx = 1, Dy = 2 и корреляционным моментом kxy =—1. Определить математическое ожидание и дисперсию случайной величины Z = X — 2Y. Отв. тг = 2, DZ=14. 9. Случайные величины X и У имеют математические ожидания тх = —1, ту=\ и дисперсии Dx = 4 и Dy = 9. Найти математическое ожидание случайной величины Z = 3XY-\-5. Отв. тг = 0,2. 10. По мишени производится п независимых выстрелов. Вероятность . попадания в мишень при /-м выстреле равна />,. Найти математическое ожидание и дисперсию числа попаданий в мишень. п п Отв. т = 2 Л» D = S Л (1 - Pi)- i = l i = l 11. Имеются две случайные величины X и У, связанные^ соотношением У=4~Х. Найти корреляционный момент, если известно, что математическое ожидание тх = 3 и дисперсия Dx = 2. Отв. kxy = — 2. 12. Найти характеристическую функцию линейной функции п У=. ^] akXk-\-b независимых случайных величин Хи Х%, ..., Хп, k=i характеристические функции которых заданы. Отв. gy(t)=eJib П gXk(akt). 187
13. Найти характеристическую функцию gx(t) случайной величины X, распределенной по закону Паскаля: P(X = m)=pqm (т = 0, 1, 2, ...). Р Отв. gx (t) = 1 — qe* ■t' 14. Найти характеристическую функцию gx (t) случайной величины X, равномерно распределенной в интервале (а, Ь). ~ , 'ч sin tb Отв. gx (t) = -^-. 15. Найти характеристическую функцию случайной величины, распределенной по закону Лапласа: f (*) — -к- е — а.\х—т\ . Отв. &(*) — . pjtnt а2 + ^ 16. Найти закон распределения суммы двух независимых случайных величин X и Y, каждая, из которых имеет равномерное распределение на интервале (0, 1). г О, если zs^O; Отв. F(z)~ (2 если 0<zs^ 1; -, если 1 <2^2.
Глава 5 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ § 5.1. ПРЕДВАРИТЕЛЬНЫЕ ЗАМЕЧАНИЯ Мы уже знаем, что теория вероятностей изучает закономерности, свойственные массовым случайным явлениям. Как и любая другая наука, теория вероятностей предназначена для того, чтобы возможно точнее предсказать результат того или иного явления или эксперимента. Однако если явление носит единичный, не массовый характер, то теория вероятностей способна предсказать обычно лишь вероятность исхода в весьма широких пределах. Совсем иное дело, когда явление — массовое. Закономерности проявляются именно при большом числе случайных явлений, происходящих в однородных условиях. При достаточно большом числе испытаний характеристики случайных событий и случайных величин, наблюдаемых при испытании, становятся почти неслучайными. Так, например, частота события при большом числе испытаний становится устойчива, то же самое относится к средним значениям случайных величин. Это обстоятельство позволяет использовать результаты наблюдений над случайными явлениями для предсказания результатов будущих испытаний. Группа теорем, устанавливающих соответствие между теоретическими и экспериментальными характеристиками случайных величин и случайных событий при большом числе испытаний над ними, а также касающихся предельных законов распределения, объединяются под общим названием предельных теорем теории вероятностей. В настоящей главе мы познакомимся с двумя типами предельных теорем: законом больших чисел и центральной предельной теоремой. Закон больших чисел, занимающий важнейшее место в теории вероятностей, является связующим звеном между теорией вероятностей как математической наукой и закономерностями случайных явлений при массовых наблюдениях над ними. Закон больших чисел играет очень важную роль в практических применениях теории 189
вероятностей к явлениям природы и техническим процессам, связанным с массовым производством. При доказательстве теорем, относящихся к группе «закона больших чисел», мы воспользуемся неравенством Чебышева. § 5.2. НЕРАВЕНСТВО ЧЕБЫШЕВА Рассмотрим случайную величину X, математическое ожидание которой тх и дисперсия Dx- Неравенство Чебышева утверждает: вероятность того, что отклонение случайной величины от ее математического ожидания будет по абсолютной величине не меньше любого положи- - Dx тельного числа е, ограничена сверху величиной -f-: Р(\Х-тя\^г)^%*. (5.1) Доказательство. 1. Пусть случайная величина X дискретная с рядом распределения %k \ %1 I *2 1 • • • I Хп Rk | Р\ I Pa | • • • | Pn ' Тогда дисперсия случайной величины X Dx=%(xk-mxypk. (5.2) k = \ Очевидно, все слагаемые этой суммы не отрицательны. Отбросим те слагаемые, у которых \xk — тх \ <С£» вследствие чего сумма (5.2) может только уменьшиться, т. е. Дс> 2 (Xi-mx)2Pi, (5.3) \ I X где запись \xi — тх\^г под знаком суммы означает, что суммирование распространяется только на те значения i, для которых Xi отклонится от тх на величину не меньше, чем е. Заменим под знаком суммы (5.3) выражение \xi — тх\ через е. Так как для всех членов суммы имеем \xi — тх\^£, то от такой замены сумма может только уменьшиться, значит D,^ 2 *'Л = е* Z Pf (5-4) \*Гтх\^% \xi-mx\-s 190
Под знаком суммы (5.4) мы имеем вероятность pi только тех значений Xi, которые отклоняются от математического ожидания тх на величину, не меньшую, чем s. Следовательно, 2 Pi = P(\X-mx\2**). Таким образом, Dx^B*P(\X-~mx\^z), откуда непосредственно вытекает доказываемое неравенство (5.1). 2. Пусть теперь случайная величина X непрерывна с плотностью распределения f (x). Тогда СП Dx= 5 {x — mxff{x)dx. (5.5) — оо Выделим на числовой оси вправо и влево от математического ожидания тх отрезки, длиной е каждый (рис. 62). Если в выра- жении (5.5) интеграл ,° \ \ по всей оси Ох заме- ^ ^Г ^Г" *" нить интегралом по области, лежащей вне от- Рис. 62 резка АВ, то, поскольку под интегралом стоит неотрицательная функция, величина интеграла при этом может только уменьшиться, т.е. со Dx= S {x-mx?f{x)dx^ \ (x — mx)*f{x)dx. -со \х—тх\>е (5.6) Заменяя \х — тх\ под знаком интеграла (5.6) через е, мы опять можем только уменьшить величину интеграла. Следовательно, Dx^ \ ea/(*)fifc = ea \ f (x) dx. (5.7) \x~mx\>s lx~mx\>s Интеграл правой части выражения (5.7) представляет собой вероятность того, что случайная величина X примет значение вне отрезка АВ. Поэтому Dx^#P(\X-mx\>t). 191
Отсюда непосредственно вытекает неравенство Чебышева (5.1). Здесь знак ^ заменен знаком ]>, так как для непрерывной величины вероятность точного равенства равна нулю. Неравенство Чебышева может быть записано и в другой форме, применительно к противоположному событию — отклонению случайной величины от математического ожидания меньше, чем на е: Р{\Х-тх\<г)^\-^. (5.8) Замечание. Неравенство Чебышева имеет для практики ограниченное значение, поскольку часто дает грубую оценку. Пусть, например, е= -к Vdx , тогда получим: \DX • Но и без того ясно, что никакая вероятность не может быть больше не только четырех, но даже единицы; с другой стороны, если, например, z—\qYDx, то - p(X-mx\^l0VDx)^j§^-x = 0,01. Это уже неплохая оценка вероятности. Таким образом, мы видим, что неравенство Чебышева полезно лишь при относительно больших е. Теоретическое же значение неравенства Чебышева очень велико. Ниже мы воспользуемся этим неравенством при доказательстве теоремы Чебышева. § 5.3. ТЕОРЕМА ЧЕБЫШЕВА Теорема Чебышева является одной из важнейших форм закона больших чисел. Она устанавливает связь между средним арифметическим наблюдаемых значений случайной величины и ее математическим ожиданием. Теорема Чебышева. При неограниченном увеличении числа независимых испытаний среднее арифметическое наблюдаемых значений случайной величины, имеющей конечную дисперсию, сходится по вероятности к ее математическому ожиданию. Поясним смысл термина «сходится по вероятности». 192
Последовательность случайных величин Хь Хь • -., Хп сходится по вероятности к величене а, если для любого s>0 ИтР(1Хв-а|<6) = 1, п-+ со или более подробно: последовательность случайных величин Хи Х2,... сходится по вероятности к величине а, если для любых s^>0 и 8^>0 существует такое п(г, Ь), начиная с которого выполняется неравенство P(|X„-a|<s)>l-8. Таким образом, теорема Чебышева означает, что если Хи Х2,... независимые одинаково распределенные случайные величины с математическим ожиданием тх не ограниченной дисперсией Dx, то при любом е^>0 НтЯ л — со 1=1 тх < 1. (5.9) Доказательство. Рассмотрим случайную величину Y ' 2* » = i Найдем числовые характеристики случайной величины Y. Пользуясь свойствами числовых характеристик, получим: т ==М[У] = М DV==D[Y] = D S^ j = l п п -1 V П taxi 1=1 М [X;] = — • п- тх = тл 2* i=l »=i Применим теперь к случайной величине У неравенство Чебышева в форме (5.8): P(\Y — /л, 1< s) ss 1 /Л Подставляя в это неравенство выражение для случайной величины У и ее числовых характеристик, получим: 2** — т, < Л£2 (5.10) 7 Гурский 193
Каково бы ни было малое число е^>0, при увеличении числа п величина 1 % стремится к единице. По- этому переходя в неравенстве (5.10) к пределу и учитывая, что вероятность не может быть больше единицы, получим: / ПтР 2* т, \ <е/=1. Теорема доказана. Теорема Чебышева может быть распространена на более общий случай, когда характеристики наблюдаемой случайной величины меняются от опыта к опыту. Оказывается, что и в этом случае при соблюдении некоторых условий среднее арифметическое является устойчивым и сходится по вероятности к определенной не случайной величине. Точнее, имеет место следующая обобщенная теорема Чебышева: при неограниченном увеличении числа независимых испытаний над случайными величинами, имеющими ограниченные дисперсии, среднее арифметическое наблюдаемых значений сходится по вероятности к среднему арифметическому математических ожиданий этих величин, т. е. ПтР га-» со 2 Xi 2 mxi i=l 1=1 О 1. (5.11) Доказательство. Рассмотрим снова случайную величину Y = 2* Характеристики случайной величины Y соответственно равны: *► ту = М DV = D 2*' 2* 2т ГПХ. П 2 DX!. i=\ 194
Применяя к величине Y неравенство Чебышева в форме (5.8), получим: Р(|У-/я,|<е)^1 D у 2 ) ИЛИ 2 * 2 «* i=l *=1 2". ** <* 1 (5.12) Из ограниченности дисперсий следует, что существует такое постоянное число С^>0, для которого DX.<C (i=l, 2,..., п). Поэтому (5.13) Подставляя правую часть (5.13) в неравенство (5.12), отчего последнее может быть лишь усилено, будем иметь: S*« 2 **j <' „2С2 или, переходя к пределу и учитывая, что вероятность не может быть больше единицы, получим доказываемое равенство (5.11). Закон больших чисел может быть распространен и на зависимые случайные величины, лишь бы соблюдалось условие D lim я-» со 2* 1 = 1 0. Это утверждение составляет теорему Маркова. Доказательство теоремы Маркова предоставляется читателю. § 5.4. ТЕОРЕМА БЕРНУЛЛИ Теорема Я- ^ернулли является важнейшей и исторически первой формой закона больших чисел. Она уста: навливает связь между частотой события и его вероят- 7* 195
ностью. Доказательство, данное Бернулли, было весьма сложным. Простое доказательство дано П. Л. Чебыше- вым — как прямое следствие из его теоремы. Теорема Бернулли. При неограниченном увеличении числа независимых опытов в постоянных условиях частота рассматриваемого события А сходится по вероятности к его вероятности р в отдельном опыте. Если обозначить частоту события А в п опытах через р*, теорему Бернулли можно записать в виде: lim />(|р*—р|<е) = 1. (5.14) п -* со Доказательство. Обозначим через Х\ случайную величину — число появлений события А в первом опыте, через Х-2 — число появлений события А во втором опыте и т. д. Каждая из величин Xt (/==1, 2,..., п) есть дискретная случайная величина с двумя возможными значениями: О и 1. Ряд распределения величины X,- имеет вид: xt | 0 | 1 Pi \ Я \ Р где q—\—р есть вероятность непоявления события А в i-u опыте. Математическое ожидание каждой из величин Х{ равно р (см. пример 2, § 4.5), а ее дисперсия равна pq (см. пример 1. § 4.6). Частота р* представляет собой среднее арифметическое случайных величин Хи Х2,... ,* Хп: Применяя к этим величинам теорему Чебышева, получим доказываемое равенство (5.14). Обобщением теоремы Бернулли на случай, когда опыты происходят при неодинаковых условиях, является теорема Пуассона, которая формулируется следующим образом: При неограниченном увеличении числа независимых опытов в переменных условиях частота события А сходится по вероятности к среднему арифметическому его вероятностей pt при данных испытаниях. 196
Доказательство теоремы Пуассона следует из обобщенной теоремы Чебышева, точно так же, как доказательство теоремы Бернулли следует из теоремы Чебышева. § 5.5. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА Рассмотренные в предыдущих параграфах теоремы являются различными формами закона больших чисел. Закон больших чисел устанавливает факт сходимости по вероятности некоторых случайных величин к постоянным их характеристикам. При этом ни в одной из форм закона больших чисел мы не имеем дела с законами распределения случайных величин. В этом параграфе мы рассмотрим вопрос, связанный с отысканием предельного закона распределения суммы когда число слагаемых неограниченно возрастает. Центральная предельная теорема теории вероятностей (теорема Ляпунова) устанавливает условия, при которых указанный предельный закон является нормальным. Различные формы центральной предельной теоремы отличаются между собой условиями, которые накладываются на распределение случайных величин Xi, образующих сумму (5.15). Мы сформулируем и докажем простейшую форму центральной предельной теоремы, когда случайные величины Х\, Хч, ... , Хп взаимно независимы и одинаково распределены. Теорема. Если случайные величины Хи X*, ..., Хп взаимно независимы и имеют один и тот же закон распределения с математическим ожиданием т и дисперсией о-, причем существует третий абсолютный момент v3, то при неограниченном увеличении п закон распределения суммы (5.15) неограниченно приближается к нормальному. Доказательство. При доказательстве этой теоремы воспользуемся характеристическими функциями. Так как случайные величины Хи Хч, ..., Хп имеют один и тот же закон распределения, то они имеют одну и ту же характеристическую функцию gx(t)- Следовательно, в силу формулы (4.55) и взаимной независимости 197
случайных величин Xi характеристическая функция случайной величины Yп будет gyn = lgAt)]n. (5-16) Разложим функцию gx (/) по формуле Маклорена, ограничиваясь тремя членами: г/ (0) д" (0) Ы0 = £Л0)+Ц^/ + ^*а + Яз(*). (5-17) Остаточный член /?3 (0 в форме Лагранжа имеет вид: Rt(t)=^p.^ (0<в<1). При определении коэффициентов разложения (5.17) и оценке остаточного члена Rz (t) положим, что случайные величины Xt непрерывны с плотностью распределения f (х) (для дискретных случайных величин оно будет аналогичным). В таком случае 00 gx(t)= $ e>txf(x)dx (5.18) — 00 и при t — Q оо gx(0)= I f{x)dx=l. — 00 Дифференцируя (5.18) по / и полагая t = 0, получим: со gx(0) = j 5 xf(x)dx = jm. — со Не ограничивая общности, можно считать т = 0 (для этого достаточно 'перенести начало отсчета в точку т). Тогда £И0) = 0. Дифференцируя (5.18) дважды по / и полагая Г = 0, имеем: со g'x{0) = - \ x*f(x)dx. t (5.19) — со При условии, что математическое ожидание случайной величины X равно нулю, интеграл (5.19) есть дисперсия величины X, следовательно, 198
Продифференцируем (5.18) трижды по t, получим: gx {*) = — ! ] №txHx)dx. — 00 Из существования третьего абсолютного момента ъ получаем следующую оценку для остаточного члена формулы (5.17): \R4t)\ = -j J x*e№xf(x)dx 3! f <4l*8|v,. (5.20) 3! (5.21) Подставляя в (5.17) gx (0) = 1, #;.(0) = 0 и g'x (0) будем иметь: gx(t) = i~ii-\-Rt(t). Тогда gyn (0 = [«Г* (01я = [l - у '2 + Я3 (t) Для доказательства того, что закон распределения случайной величины Y'„ при увеличении /г приближается к нормальному, перейдем от величины Yп к нормированной случайной величине 7 — К/г ~ Шу Yn L6otny = M\^Xi]=^iM[Xi] = Q- Dy = D f = i j = i 2* i = l = 2 Z)[X,-] = nae). Характеристическая функция вели- / = i / чины Z„, согласно второму свойству характеристических функций, имеет вид g*A0 = gy/ Отсюда, пользуясь формулой (5.21), получаем: &„ (О t \2 2 \с]Лг f*. = 1 где (согласно опенке (5.20)) ЯЛ<~. 31 ajAz 2л + #: (5.22) 199
Для нахождения предела выражения (5.22) при п -»-оо предварительно прологарифмируем его и используем эквивалентность бесконечно малых, получим: lira lng, (/)=lim [л In (l—£- + /?,)! = П--СО П П — 00 L \ £-n /J = JLmM"(-s + «>) = -T- так как lim | /?ал 1 ^ Hm ^4^-n = 0. n-+ca n -<• oo 3d2n '2 Следовательно, lim gz (f)=*e 2. И -* OO Таким образом, последовательность характеристических функций нормированных сумм Zn сходится при п -> оо к характеристической функции нормированной нормально распределенной случайной величины (см. пример 2, § 4.9). Отсюда заключаем, что и закон распределения величины Zn (а значит, и величины Yn, связанной с Zn линейной зависимостью) неограниченно приближается к нормальному распределению*. Теорема доказана. В практических задачах часто применяют центральную предельную теорему для определения вероятности того, что сумма нескольких случайных величин окажется в заданных пределах. Пример 1. Складываются 24 независимых случайных величины, каждая из которых подчинена закону равно- мернэй плотности распределения на интервале (О, 1). Написать приближенное выражение для плотности суммы этих случайных величин. Найти вероятность того, что сумма будет заключена в пределах от 6 до 8. •it Решение. Пусть Y = ^ X,-, где Х{ — случайные i = l величины, равномерно распределенные на интервале (О, 1). * Здесь мы принимаем без доказательства, что из сходимости характеристических функций следует сходимость законов распределения. 200
Условие центральной предельной теоремы соблюдено, поэтому случайная величина Y имеет приближенно плотность нормального распределения 2з: У2к (5.22) Пользуясь свойствами числовых характеристик, определим математическое ожидание и дисперсию величины Y. Математическое ожидание и дисперсия случайных величин Xi, имеющих равномерное распределение на интервале (0, 1), соответственно равны (см. § 2.9): Шу D, 1_ 12' Следовательно, ту = М г 24 -1 24 z = l J г'=1 24 -, 24 y\D[Xi\ = 2. Подставляя в (5.22), получим: (V— 12)2 fiy) 2/я Применяя формулу (2.40). найдем вероятность того, что сумма (величина Y) будет заключена в пределах от 6 до 8: Р(6<*/<8) = Ф ■'8 - 12 Ф 6- 12 ] = 0,0023. § 5.6. ТЕОРЕМА МУЛВРА — ЛАПЛАСА Случайные величины Хи ..., Хп, фигурирующие в центральной предельной теореме, могут обладать произвольными распределениями вероятностей. Если считать, что все случайные величины Xi одинаково распределены, дискретны и принимают только два возможных значения 0 или 1, то мы придем к теореме Муавра —Лапласа, представляющей собой простейший частный случай центральной предельной теоремы. 201
Теорема Муавра — Лапласа. Если производится п независимых опытов, в каждом из которых событие А появляется с вероятностью р, то для любого интервала (а, (3) справедливо соотношение Р|а<К пр { Vnpq <в = - Ф| У2 нм (5.23) где Y — число появлений события А в п опытах, q=l — р, Ф (х) — функция Лапласа. Доказательство. Пусть производится п независимых опытов, в каждом из которых может появиться событие А с вероятностью р. Тогда число появления события А в п опытах есть случайная величина Y, которую можно представить в виде следующей суммы: где Xi — случайная величина, выражающая число появления события А в i-м опыте. В примере 3 § 2.5 мы показали, что M[Xt]=p, D[Xi] = pq. Следовательно, случайная величина Y является суммой независимых случайных величин Х{, имеющих один и тот же закон распределения с математическим ожиданием т = р и дисперсией a'2 = pq. В таком случае, на основании центральной предельной теоремы, закон распределения случайной величины Y при увеличении числа опытов приближается к нормальному. Поэтому для определения вероятности попадания величины Y в интервал (а, (3) справедлива формула (см. формулу (2.40), § 2.12): Р(7.<У<Р) = Ф '%) V2J Ф V2/ J (5.24) Вычислим математическое ожидание и дисперсию случайной величины Y: ту=М %xt asy = D U = i П -I П 2*i г = 1 ZD[Xi] = Zpq = npq. »=i t=l 202
Подставляя эти выражения в (5.24), получим; Р(*<У<$) = ф/р-^-Л-.ф/'-'цм \V2npqj \V2npqj_ или, перейдя будем иметь: к нормированной случайной (5.25) величине, *>^<i Ф V2 Ф V2/\ У npq Теорема доказана. Теорема Муавра — Лапласа описывает поведение биномиального распределения при больших значениях п. Это обстоятельство позволяет существенно упростить вычисления, связанные с биномиальным распределением при больших п. В самом деле, подсчет вероятности попадания случайной величины Y в интервал (а, Ь) по точной формуле Р(а<7<?) = £ Скяркдя-к а</?<(3 связан при больших п с громоздкими вычислениями. Значительно проще воспользоваться приближенной формулой ,(5.25). Пример 1. Найти вероятность того, что в результате 1000 бросаний монеты число выпадения герба будет заключено в интервале (475, 525). Решение. В этой задаче р = ~, .я =1000. Следовательно, пр = 500, npq = 250. Полагая в формуле (5.25) а = 475, ^ = 525, получим: "ф /525-500\ __ ф /475_-50СЛ \ у обо J \ i/ooo 25 Р(475<Г<525)^- = Ф(- Пример 2. сорта и 10% 1000 изделий. = 0,8854. 90% \wy~6 Завод выпускает Уии/о изделий первого изделий второго сорта. Наугад выбирают Найти вероятность того, что число изделий первого сорта окажется в пределах от 900 до 940. Решение. Вероятность выбора изделия первого сорта р = 0,9, число опытов /г = 1000. Следовательно, np = 900, npq = 90. Применяя формулу (5.25), получим: Р(900<Х<940) = ф (Ш-Ш\ /180 / ф 900 - 900 уш )Ь Ф/ / 40 \6У20) Ф(0) = 0,5. 203
Вопроси для самопроверка 1. В чем заключается сущность закона больших чисел*5 2. Как записывается неравенство Чебышева? 3. Какое практическое и теоретическое значение имеет неравенство Чебышева? 4. Сформулируйте и докажите теорему Чебышева. 5. Чем отличается обычное понятие предела от предела по вероятности? 6. Сформулируйте и докажите обобщенную теорему Чебышева. 7. Какое практическое значение имеют теоремы Чебышева? 8. Объясните, пользуясь теоремой Бернулли, свойство устойчивости относительных частот. 9. Как формулируется теорема Пуассона? 10. В чем заключается сущность центральной предельной теоремы? 11. Сформулируйте и докажите теорему Муавра —Лапласа. 12. Приведите примеры задач, при решении которых применяется теорема Муавра — Лапласа. Упражнения 1. Вероятность наступления события А в каждом испытании равна 0,3. Используя неравенство Чебышева, оценить вероятность тою, что в 10 000 испытаниях отклонение частости события А от вероятности его не превзойдет по абсолютной величине 0,01. Отв. Не меньше 0,79. 2. С помощью неравенства Чебышева оценить вероятность того, что нормальная случайная величина отклонится от своего математического ожидания больше, чем на три средних квадратических отклонения. Отв. Р (| X - тх j s> За) ^-1. 3. Сколько следует проверить деталей, чтобы с вероятностью, не меньшей 0,96, можно было ожидать, что абсолютная величина отклонения частости годных деталей от вероятности детали быть годной, равной 0,98, не превысит 0,02? Отв. я5> 1225. 4. Суточная потребность электроэнергии в населенном пункте является случайной величиной, математическое ожидание которой равно 3000 квтЫ, а дисперсия составляет 2500. Оценить вероятность того, что в ближайшие сутки расход электроэнергии в этом населенном пункте будет от 2500 до 3500 квт\ч. Отв. р 5г 0,99. 5. Среднее квадратическое отклонение каждой из 2500 независимых случайных величин не превосходит 3. Оценить вероятность того, что абсолютная величина отклонения средней арифметической этих случайных величин от средней арифметической их математических ожиданий не превзойдет 0,3. Отв. р ^ 0,96. 204
6. Выборочным путем требуется определить среднюю длину изготовляемых изделий. Сколько нужно обследовать изделий, чтобы с вероятностью, большей 0,9, можно было утверждать, что средняя длина отобранных изделий будет отличаться от математического ожидания этого среднего (принимаемого за среднюю длину изделий во всей партии) не более чем на 0,001 см~> Установлено, что среднее квадратическое отклонение длины детали не превышает 0,04 см. Отв. л 5s 16 000. 7. Вероятность того, что наудачу выбранная деталь окажется бракованной, при каждой проверке одна и та же и ра"вна 0,2. Определить вероятность того, что среди 50 наудачу отобранных деталей бракованных окажется не менее 6. Отв. /7 = 0,921. 8. Известно, что 60% всего числа изготовляемых заводом изделий выпускаются первым сортом. Приемщик берет первые попавшиеся 200 изделий. Чему равна вероятность того, что среди них изделий первого сорта окажется: а) от 120 до 150 шт., б) от 90 до 150 шт.? Отв. а) 0,4999.' 9. Вероятность появления события А в отдельном испытании равна 0,8. Оценить- вероятность того, что при 1000 независимых повторных испытаний отклонение частоты события А от вероятности при отдельном испытании по своей абсолютной величине будет меньше 0,05. Отв. 0,843. 10. Проверкой качества изготовляемых радиоламп установлено, что из них 96°/0 служат не меньше гарантируемого срока в Г часов. Наугад выбирают 15 000 радиоламп. Найти вероятность того, что со сроком службы менее гарантируемого будет: а) от 570 до 630 радиоламп, б) от 600 до 660 радиоламп, в) меньше 615 радиоламп. Отв. а) 0,7887; б) 0,4938; в) 0,734.
Глава б СЛУЧАЙНЫЕ ФУНКЦИИ § 6.1. ОПРЕДЕЛЕНИЕ СЛУЧАЙНОЙ ФУНКЦИИ Функция, значение которой при каждом значении аргумента (или нескольких аргументов) является случайной величиной, называется случайной функцией. Так как случайной величиной называется величина, которая в результате опыта может принимать то или иное значение, неизвестно заранее, какое именно, то из определения -случайной функции следует, что она в результате опыта может принять тот или иной конкретный вид, неизвестно заранее, какой именно. Конкретный вид, принимаемый случайной функцией в результате опыта, называется реализацией случайной функции. Если над случайной функцией произвести группу опытов, то мы получим группу реализаций этой функции. В дальнейшем мы будем обозначать случайные функции прописными буквами латинского алфавита, например X (t), Y (t), Z (/) и т. д., где t — аргумент случайной функции. Реализацию будем обозначать соответствующими малыми буквами, например x(t), y(t), z (t) и т. д. Приведем несколько примеров случайной функции. Пример 1. При передаче сигнала по радиоканалу в приемник радиоканала будут поступать вместе с полезным сигналом также различные помехи, которые являются случайными функциями времени. Пример 2. Отклонение снаряда от расчетной траектории изменяется случайным образом в зависимости от пути, пройденного снарядом. Пример 3. Температуру воздуха в различных точках атмосферы можно рассматривать как случайную функцию четырех аргументов: трех координат,, х, у, г и времени t. Число примеров случайных функций, .встречающихся в технике, можно привести сколько угодно. Действительно, в любом случае, когда мы имеем дело с какой- либо непрерывно работающей системой, то при анализе 2G6
точности работы этой системы нам приходится учитывать наличие случайных помех. Как сами помехи, так и вызванная ими реакция системы представляет собой случайные функции времени. Случайные функции бывают скалярные и векторные. Примером векторной случайной функции может служить отклонение центра массы снаряда от теоретической траектории. Однако анализ векторных функций удобнее производить, проектируя их на некоторые координатные оси или плоскости. Эти проекции будут скалярными случайными функциями. В заключение этого параграфа отметим, что понятие случайной функции является обобщением понятия системы случайных величин. Действительно, пусть имеется некоторая случайная функция X (t), определенная на интервале [а, Ь]. Предположим, что ход изменения этой функции регистрируется с помощью некоторого прибора, который не записывает случайную функцию непрерывно, а регистрирует ее значения через определенные интервалы аргумента /. Обозначим через tu t.2, ..., tm фиксированные значения аргумента t, при которых прибором регистрировались значения случайной функции. Так как согласно определению случайной функции при фиксированном значении / случайная функция превращается в обычную случайную величину, то результаты записи прибора в данном случае представляют собой систему т случайных величин: ■X{h), X(t,)t ..., X{tm). (6.1) Очевидно, при достаточно высоком темпе работы регистрирующего прибора запись значений случайной функции через такие интервалы даст достаточно точное представление о ходе ее изменения. Следовательно, рассмотрение случайной функции можно с некоторым приближением заменить рассмотрением системы случайных величин (6.1). С увеличением числа т такая замена становится все более точной. В пределе число значений аргумента и соответственно число случайных величин (6.1) становится бесконечным. Таким образом, понятие случайной функции является обобщением понятия системы случайных величин, когда этих величин — бесконечное множество (в общем случае— несчетное). 207
§ 6.2. МНОГОМЕРНЫЕ ПЛОТНОСТИ ВЕРОЯТНОСТИ Рассмотрим, каким образом можно дать описание случайной функции с вероятностной точки зрения. Пусть дана некоторая случайная функция X (t). Зафиксируем какое-либо значение аргумента t = t\ и рассмотрим значение X (^) случайной функции X(t). Согласно определению случайной функции, величина X (tx) есть случайная величина, поэтому она может быть охарактеризована законом ее распределения, который обычно выражается функцией распределения' F\ (х; ti) или плотностью вероятности fx (х; ti). Индекс 1 указывает на то, что мы имеем дело с одномерным законом распределения, a U указывает, что закон распределения случайной величины X (t\) может зависеть от выбранного момента времени t\. Если взять произведение f\ (x; t^ dx, то оно является приближенным значением вероятности P{x<X(ti)<x-\-dx), которая имеет простое геометри- Рис. 63 ческое истолкование, а именно: вероятность того, что график реализации x(t) будет пересекать прямую t = U на высоте между х и x-\-dx (рис. 63). Итак, полное описание случайной функции X (/) при фиксированном значении аргумента t дает одномерный закон распределения возможных значений случайной функции при этом значении аргумента, описываемый функцией распределения Fi (x; t) или плотностью вероятности fi (x; t). Однако одномерный закон распределения случайной функции не характеризует связь между значениями случайной функции для различных значений аргумента. Поэтому введем понятие многомерного закона распределения случайной функции (будем рассматривать только плотности вероятности). Зафиксируем два значения аргумента: ty и U. Значения случайной функции X (t) для двух фиксированных значений аргумента t\ и U образуют систему двух случайных величин \X(ty), Х{Щ. x+dx х 208
Для того чтобы охарактеризовать вероятностную связь между парами значений X (^) и X (fa), надо использовать совместную плотность вероятности f-i (хи х%\ /ь fa). Эта функция называется двумерной плотностью вероятности случайной функции. Заметим, что /2 (-^li X%> H> fa) OLX\ иХ<2 есть приближенное значение вероятности Р {Xi < X (/1) < Xi -\- dxu Хъ < X (fa) < х2 + dx<t), которая также может быть истолкована геометрически, как вероятность того, что график реализации х (t) будет, пересекать прямую t = t{ на высоте между хх и Xi-j-dxi, а прямую t — fa— на высоте между х.2 и x^-j-dx^ (рис. 64). Отметим два свойства двумерных плотно- • x,tj стей : 1. Симметрия: /2 (Xl> Х%\ t\, t%) = = f:i(x-2, x{; t-i, t\). 2. Согласованность: со \ fc(xu xr, lu tt)dxi = — CO Очевидно, что и* двумерная плотность вероятности не является полной характеристикой случайной функции. Однако знание двумерных плотностей /2 (х\, х-г, tu fa) достаточно для всех нужд так называемой корреляционной теории случайных процессов. Иногда для получения исчерпывающей характеристики случайной функции надо увеличивать число аргументов плотности вероятности. Для этого выбираются произвольно значения аргумента fa, fa, ... , tn и рассматривается я-мерная плотность вероятности In (х1> %Ъ • • • ) %п'> tn fa, . . . , tn) системы случайных величин X (ti), X (fa), ..., X (tn), являющихся значениями случайной функции X (t) при произвольно выбранных значениях аргумента. Рис. 64 209
§ 6.3. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ И ДИСПЕРСИЯ СЛУЧАЙНОЙ ФУНКЦИИ Получение и использование многомерных плотностей для описания случайных функций при решении практических задач в большинстве случаев сопряжено с очень громоздкими математическими преобразованиями. Поэтому на практике чаще всего пользуются вероятностными характеристиками случайных функций, которые аналогичны числовым характеристикам случайной величины (математическим ожиданием, дисперсией, корреляционным моментом или коэффициентом корреляции). В отличие от числовых характеристик, случайных величин, которые являются постоянными числами, характеристики случайных функций являются неслучайными функциями ее аргументов. В этом параграфе мы познакомимся с двумя характеристиками случайной функции: математическим ожиданием и дисперсией. Математическим ожиданием случайной функции X (/) называется неслучайная функция тх (t) аргумента t, которая при каждом данном значении аргумента равна математическому ожиданию значения случайной функции при том же значении аргумента. По определению математического ожидания (см. (2.15) можно написать: со mx(t) = M[X(t)] = \ xhix, t)dx. (6.2) — со Математическое ожидание случайной функции представляет собой некоторую среднюю функцию, около которой группируются и относительно которой колеблются все реализации рассматриваемой случайной функции. На рис. 65 показана некоторая случайная функция и ее математическое ожидание. Математическое ожидание mx(t) называют также неслучайной составляющей случайного процесса X (t), в то время как разность X(t) = X(t)-mx(t) называют флуктуационной частью процесса. Дисперсией случайной функции X (/) называется неслучайная функция Dx (t) аргумента t, которая при каждом данном значении аргумента равна дисперсии значения случайной функции при том же значении аргумента. 210
По определению дисперсии можно написать: ее Dx(t) = D[X(t)] = J [x — mx(f)]ifl{xf t)dx. (6.3) — оэ Дисперсия случайной функции характеризует разброс реализаций случайной функции относительно математи- 0 t Рис. 65 ческого ожидания случайной функции. Часто вместо дисперсии случайной функции используется среднее квад- ратическое отклонение случайной функции, равное кбрню квадратному из дисперсии: ox(t) = VDx~W)- § 6.4. КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ СЛУЧАЙНОЙ ФУНКЦИИ Математическое ожидание и дисперсия являются весьма важными характеристиками случайной функции, однако для описания основных особенностей случайной функции этих характеристик недостаточно. Например, на рис. 66 и 67 приведены реализации двух случайных функций Хг (t) и Xz(t), имеющих одинаковые математические ожидания и дисперсии. Мы видим, что характер изменения реализации этих двух случайных функций совершенно различен. Так, если случайная функция ^ (t) при некотором значении аргумента t приняла значение, лежащее ниже математического ожидания случайной функции, то мы наверняка можем утверждать, что и в дальнейшем реализация случайной функции пройдет ниже ее математического ожидания. При рассмотрении второй функции 211
этого утверждать нельзя. Следовательно, различие между функциями Xi(t) и Хч(() проявляется в характере связи между значениями случайной функции для различных аргументов t\ и to. Для того, чтобы учесть связь между значениями случайной функции при различных значениях аргумента, Рис. 66 необходимо, как и в случае системы случайных величин, задать., кроме дисперсии, корреляционные моменты значений случайной функции, соответствующие всем возможным парам значений аргумента. Очевидно, если менять пары значений tx и h аргумента t случайной функции X (t) Рис. 67 .или менять интервалы между значениями tx и t2, то будет меняться и корреляционный момент. Значит, корреляционный момент является функцией двух переменных: tx и /.>. Эта функция и называется корреляционной функцией. Таким образом, корреляционной функцией случайной функции X (t) называется неслучайная функция двух аргу- 212
uKx[t,,t2) ментов Kx(tu U), которая при каждой паре значений t\ и h равна корреляционному моменту соответствующих значений случайной функции. Зная двумерный закон распределения f.2(xu x2; tu h) случайной функции X (t), мы можем, согласно определению корреляционного момента (см. формулу (3.28)), опре-' делить корреляционную функцию по формуле К» ('i, U) = М [{X (h)-mx (U)} {X (U) - тх {U))\ = со со = \ \ [x\ — mx(U)\[Xb — mx(U)\X — со — со ХЫ*ь *2; tu t9)dxidxt. (6.4) Из сравнения выражений (б.З) и (6.4) видно, что если аргументы корреляционной функции равны между собой, т. е. ti = ti = t, то Kx(t, t)=Dx(t). (6.5) Таким образом, необходимость в дисперсии как в отдельной характеристике случайной функции отпадает, поэтому в качестве основных ха- ^ рактеристик случайной функции достаточно рассматривать ее математическое ожидание и корреляционную функцию. Отметим основные свойства корреляционной функции. 1. Так как корреляционный момент двух случайных величин X (tx) и X (t2) не зависит от последовательности, в которой эти величины рассматриваются, то корреляционная функция симметрична относительно своих аргументов, т. е. Kx(h, fa)—Kx(ti, tx). Если изобразить корреляционную функцию геометрически, т. е. в виде поверхности, то эта поверхность симметрична относительно плоскости, перпендикулярной к координатной плоскости txOt2 и проходящей через биссектрису угла tiOti (рис. 68). Рис. 68 21Ь
z2 0 tz y4t2,tz) '(t,,t,) tl t, 2. Из "неравенства (4.47) для корреляционного момента и формулы (6.5) получаем второе свойство корреляционной функции: 1 Кх Vu U) 1 < VKx{tu U)-KAh, Ь) = °* (* О ох (U). Таким образом, значение корреляционной функции -в любой точке (tu U) не может превосходить по абсолютной величине среднее геометрическое ее значений на главной диагонали в точках ее пересечения с прямыми, проведенными из данной точки и параллельными соответственно осям Oti и 0U (рис. 69). 3. Если к случайной функции X (t) прибавить неслучайную функцию ср (t), то ее корреляционная функция не изменится. Рис. 69 Доказательство. Прибавим к случайной функции X (t) неслучайную функцию с? (t), получим новую случайную функцию: П0 = Х(*) + ?(9. На основании свойств математического ожидания будем иметь: ту (0= тх (/) + последовательно, Y(t)-my(t) = X(t)-mx(t), а это значит, что Ky(tu h) = Kx(tu Ь). 4. Если умножить случайную функцию X (t) на неслучайную функцию со {t), то ее корреляционная функция умножится на ср (t{) <р (t2). Доказательство. Умножим случайную функцию X (t) на неслучайную функцию <р (t), получим новую случайную функцию Y(t) = ?(t)X(t). На основании свойств математического ожидания имеем: my(t) = 4(t)mx{t). 214
Поэтому Y (t) - my (t) = ? (0 [X (0 - mx{t)l Следовательно, Кy ft, /2) = Ж [{Г (h) - ту ft)} {Y (t9) - my (*,)}] = = M [<? ft) {X (h) - m, (/0} cp (tt) {X (tt) - m, Ш = Часто вместо корреляционной функции Kx(h, h) рассматривают нормированную корреляционную функцию Rx (tu h), определяя ее следующим образом: Г> (i 4 \ А.у \tu to) Нормированная корреляционная функция по смыслу аналогична коэффициенту корреляции для случайных величин, но не является постоянной величиной, а зависит от двух аргументов: t\ и U- Как и коэффициент корреляции, нормированная корреляционная , функция изменяется от—1 до 1. Если оба аргумента нормированной корреляционной функции равны между собой, то Rx(t, /) —1. При увеличении разности U — U значение функции Rx (tlt h) уменьшается и при достаточно большом значении t% —1\ стремится к нулю. Физически это означает, что с увеличением разности U — h отклонения случайной функции от ее математического ожидания для аргументов t% и U все менее зависимы друг от друга. В заключение рассмотрим корреляционную функцию связи. Пусть имеются две случайные функции: X (t) и Y (s). При совместном рассмотрении этих функций необходимо, кроме их математических ожиданий и корреляционных функций, задать еще их корреляционную функцию связи. Корреляционной функцией связи, или взаимной корреляционной функцией двух случайных функций X (t) и Y (s), называется неслучайная функция двух аргументов Кху (t, s), которая при каждой паре значений t, s равна корреляционному моменту соответствующих значений случайных функций X (t) и Y (s): Кху (t,s) = M[{X (0 -mx(t)}{Y (s) - ту (s)}] = со ос = \ 5 [х — тх (t)\ [у — ту (s)] / (*, у\ t, s) dx dy. (6.6) — gc — eg , , 215
В частном случае, если х и у являются случайными функциями одного и того же аргумента t, необходимо в определении корреляционной функции связи двух случайных функций (6.6) положить s — t. Тогда получим: КХу (h, h) == М [{X (*,) - тх (f,)} {Y (h) — ту (t2)}} = где к (*,) = X (h) — тх (U), Y (/*) = Y (t%) - ту {и) и называются центрированными случайными функциями. Случайные функции X (t) и Y (s) называются коррелированными, или связанными, если их корреляционная функция связи не равна тождественно нулю. Если Kxy{t, s) —0, то случайные функции X (t) и Y (s) называются некоррелированными или несвязанными. Наряду с корреляционной функцией связи используется нормированная корреляционная функция Rxy (t, s), равная отношению корреляционной функции связи к средним квадратическим отклонениям случайных функций X (t) и Y (s) для значений аргументов t и s: § 6 5. МОМЕНТЫ ВЫСШИХ ПОРЯДКОВ Математические ожидание случайной функции называют начальным моментом первого порядка, а корреляционную функцию — центральным моментом второго порядка. Согласно определению моментов любого порядка для случайной величины (или системы случайных величин) начальный момент порядка п случайной функции X (t) определяется формулой М'ь Ь, .... tn) = M[X(tl)X(b)...X (*„)]. Центральный момент порядка п случайной функции определяется формулой /С» ft. Ь tn) = M[X{h)X{U)...X{tn)l о где X (t) — отклонение случайной функции X (t) от ее математического ожидания, т. е. центрированная случайная функция. 216
Аналогично можно определить взаимные моменты высших порядков двух случайных функций и взаимные моменты высших порядков нескольких случайных функций. Для определения момента п-го порядка случайной функции X (t) необходимо знать ее «-мерную плотность вероятности In \Xi, -*2» • • • > Хп, 1\, 12» • • • > In) • Тогда начальный момент порядка п случайной функции выразится формулой 4 со со pn(ti, h,..., tn)= 5 ... 5 xix2...*„x — X> — CO X in (xi, x2> • • •» xn; t\, h, ..., tn) aX\... dxn. Аналогичной формулой определяется центральный момент порядка п: со го Kn(ti, •■-, tH)= I ... I (xi — mx(ti))...(xi — mx(ti))X — CO —CO X fn (Xi, • • •, xn; t\, ..., tn) dx\... dxn. В большинстве практических задач теории случайных функций достаточно знания математического ожидания и корреляционной функции. Однако существуют задачи, для точного решения которых недостаточно знать математическое ожидание и корреляционную функцию. Так, например, для точного определения математического ожидания и корреляционной функции случайной функции на выходе существенно нелинейной системы необходимо задать моменты высших порядков случайной функции на входе системы. i § 6.6. ПРИМЕРЫ СЛУЧАЙНЫХ ФУНКЦИЙ Пример 1. Гармонические колебания. Пусть X(t) = Acos(wt^-<p), (6.7) где Л:>=0, шг>0, <р— случайные величины. Каждая реализация * (0 = Л0 cos (cV-f<Po) представляет собой косинусоиду. Множество всех реализаций зависит от трех параметров: Л, со и <?; поэтому 217
для определения вероятностей различных событий в этом множестве реализации необходимо знать трехмерную плотность вероятности f (А, со, ср). В приложениях часто встречается случайная гармоника, для которой фиксирована частота to и фаза ср не зависит от А, причем ср равномерно распределена на отрезке [0, 2тс]. В этом случае множество всех реализаций будет зависеть только от двух параметров: А и ср; причем плотность вероятности будет иметь вид /(Л, <?) = ±fl(A) (0<?<2*). Найдем корреляционную функцию случайной гармоники (6.7). Для этого запишем ее в такой форме: X (t) = a cos Ы -f- P sin со/, где a = /4coscp, р = — Л sin ср, и отметим следующие два свойства случайных величин a и р: 1) M[t] = M\$] = Q; 2) М [а2] = М [р2] = jM [А*], М [ар] = 0. Докажем свойство 2 (свойство 1 доказывается аналогично). Так как случайные величины А и ср независимы, то М [а2] = М [А'] М [cos2 ср], М [р2] = М [Л2] М [sin2 ср], М[л, р] = — ±M[A*]M[s\n2't]. (6.8) Используя предположение о том, что случайная величина ср равномерно распределена на отрезке [0, 2тс], и учитывая, что математическое ожидание случайной величины, являющейся функцией случайной величины ср, можно выразить непосредственно через плотность вероятности случайной величины ср, находим, что 1т. М [cos2 ср] =2^ \ c0s2 ? rfc? == Y» о 2т: 1 С 1 М [sin2 <р] = — \ sin2 ср dv = -к, о М [sin 2?]=^ \ sm2fdf = 0. 218
Подставляя получ'енные значения математически.х ожиданий в равенство (6.8), будем иметь: М[о^]=М[АЦ~, М[$Ч = М[А*]±, М[а, р] = 0. Свойство 2 доказано. Используя свойство 1, получим тх (t) = М [X (t)] — О, т. е. случайная гармоника есть чисто флуктуационныи процесс. Следовательно, используя свойство 2, получим, что корреляционная функция случайной гармоники будет иметь вид Кх (tu tt) = М [{a cos Ых + Р sin oo/j) (а cos u>t9 -\- [3 sin co/2)] — = М [а2 COS co^ COS u>ti -j- ра sin Ы\ COS Ыг + -|-ар cos ш/i sinш/2-f- p2 sin u>ti stna)/o] = = у М [Л2] (cos o)^i cos (o^a -f- sin tati sin otf2) = = ~ M[A-] cos ^(h — h). (6.9) При ti — U получим выражения для дисперсии случайной гармоники: D[X(t)] = Kx(t, 0=4 МИ'] = <£(')• (6-10) Поэтому нормированная корреляционная функция будет Rx(tu f9) = cos (oft — f2). (6.11) Из выражения (6.11) следует, что при | ^ — ^2|-*оо ^* (^Ь ^) не стремится к нулю. Это связано с периодическим характером случайной функции X (t). Пример 2. Телеграфный сигнал. Телеграфным сигналом называется случайная функция X (t), которая может принимать одно из двух значений: 4-я или —а; причем вероятность перемены знака в интервале (t, t-{-t) не зависит от того, что происходит вне этого интервала. Реализация x(t) такого случайного процесса имеет вид, показанный на рис. 70. В таком случае распределение числа перемен знака функции X (t) подчиняется закону Пуассона, поэтому 219
вероятность получения п перемен знака этой функции за время т определяется формулой P(n)=&frK\ (6.12) где X—среднее число перемен знака функции в единицу времени. Найдем корреляционную функцию телеграфного сигнала. Из задания случайной функции X (t) следует, что математическое ожидание "Л'^ равно нулю. Следовательно, „ „ Kx(h, k) = M[X{h)X(U)l а\—г i —j—j—j—i *- Произведение , X (U) X (fa) j j | I может иметь два значения: -\-а\ если число перемен знака за время | ty — U \ яв- Рис- 70 ляется четным числом, и —а\ если число перемен знака нечетно. Так как возможные значения числа перемен знака за время | tx —12 | представляет собой несовместные события, то вероятность получения четного числа перемен знака за это время равна сумме вероятностей Р(0), Р(2), ..., P(2k), а нечетного — сумме вероятностей Р(1), Я(3) P(2k+l). где Р (k) есть вероятность получения k перемен знака за время | U — t.2\. Следовательно, используя определение математического ожидания, получим: Kx(tu Ь)=а*[Р(0) + Р{2)+...]-а*[Р(1) + Р(3) + ...\. Используя формулу (6.12), будем иметь: Kx{hU)=a* £ {--1)*^-г*\)кег^-ь\ = k = 0 Таким образом, корреляционная функция телеграфного сигнала определяется выражением /С* 01. ^) = aV2^'-^. (6.13) 220
§ 6.7. КОМПЛЕКСНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ В приложении часто оказывается удобным рассматривать комплексные случайные функции. Поэтому нам необходимо определить математическое ожидание и корреляционную функцию комплексной случайной функции. Комплексной случайной функцией называется функция вида Z(t) = X(t) + jY(t), где X (t) и Y (t) — действительные случайные функции; / = ]/"— 1—мнимая единица. Пользуясь определением математического ожидания и его свойствами для случайных величин, приходим к следующему определению математического ожидания комплексной случайной функции Z (t): mz{t) = mx(t)-^imy{t). Корреляционной функцией комплексной случайной функции Z (t) называется корреляционный момент ее значений, соответствующих произвольно взятой паре значений tu U аргумента t: Kz(tu h) = M\z{tx)Z{k)\ . (6.14) где ноликом вверху отмечено отклонение случайной функции от ее математического ожидания: Z(t) = Z (t) - тг (t) = *(/) + \Y (t) - тх (t) - fmy (t) = = [X (t) - mx (t)J -f / [Y (t) - my (0J = X (t) + jY (t). Кроме того, Z(t,) = X(h)-jY(t2) (6.15) есть комплексная величина, сопряженная величине Z(h) = X{U)-\-iY{U). (6.16) Определение корреляционной функции построено так, чтобы при tl = t2 = t она обращалась в дисперсию комплексной случайной функции Z (t) (как и для действительной случайной функции). Оказывается, этому требованию нельзя было бы удовлетворить, если бы мы назы- 221
вали корреляционной функцией математическое ожидание о о произведения Z(^)Z(/2), ибо при t\ = h = t математическое ожидание такого произведения будет не действительной функцией, а комплексной, т. е. уже не дает дисперсии, которая, согласно определению, действительна и существенно положительна. Пользуясь формулами (6.14) и (6.15), найдем: Кг (tu к) = М [Z ft) Z ft)] = М [{X (*,) + jY ft)} X X {X ft) - jY ft)}] = М[X ft) X ft)] + M[Y ft) Y ft)] + + i{M[Y ft) X ft)]~M[X ft) Y ft)]}, или, принимая во внимание определения корреляционной функции и корреляционной функции связи действительных случайных функций, имеем: Kz{tu U) = Kx{tu h)-\-Ky{tb h) + + i[Kyx{tu h)~Kxy{tu k)]. (6.17) Эта формула выражает корреляционную функцию комплексной случайной функции через корреляционные функции и корреляционные функции связи ее действительной и мнимой частей. В случае, когда действительная и мнимая части комплексной случайной функции некоррелированы, т. е. Kxy(h, h) = 0, формула (6.17) имеет вид Kz{h, t9)=Kx(tu h)+Ky(tu t9). (6.18) Из формулы (6.14) при ti=ti==t вытекает определение дисперсии комплексной случайной функции: D[z{t)] = M[\Z(t)\*}, или, подставляя сюда выражение (6.16) случайной функции, получим: D[Z(t)) = M[{X(t)y-\-{Y(t)}*} = = М[{Х «)}*] +М [{Y (t)}*]==D[X{t)] + DlY (t)]. (6.19) Таким образом, дисперсия комплексной случайной функции равна сумме дисперсий ее действительной и мнимой частей. 222
§ 6.8. ОПЕРАЦИИ НАД СЛУЧАЙНЫМИ ФУНКЦИЯМИ При решении многих практических задач приходится определять характеристики случайных функций .на выходе некоторой динамической системы по известным характеристикам случайных функций на входе этой системы. Под динамической системой понимаем любой прибор, счетно-решающий механизм, систему автоматического управления и т. п. Например, при анализе работы какой-либо системы автоматического регулирования или управления нам обычно известны характеристики возмущающих факторов на входе системы, а требуется оценивать точность работы на выходе системы. Решение задачи определения характеристик преобразованной случайной функции имеет особенно большое значение при проектировании различных систем, когда отсутствует возможность оценки интересующих нас характеристик из опытных x(t) данных. Рассмотрим самый простой случай: когда на вход Рис '1 системы (рис. 71) подается случайная функция X (t) с известными характеристиками. Система А осуществляет над этой случайной функцией некоторые преобразования, в результате которых получается новая случайная функция Y (t), характеристики которой требуется определить. Запишем это преобразование символически в виде Y(t) = A{X(t)}. Преобразование (оператор) А может иметь любой вид: простое умножение на неслучайную функцию, дифференцирование или интегрирование и т. д. Все виды подобных преобразований можно разбить на две различные группы: линейные и нелинейные. В свою очередь линейные преобразования делятся на однородные и неоднородные. Линейными однородными преобразованиями, которые будем обозначать буквой L, называются преобразования, обладающие следующими свойствами. 1. К сумме функций оператор L может применяться почленно: L {X, (0 f X, (t)}=L{X1 (t)} -{- L {X, (/)}. (6.20) Ylt)
Р. Постоянную величину С можно выносить за знак оператора: L{CX(t)}=CL{X(t)}. (6.21) Примеры линейных однородных операторов: а) оператор умножения на заданную функцию f (t) Y(t)=f(t)Y(t); - б) оператор дифференцирования dX(t) Y(t) в) оператор интегрирования t dt Y (0 = \ X (t) dt. Линейные операции могут быть и неоднородными, если они состоят из линейных однородных операций с прибавлением заданной функции /(/): L{X(t)} = U{X(t)}-\-f(t), где L0—линейный однородный оператор. Примеры линейных неоднородных операций: а) Y(t) = fy(t)X(t) + h(t); б) no = ^ + f(0; в) Y(t) = ]X(t)dt + f(t). о К нелинейным операциям относятся все виды преобразований, не удовлетворяющие условиям (6.20) и (6.21). Например, нелинейной операцией будет ПО = **(/). Рассмотрим задачу определения характеристик на выходе линейной системы (т. е. системы, оператор которой является линейным) для некоторых видов линейных операторов. 224
1. Умножение случайной функции на неслучайную функцию Дана случайная функция X (t) с метематическим ожиданием mx(t) и корреляционной функцией Kx(h, h). Случайная функция Y (t) связана со случайной функцией X (/) следующим образом: Y(t) = f(t)X(t). • Требуется определить математическое ожидание и корреляционную функцию случайной функции Y (t). Находим математическое ожидание my(t) = M[Y(t)] = M[f(t)X(t)]. Поскольку / (/) является неслучайной функцией, то ее можно вынести из-под знака математического ожидания. Тогда my(t)=f(t)mx(t), (6.22) т. е. при умножении случайной функции на неслучайную функцию математическое ожидание случайной функции умножается на эту неслучайную функцию. Найдем корреляционную функцию Ky(t\, t2). По определению Ку (/,. U) = M[Y (tt) Y (t9)] = М [{X (tt) f (tt) - - mx (tt) f (h)} {X (/,) f ft) - mx (h) f (h)}]. Вынесем* неслучайную функцию / (t) за знак математического ожидания, получим: Ку (fi, U) = f (h) f (tt) M [X ft) X (h)} = f(ti)f (h) Kx (tu b), (6.23) т. е. при умножении случайной функции на неслучайную функцию корреляционную функцию случайной функции для аргументов tv и U следует дважды умножить на эту неслучайную функцию для аргументов t\ и U. Заметим, что если Y(t) = CX(t), где С—постоянная величина, то my(t) = Cmx(t),. Ky(h, h) = C*Kx(tuU). 8 гурский 225
2\ Производная от случайной функций Пусть линейное преобразование случайной функции состоит в дифференцировании ее: у <о=^. Математическое ожидание mx{t) и корреляционная функция Kxifu h) случайной функции X (t) заданы. Требуется найти mv(t) и Kv(ti, fa). Представим производную в виде предела: Y(t) X(t + to) — X(t) to (6.24) Применим к равенству (6.24) операцию математического ожидания. Предполагая, что математическое ожидание предела равно пределу математического ожидания, получим: тх (t + М) — тх (t) __ dmx (t) my(t) = M[Y (01 Итак, = lim •w-o to dt my(t) dmx (t) ~tt~' (6.25) т. е. математическое ожидание производной от случайной функции равно производной от математического ожидания случайной функции. Значит, операцию дифференцирования %. операцию математического ожидания можно менять местами. Для определения корреляционной функции К.у (tu fa) и перейдем к центрированным случайным функциям Y (t) о и X (/); очевидно*, Y(t) dX (t) dt ' (6.26) По определению Ky(tu Ь) = м[$(и)У{Ь)]. Подставив вместо Y (tt) и Y (tz) их выражения из (6.26), получим: Ky(tu fa) = M rdk{fa) dX(ts) dtt dt* 226
Представляя выражение под знаком математического ожидания в виде второй смешанной частной производной и, учитывая, что операцию дифференцирования и математического ожидания можно менять местами, будем иметь к, </„ h) = зг^г- л* [* «о * С) I = ^W*2. (6-27) т. е. корреляционная функция производной от случайной функции равна второй смешанной частной производной от корреляционной функции исходной случайной функции. При определении характеристик производной случайной функции предполагалось, что случайная функция X(t) является непрерывной и производная ее существует. Случайная функция X (t) называется непрерывной, если для любого значения аргумента t и сколько угодно малого е^>0 выполняется равенство lim Р(1Х(/-1-Д0 — Х(/)|>е)=0. д/-*о. Это равенство означает, что для непрерывной случайной функции должна существовать статистическая связь между значениями случайной функции при аргументах / и r-j-Д/ для достаточно малого Ы. Если же для любого Д/ связь между значениями случайной функции отсутствует, то с вероятностью, равной единице, функция является разрывной для любого /. Пример. На вход дифференцирующего механизма поступает случайная функция X (t) с математическим ожиданием mx{f) = А sinotf и корреляционной функцией Kx(tuh) = Dxe-Wi-<*)\ где Dx—постоянная дисперсия случайной функции X (г). Определить математическое ожидание и дисперсию на выходе системы. Решение. Используя формулы (6.25) и (6.27), получим: mv(t)=—±^ = аА cos at, 8* 227
Полагая tx = U = t, имеем: Dy (t) = 2$DX. Из последнего равенства видно, что дисперсия на выходе дифференцирующего механизма зависит не только от дисперсии Dx на входе, но и от параметров корреляционной функции Kx(h, U). 3. Интеграл от случайной функции Пусть линейное преобразование случайной функции состоит в ее интегрировании: t Y {t) = \X{t)dt. (6.28) о Известны характеристики случайной функции X (t), требуется определить математическое ожидание ту (t) и корреляционную функцию Ку (h, U) случайной функции Y(t). Представим интеграл (6.28) как предел интегральной суммы t Y (t) = \ X (t) dt = lim 2 х ft) ¥i (6-29) 0 тахД^. — о i и применим к равенству (6.29) операцию математического ожидания, полагая, что операции отыскания предела и математического ожидания можно поменять местами: my(t) = M[Y(t)] = M\ lim ^Х^)^ max At. -* о i = lim 2iM[X(ti)Mi]= lim 2>*('<)д4 = тахД/. -*• о i тахД/.-*0 i Итак, jj mx (t) dt. my{t) = \mx{t)dt, . (6.30) т. е. математическое ожидание интеграла от случайной функции равно интегралу от математического ожидания этой случайной функции. Иными словами, операцию интегрирования и операцию математического ожидания можно менять местами. Ж
Найдем корреляционную функцию Ky(h, h). Для этого составим произведение Y (/,) Y (h) = \X (U) dh\ X (h) dh, (6.31) о о - о о где X (t) и Y (t) — центрированные случайные функции. Произведение двух интегралов в правой части равенства (6.31) можно рассматривать как двойной интеграл: $ X (h) dd f X (h) dh = \\X (h) X (h) dh dh. 0 0 0 0, Следовательно, Y {tx) Y (h) = \\X (tx) X (h) dty dh. . (6.32) о о Применим теперь к равенству (6.32) операцию математического ожидания и поменяем ее в право» части с операцией интегрирования, получим: Ку (h, h) = M[Y (h) Y (/,)] = $ $ M [x (h) X (h)] dh dh, о о или Ky (h, h) = H Kx (U, h) dh dh. (6.33) о о Таким образом, корреляционная функция интеграла от случайной функции равна двойному интегралу от корреляционной функции исходной случайной функции. Пример. Характеристики случайной функции X (t) заданы выражениями тх (t) = 2t -f- 3; Kx (ti, h) = cos tx cos ta. Найти характеристики случайной функции t y(0=4$X(/)tfc. о Решение. Так как случайная функция Y(t) есть результат двух последовательных операций (интегрирование и умножение на неслучайную функцию), примененных 229
к данной случайной функции X (t), то, используя формулы (6.24), (6.30) и (6.33), получим: my(t) = \^ (2f + 3)<tt = y(^-f3*) = * + 3, /Су (Л, /а) = о = — j- \ V cos ^ cos fo d/i dt-i = jj sin ^ sin fa, Dy (t) = о о = /(,(*, /)-=isin2/. 4. Сложение случайных функций Пусть в результате сложения двух случайных функций одного аргумента X (t) и У it) получена новая случайная функция Известны характеристики исходных функций: математические ожидания mx(t) и my(t), корреляционные функции Kx{t\, fa) и Ky(ti, fa), корреляционная функция связи KXy(t\> fa)- Требуется найти характеристики случайной функции Z (t). Применяя к равенству (6.34) операцию математического ожидания, получим: mz(t) = mx{t)-\-my(t), (6.35) т. е. при сложении двух случайных функций их математические ожидания складываются. Корреляционная функция случайной функции Z (t) выражается формулой (доказательство которой предлагается читателю) КЛ*и fa) = Kx(tu fa)-lKy(tu fa)-YKxy{tu tJ-\-Kxy(fa, fa). (6.36) В случае, когда случайные функции X (t) и У (t) не- коррелированы, Kxy{t\, fa)~0 и формула (6.36) принимает вид: K,{tu fa)=Kx{fa, fa)+Ky(fa, fa), (6.37) т. е. при сложении некоррелированных случайных функций их корреляционные функции складываются. Выведенные формулы могут быть обобщены па случай произвольного числа слагаемых. 230
§ 6.9. КАНОНИЧЕСКОЕ РАЗЛОЖЕНИЕ СЛУЧАЙНЫХ ФУНКЦИЙ В § 6.8 были изложены общие правила определения характеристик случайной функции после линейного преобразования. Правило преобразования математического ожидания при практическом применении затруднений не вызывает. Что касается двойного преобразования корреляционной функции, то оно в ряде случаев приводит к очень громоздким операциям, что затрудняет практическое использование рассмотренных методов. Значительное упрощение правил определения характеристик случайной функции после линейного преобразования может быть получено применением метода канониче- kx'L' ских разложений, разработанного В. С. Пугачевым [1]. Идея метода канонических разложений состоит в представлении случайной функции в виде суммы элементарных случайных функций. Простейшей случайной функцией называется функция вида X{t) = Xf(t), (6.38) гдэ X — обычная случайная величина; ср (/) — неслучайная функция.' Все реализации такой функции изображаются подобными кривыми, которые могут быть совмещены друг с другом путем изменения масштаба по оси ординат (рис. 72). При этом ось абсцисс тоже изображает реализацию, которая соответствует возможному значению А' —О случайной величины X. Определим характеристики простейшей случайной функции (6.38). Имеем: тх (t) = М[Ху (/)] = ? (*) М [X] = ? (0 тх, где тх — математическое ожидание случайной величины X. Если тх = 0, то математическое ожидание случайной функции X (/) также равно нулю для всех /: mAt) = 0. В этом случае простейиая случайная функция (6.33) называется элементарной случайной функцией. ^%=^ ' 231
Определим корреляционную функцию элементарной случайной функции. Имеем: Кх (k, k) = M[X (к) X (к)] = М iXcp (к) Xcp (Ь)] = = «р (/i) ? (к) М [X2] = ? (к) ? (/,) D„ где D^ — дисперсия случайной величины X. о Рассмотрим теперь случайную функцию Х(/), которая является суммой взаимно некоррелированных элементарных случайных функций: о т X(t) = ^Xib(t). (6.39) Из взаимной некоррелированности элементарных случайных функций, входящих в сумму (6.39), следует взаимная некоррелированность случайных величин Xt-. Очевидно, математическое ожидание случайной функ- о » ции X (t) равно нулю (так как математическое ожидание каждого слагаемого правой части (6.39) равно нулю). Найдем корреляционную функцию случайной функ- 0 ции X(t). По определению . КЛк, k) = M[°X(k)X(k)]. (6.40) где X(*i) = 2] XmCO. (6-41) i = l rri *(/«) = 2 xib(k). ' (6.42) i = l Перемножая выражения (6.41) и (6.42) и применяя к произведению операцию математического ожидания, получим: Кх(к, к)=№ %Х1Ь(к)ХуЬ.(к) = 2 М[Х,-Ху]<р, ft) ?/('»). (6.43) ч где суммирование распространяется на все пары значений, как равные, так и неравные. В случае, когда i = j, M[XiXJ]=M[X)] = Di, где Dt — дисперсия случайной величины X*. 232
В случае, когда / Ф /, так как по условию случайные величины X,- взаимно некоррелированы и, следовательно, корреляционный момент Kij = 0. Подставляя эти значения в формулу (6.43), получим выражение для корреляционной функции случайной функ- о ции X (t), заданной разложением (6.39) т Kx(tu 40 = 2 b{h)^j{U)Di. (6.44) Согласно одному из основных свойств корреляционной функции *(§ 6.4) все случайные функции, отличающиеся друг от друга только произвольным неслучайным слагаемым, имеют одну и ту же корреляционную функцию, поэтому случайная функция X (0 = тх (t) + X(t) = тх (t) -f 2 Хт (t), (6.45) где m.x(t) - неслучайная функция, имеет корреляционную, функцию, определяемую формулой (6.44). Математическое ожидание случайной функции, определяемой равенством (6.45), очевидно, равно mx{t)\ lA[X(t)] = mx{t). о Значит, случайная функция X (t), определяемая равенством (6.39), является отклонением случайной функции X (t) от ее математического ожидания. Итак, случайная функция 'X (t), определяемая равенством (6.45), имеет математическое ожидание mx(t) и корреляционную функцию Кх (tu fa) определяемую равенством (6.44). Представление случайной функции X (t) в виде суммы ее математического ожидания и взаимно некоррелированных элементарных случайных функций называется каноническим разложением случайной функции X (t). Случайные величины Xi называются коэффициентами канонического разложения, а неслучайные функции ср; (t) — координатными функциями канонического разложения. Выражение (6.44) называется каноническим разложением корреляционной функции. 233
Полагая в формуле (6.44) tx = t.2, мы получим дисперсию случайной функции X (t) т ПХ = Ц> 1<Р.-(01*А- »■= 1 Таким образом, зная каноническое разложение случайной функции X (t), можно сразу найти каноническое разложение ее корреляционной функции. Обратное тоже справедливо, а именно: если задано каноническое разложение корреляционной функции вида (6.44), то для случайной функции X (t) справедливо каноническое разложение вида (6.45). Мы принимаем это положение без доказательства (см. [[}). Канонические разложения случайных функций очень удобны для выполнения различных операций над случайными функциями, особенно линейных. Это объясняется тем, что в каноническом разложении случайной функции X (t) мы имеем дело только со случайными величинами, которые являются коэффициентами разложения. Зависимость же случайной функции X (t) от ее аргумента t выражается координатными функциями cpi (0» которые являются вполне определенными неслучайными функциями. Поэтому выполнение различных операций над случайной функцией X (t) (например, дифференцирование, интегрирование и т. д.) сводится при помощи канонического разложения к соответствующим операциям над неслучайными координатными функциями <р; (t), т. е. к обычным операциям математического анализа. § 6.10. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ В приложениях очень часто приходится встречаться со случайными процессами, которые протекают во времени приблизительно однородно и имеют вид непрерывных случайных колебаний вокруг некоторого среднего значения. Такие случайные процессы называются стационарными. Примерами стационарных случайных процессов могут служить: 1) случайные шумы в радиоприемнике,, 2) колебание самолета на установившемся режиме горизонтального полета, 3) колебания напряжения в электрической сети и т. д. - 234
В связи с тем, что стационарные случайные процессы часто встречаются при решении физических и технических задач, на практике получила широкое применение специальная теория,, стационарных процессов, иди, иначе, теория стационарных случайных функций. Дадим точное определение стационарной случайной функции. Стационарной случайной, функцией называется такая случайная функция X (t), математическое ожидание которой постоянно, а корреляционг %ч функция зависит только от разности аргументов, т. е. тх (0 == const, Kx{tu k) = kx(x), где x = ti — ti. Это так называемое определение стационарной случайной функции в широком смысле. Для теории, оперирующей только с математическими ожиданиями и корреляционными функциями, достаточно приведенного определения стационарности случайной функции в широком смысле. Случайную функцию X (t) называют стационарной в узком смысле, если все ее многомерные плотности вероятности fn (Xi, ..., хп, ti, ..., tn) при любом п зависят только от интервалов U — h, ■•■> tn —t\ и не зависят от положения этих интервалов в области изменения аргумента /. Так как в большинстве случаев мы будем интересоваться только характеристиками случайной функции mx(t) и Kx{t\, h), то в дальнейшем будем рассматривать только стационарные случайные функции в широком смысле. Из определения стационарной случайной функции следует, что корреляционная функция стационарной случайной функции является функцией не двух, а одной переменной. Это обстоятельство в ряде случаев значительно упрощает операции над стационарными случайными функциями. На основании рассмотренных свойств корреляционной функции произвольной случайной функции (см. § 6.4) сформулируем основные свойства корреляционной функции стационарной случайной функции: 1) М0) = АЛ9, т. е. дисперсия стационарной случайной функции постоянна и равна значению корреляционной функции в начале координат; 2) М--0 = Мт), 235
Т. е. корреляционная функция стационарной случайной функции является четной; 3) |Mt)|<MO) = D,(*). Из свойств 2 и 3 следует, что график корреляционной функции симметричен.относительно оси координат и расположен в горизонтальной полосе [—Dx(t); Dx(t)]. На практике вместо корреляционной функции kx{x) часто пользуются нормированной корреляционной функцией иX где Dx = kx(0) — постоянная дисперсия стационарного процесса. Функция р* (т) есть не что иное, как коэффи- лКх№ Рис. 73 циент корреляции между значениями случайной функции, разделенными интервалом т по времени. Очевидно, что Р,(0)=1. Рассмотрим примеры стационарных процессов. Пример 1. Гармоническое колебание X (t) = A cos (cot -f- ф) = a cos Ы -j- p sin Ы является стационарным процессом. Действительно, в примере 1 § 6.6 мы показали, что математическое ожидание случайной гармоники равно нулю, а корреляционная функция имеет вид %х (tu U) — у М [Л2] COS со (ti — *а) = o.l COS сот, т. е. зависит только от разности аргументов. График корреляционной функции представляет собой косинусоиду (рис. 73). Заметим, что случайная гармоника с фиксированной начальной фазой <р —ср0 является уже нестационарным случайным процессом. В самом деле, если X(0*=i4cosK + (Po), то М [X (/)] =М [А ] cos (со/ -}- <Ро) ф const. 236
Пример 2. Телеграфный сигнал (см. пример 2 § б.6) является стационарным процессом, так как математическое ожидание равно нулю, а корреляционная функция имеет вид Kx{tb u) = a*e-2xi'i-'*i, или kx (т) = а*е~2Х М. График корреляционной функции имеет вид, показанный на рис. 74. ,„ , В заключение этого параграфа отметим, что при совместном рассмот- .^ рении нескольких ста- ^^^^^^^ ционарных случайных — х функций необходимо ° г. учитывать возможную Рис. 74 связь между отдельными случайными функциями. Эта связь характеризуется взаимной корреляционной функцией. Введем следующее определение: случайные процессы X (t) и Y (t) называются стационарно связанными, если их взаимная корреляционная функция Кху ifu fa) = = М {[X (fa) - mx (fa)} {Y (fa) - my (fa)}) = kxy (т) зависит только от i = fa— fa. § 6.11. ЭРГОДИЧЕСКОЕ СВОЙСТВО СТАЦИОНАРНОЙ СЛУЧАЙНОЙ ФУНКЦИИ -. Пусть имеется произвольная случайная функция X (t). Требуется найти оценки для характеристик этой случайной функции: ее математического ожидания пгх (/), дисперсии Dx(t) и корреляционной функции Kx(t\, fa)- Для решения этой задачи нужно либо знать одномерную и двумерную плотности вероятности случайной функции X (t), либо располагать достаточно большим числом реализации этой случайной функции для того, чтобы иметь возможность подсчитать эти характеристики приближенно (например, заменяя математическое ожидание средним арифметическим для каждого значения случайной функции). Большинство стационарных случайных функций обладает очень важным для практики эргодическим свойством, 237
сущность которого состоит в том, что по одной достаточно длинной, отдельной реализации можно судить о всех свойствах функции так же как по любому количеству реализаций. Если стационарная случайная функция X (t) .обладает ;ргодическим свойством, то для нее среднее по времени приближенно равно среднему по множеству реализаций (на достаточном большом участке наблюдения). То же будет верно и для X2(t), X (t) Х(/-)-т). Следовательно, математическое ожидание, дисперсию и корреляционную функцию можно будет приближенно определять по одной достаточно длинной реализации. Математически эргодическое свойство для указанных характеристик записывается в таком виде: со * Т mx(t)=\ x]x{x,t)dx = lim ~г \ x(t)dt, (6.46) «' Г-со li .)_. — оо — / со Dx(t)= $ [x-mx(f)\*fi(x, Odx = — со 7 = lim ± [ \x{t)-mx{t)?dt, (6.47) со op kx($ = 5 S \xi — mx{ti)]\Xi — mx(ti)]X — CO — CO 7 Xh(xi, *i\ tit t9)dxidxi= lim w \ [x (t) — mx(t)}X - Г—со z/ _J X[x(tJr^) — mx(t))dt, (6.48) где x (t) -любая реализация случайной функции X (t). Стационарные случайные функции могут обладать свойствами эргодичности по отношению к моментам не всех порядков. Так, например, случайные функции могут быть эргодичны по отношению только к двум первым моментам, а по отношению к моментам высших порядков не являются эргодичными. Но так как для описания случайной функции мы пользуемся только математическим ожиданием и корреляционной функцией, то будем считать стационарную случайную функцию эргодичной в том случае, если условие эргодичности выполняется для этих характеристик. 238
Не все стационарные функции обладают свойством эргодичности даже по отношению к моментам первого порядка. На рис. 75 приведены реализации стационарной случайной функции X (t), для определения математического ожидания которой мы не можем пользоваться осреднением значений одной реализации по аргументу /, ибо полученный результат будет . зависеть от выбранной pea- " ' ' лизации и вообще иметь зиа- -^_,—^,—. ^_^_. чение, отличное от математи- I В частности, неэргодич- —- —i арность случайного процесса * может быть связана с пали- Рис. 75 чием в его составе слагаемого в виде обычной случайной величины. Действительно, рассмотрим случайную функцию Z (Q = *(*) +К, (6.49) где X (t)'- стационарная функция, обладающая свойством эргодичности, с характеристиками mx(t) и &л-(т); К — случайная величина с характеристиками ту и Dy. Предположим, что X (t) и Y некоррелированы. Тогда тг (t) = тх (/) -f- mv, (6.50) ^(') = M[i(0i(/H-x)l = M[{i(0 + K}X Х{Х(/ + т) + У)]==*,('О + 0у. (6.51) Из формул (6.50) и (6.51) видно, что случайная функция Z (I) является стационарной. Однако она не обладает свойством эргодичности, так как каждая ее реализация будет по характеру отличаться от других. Именно, каждая реализация случайной функции Z (t) будет обладать тем или иным средним по времени значением в зависимости оттого, какое значение приняла случайная величина Y (рис. 76). Об эргодичности или неэргодичности стационарного случайного процесса можно судить по его корреляционной функции. Если корреляционная функция kx (х) стремится к нулю при неограниченном возрастании х (корреляционная связь между значениями случайного процесса неограниченно убывает по мере увеличения расстояния между ними), то это является достаточным усло- 239
Рис. 76 вием для того, чтобы случайный процесс X (/) обладал свойством эргодичности относительно моментов второго порядка (т. е. дисперсии и корреляционной функции). Рассмотренная случайная функция (6.49) имеет корреляционную функцию т. е. она отличается от корреляционной функции стационарной случайной функции X (/) наличием постоянного слагаемого Dy. В то время как корреляционная функция kx (х) —> 0 при х —> сю , функция kz (т) уже не стремится к нулю при х — оо , а приближается к Dy. Пример. Определить, является ли эргодичной случайная гармоника X{t) = A cos (и/ 4- ?) = = a cos Ы -f- p sin Ы. Решение. В примере 1 § 6 и примере 1 § 10, определяя характеристики mx(t) и kx(x) как среднее по совокупности реализаций, мы показали, что mx(t) = Q, kx (z) = ax cos сох. Найдем эти же характеристики как среднее по аргументу t для некоторой реализации, т. е. для некоторых фиксированных значений А==а\ и <? = 9i: т т mx{t) = \\m sr \ x(t)dt= lim ^ \ «i cos (Ы -f~ ?i) d/= = a1Hm^8lnK + ?l)r =0; &Л. (x) = lim кг \ a\cos (ш^ + "Pi) ai cos (^ H~ a)x ~b ?t) ^ = Г-оо JT т = lim ^| \ {cosсот-}-cos ((ox-j-2co/ -f-29i)}d/ — T-,caZ1 Z J„ = lim coscox- sin (2(лТ -f-№X + 2?i) — sin (— 2u>T -f-№X 4" 2?i) = ~ COS cox. 240
Сравнивая полученные результаты, видим, что тх (/) = тх (/); kx (х) ф /e.v(x). Следовательно, рассматриваемая случайная гармоника по отношению к математическому ожиданию обладает свойством эргодичности, но по отношению к корреляционной функции этим свойством не обладает (<4 cos сох ^ ^^cosioTi, так как #i — некоторое значение случайной величины. Этот же результат мы получим, если используем сформулированное свойство эргодичности по корреляционной функции. Действительно, kx (х) = <з^ cos а>т при х -> со не стремится к нулю, а это значит, что случайная гармоника не обладает свойством эргодичности. § 6.12. СПЕКТРАЛЬНОЕ РАЗЛОЖЕНИЕ СТАЦИОНАРНОЙ СЛУЧАЙНОЙ ФУНКЦИИ НА КОНЕЧНОМ ИНТЕРВАЛЕ Спектральным разложением некоторой функции называется представление ее в виде суммы гармонических колебаний, имеющих разные амплитуды и частоты. Зависимость амплитуды гармоники от частоты называется спектром функции. Рассмотрим, каким образом можно получить спектральное разложение стационарной случайной функции. Пусть дана стацио-' нарная случайная функ- \ KzITI ция X (t) на конечном интервале [—Т, Т]. Пусть kx (x) — корреляционная функция случайной функции X (t). При изменении t\ и U в интервале [— Т, Т] разность t\ — h = х, очевидно, изменяется в интервале [—27\ 2Т]. Поэтому в этом интервале и следует рассматривать корреляционную функцию кх(^). Функция kx{z) есть четная функция: - kx(—^) = kx(x), и следовательно, на графике она изобразится симметричной относительно вертикальной оси кривой (рис. 77). Рис. 77 241
Мы знаем, что четную функцию на интервале [—27\ 2Т] можно разложить в ряд Фурье по косинусам: kx (*) = 2 Dk cos ык х, (6.52) fe=0 где i 2л 71 <ok = k<*>1; («! = — = — , а коэффициенты ряда определяются по известным формулам теории рядов Фурье: 2Г 1 А) =4? \ к-Лх)&, -2/ 27" \ Dk — ^p \ kx(x)cos(akxdx при k^O -2Т или, в силу четности корреляционной функции, А>=ог \ kx{x)dz, 2Т IT Dk = jr\ kx(x) cos<e*TdT. Представив формулу (6.52) в виде 00 kx (h — /«) = 2 Dfe cos t0* ^~~ '«)= ft = 0 oo = 2 Dk (cos шЛ ^ cos u)fc /2 -j- sin a)ft /x sin 1% /2), убеждаемся в том, что формула (6.52) дает каноническое разложение корреляционной функции стационарной случайной- функции, координатными функциями которого являются попеременно синусы и косинусы частот, кратных щ: cosukt, sinoo/^ {k — 0, 1, 2,...). Мы знаем, что по каноническому разложению корреляционной функции можно построить каноническое раз- 242
ложение самой случайной функции X (/) с теми же координатными функциями: X(t) = mx(t)+ 2 {Ykcos<okt + Zks\n<okt), (6.53] где Yk и Zk (k = 0, 1, 2,...) — взаимно некоррелированные случайной величины с равными нулю математическими ожиданиями, причем величины Yk и Zk с одинаковым номером- k имеют одну и ту же дисперсию Dk. Все коэффициенты Dk разложения (6.52) положительны. Каноническое разложение (6.53) случайной функции X (/), координатными функциями которого являются функции cosoo/,,^ sinco/j/ при различных шк, называется спектральным разложением стационарной случайной функции. Спектральное разложение изображает стационарную случайную функцию,, разложенную на случайные гармоники различных частот R Lt-V (V ^ (ЙЬ <Й3) . J*> Рас. 78 Определяем дисперсию случайной функции X (t), заданной спектральным разложением (6.53). На основании свойства дисперсии имеем: DAt)=D[X(t)) 2 (cos2«)^-j-sin2 fe=0 t)Dk= Y Dk> k^ 0 (6.54) т. е. дисперсия стационарной случайной функции равна сумме дисперсий всех случайных гармоник ее спектрального разложения. Формула (6.54) показывает, что дисперсия случайной функции известным образом распределена по различным частотам. Графически распределение дисперсий по частотам можно проиллюстрировать в виде так называемого спектра стационарной случайной функции (рис. 78). Очевидно, сумма всех ординат построенного таким образом спектра равна дисперсии случайной функции X (t). В ряде случаев, с точки зрения простоты математических преобразований, удобно пользоваться спектраль-
ным разложением не в действительной форме, а в комплексной. Поэтому представим спектральное разложение (6.53) случайной функции X (t) в комплексной форме. Воспользуемся формулами Эйлера; cosooA/ = -x , sinoofe^— — 2 ' J1" R"~ 2/ ~ Подставляя эти выражения в формулу,(6.53) и учитывая, что ооЛ = /гоо1, оо0 = 0, получим: / J^b1 I —J(X>t,i X (t)=mx (t) + П + 2 [Yk e—~^ - /2» ' * ~' = mx (t) + Y.+ 2 2Ц/& е/"*' + k = \ , 00 _|_y2V±^*e-/V. (6.55) ft=i Положим Y-k = Yk, Z-k — Zk и распространим.условно область частот шЛ на отрицательные значения со; в качестве частот спектрального разложения будем рассматривать значения щ = кщ . {k = ±l, ±2, ±3,...). Тогда формулу (6.55) можем записать так: 00 —00 X (t)=mx (t) + Уо + 2 ^Г^ е^ + 2 ^H^V'V, a=i fc=-i или где X(t)=mx(t)+ 2 */**'"*', (6.56) k = — CO (/*==У0 при 6 = 0, ' Uk = y*-2jz* при *>0, tfA = 2V±£* при Л<0. 244
Разложение (6.56) представляет собой каноническое разложение случайной функции X (t) с комплексными координатными функциями е]Шь и комплексными коэффициентами Uk- Чтобы убедиться в. этом, достаточно показать, что случайные коэффициенты этого разложения не коррелированы между собой. (Доказательство этого условия представляется читателю). Определим корреляционную функцию случайной функции X (t), представленной в виде формулы (6.56). Пользуясь общим определением корреляционной функции комплексной случайной-функции (6.14) для элементарной комплексной случайной функции U (t) = U® (t), где случайная величина U и функция <р (0 — комплексны, будем иметь: Ки (h, ь)=м [и? (*,) ЦЩ]=? (h)Vih) м [\ и н = Следовательно, корреляционная функция случайной функции X (/), представленной каноническим разложением (6.56), выражается формулой k = — со со со k= — со & = — со или, переходя к аргументу т = ^ — U, со *А*)= 2 D%eiak\ (6.57) &= — со Выражение (6.57) представляет собой ряд Фурье функции kx (x) в комплексной форме. Поэтому, используя формулы коэффициентов ряда Фурье, имеем: D*k = 4T \ kAx)e~}i*kX dx> где «)fe==^, —it или, учитывая, что kx(x) — четная функция, 1Т D2 = -2 D* = 2f \ kx (т) cos Wa х dx- 246
§ 6.13. СПЕКТРАЛЬНОЕ -РАЗЛОЖЕНИЕ СТАЦИОНАРНОЙ СЛУЧАЙНОЙ ФУНКЦИИ НА БЕСКОНЕЧНОМ ИНТЕРВАЛЕ. СПЕКТРАЛЬНАЯ ПЛОТНОСТЬ СТАЦИОНАРНОЙ СЛУЧАЙНОЙ ФУНКЦИИ Спектральное разложение случайной функции на ограниченном интервале I—Т, Т] дает только приближенное описание случайной функции. Более полное представление о случайной функции при ее спектральном разложении может быть получено при увеличении величины Т. Поэтому целесообразно вывести из формул предыдущего параграфа предельные формулы путем предельного перехода при Г-*оо. При Т -> оо а)1 = _-->0; это значит, что расстояния между частотами шь на которых строится спектр, будут при Т-*оо неограниченно уменьшаться, т. е. дискретный спектр разложения переходит в непрерывный и вместо дисперсии амплитуды гармоники каждой частоты следует рассматривать плотность дисперсии амплитуд на единицу частоты. Рассмотрим отношение дисперсии амплитуды любой гармоники Dk к приращению частоты Да) = а)1 = ^ при ограниченном Т. Отношение li = 2JlT = S*T^) (6-58) представляет собой среднюю плотность дисперсии на единицу частоты. Учитывая, что 27 Dk — ^T \ kx(x)cos(okxdx -27 27 — \ kx (т) cos oofe xdx. (6.59) Отсюда при Т ->- оо (шк становится непрерывной величиной, поэтому индекс k опускаем) имеем: 5д. (ш) = — \ kx (х) cos cox dx. ' (6.60) и Д(о = ^, получим: 2Т S*r К) 246
со Функция 5x(w) определяет плотность распределения дисперсии гармонических колебаний разложения в зависимости от частоты и поэтому называется спектральной плотностью стационарной случайной функции. Спектральная плотность любой стационарной случайной функции является неотрицательной функцией ш. Действительно, в силу равенства (6.58), функция SxT^k) ^>0 для любого oofe. Поэтому предел этой функции при Т-+СО не может быть отрица- \$х(ы) тельным. Кривая Sx (со) (рис. 79) изображает плотность распределения дисперсий по частотам непрерыв- . ного спектра. Распространяя условно область частот со и на отрицательные значения, из выражения (6.60) получим, что спектральная плотность является четной функцией, т. е. Sx (и) = SX (—<*>). Найдем выражение, определяющее обратный переход от спектральной плотности к корреляционной функции. Из выражения (6.58) имеем: Dk = SxT(Mk) А со. Подставляя эти выражения в формулу (6.52), получим: со k* (T) = 2 5.V7- К) cos u)ft гДсо. При переходе к пределу при Т-*со сумма переходит в интеграл. Получим: Рис. 79 kx (т) = ^ Sx (со) cos сот dw. (6.61) Так как Sx (со) cos сох является четной функцией со, то на основании свойства интеграла от четной функции равенство (6.61) можно записать в виде: kx {х)= - \ Sx (со) COS сот dco. 247
Таким образом, корреляционная функция и спектральная плотность стационарной случайной функции X (t) связаны между собой следующими преобразованиями: со Sx (со) = — V kx (т) cos сот dx, \ (6-62) kx (т) = -д- \ 5л; (о>) cos cot dco. Эти выражения определяют прямое и обратное преобразования Фурье, которые являются обобщением разложения непериодической функции на бесконечном интервале на гармонические колебания. Преобразования Фурье (6.62) можно записать в комплексной форме: SxH kx(?) Так как е~'тх = cos сот— /sin сот, а функции Sx (со,) и kx(t) являются четными функциями, то при спектральном разложении стационарной случайной функции выражения (6.62) и (6.63) совершенно эквивалентны. Полагая во второй из формул (6.62) т = 0и принимая во внимание, что kx(0) — Dx = ax, получим: со со Dx = ох = 1 ^ Sx (со) du> = |j S, (со) do), (6.64) — со 6 т. е. интеграл от спектральной плотности равен дисперсии или квадрату среднего квадратического отклонения стационарной случайной функции. Соотношение (6.64) нашло весьма широкое применение при определении дисперсии или среднего квадратического отклонения стационарной случайной функции. Спектральную плотность случайной функции можно рассматривать как «энергетический спектр» случайной со 5 Ял» е^Жю. (6.63) 246
функции. Это объясняется тем, что в качестве стационарной случайной функции часто рассматриваются такие величины, как ток и напряжение. Тогда распределение дисперсий, имеющих квадрат размерности амплитуды сигнала, пропорционально плотности распределения энергии сигнала по частотам. На практике вместо спектральной плотности Sx (со) часто пользуются нормированной спектральной плотностью ' ' Sx (а)) Н Dx где Dx — дисперсия случайной функции. Заметим, что нормированная корреляционная функция рх(ъ) и нормированная спектральная плотность о^(оо) связаны теми же преобразованиями Фурье: оо Рх 0е) = \ °х Н COS (fit d(D, о ■ . , (6.65) '*Н = - J Px (*) COS сот dx. Полагая в первом из равенств (6.65) т = 0 и 'учитывая, что рж(0) = 1, получим: ах (со) rfta = 1, т. е. полн-ая площадь, ограниченная графиком нормированной спектральной плотности, равна единице! 'Пример 1. Рассмотрим телеграфный сигнал. В примере 2 § 6.6 была вычислена его корреляционная функция /^(т) = а9е-2хМ. Решение. Найдем спектральную плотность телеграфного сигнала, воспользовавшись формулой (6.63): ОО 00 Sx(^) = ~ [ kx{x)e-'(0zdx = ~ \ a*e-2Xi^e-fa"dT. — 00 , —00 249
Разобьем этот интеграл на два: Sx (u>) = а- п [21-j 1 - (ЙА+/Ю) 1 _— со (2Х-/'<») т 10 2Х+ус -1—1 = < 2X-fycoJ 7i (4X 4Х«2 A Sr М аг 7ГХ о 7t[2X —уы I 2X-fycoJ я (4Х« -f со2) ' График спектральной плотности телеграфного сигнала изображен на рис. 80. Он показывает, что - наибольшее значение спектральной плотности приходится на низкие частоты. Пример 2. Установить, является ли функ- £j ЦИЯ k (т) = оVX! Ti COS соо-с , корреляционной функцией - случайной функции X (t). Рис. SO Решение. Рассмотрим преобразование Фурье со 'со Sx (<•>) = ~ { k (x) e-^'-di = -~ [ oVЛ'т' cos «o^ (cos U)T — / sin on) dx = ~ \ e-AlT coswo^costotdt—^- \ e-AiT'X — CO —CO X costo0T sin Ш- dx. Так как функция е- х IT i cos щх sin to- является нечетной, то оэ \ е~к'т I cos ш0т sin ш- dx = Q. — оо Функция е~к ,т fcos щх cos шх— четная, следовательно 00 S^ (to) = — \ е cos щх cos ш- dt = о 00 ОО = ~ \ е~кт cos (wo +«)) ~ rft -{- — \ е-Лт cos (ш0 — со) т d- = о" А *гг~т о-Х * [Xs -f Wo + w)"'i ' ™ IXs + К ~ w)*] * 250
Итак, функция Sx И = мх» + к + ш)Ч + г. [х= + К - <■>)*] поэтому функция yfe(-c) = oV ?*- Л I Т COS ш0х является корреляционной функцией. nSxM О, График функции Sx(u>) изображен на рис. 81. Из графика видно, что наибольшее значение спектральная плотность Sx((o) имеет при ш = ш0. § 6.14. ПРИМЕРЫ СТАЦИОНАРНЫХ СЛУЧАЙНЫХ ФУНКЦИЙ В этом параграфе рассмотрим конкретные типы стационарных случайных функций и их характеристики. 1. Белый шум Белым шумом называется случайный процесс с постоянной спектральной плотностью для всех частот от О до оо. Понятие «белый шум» аналогично понятию «белый цвет», который получается при равномерном смешении всех цветов видимого спектра. Для белого шума характерно равномерное распределение энергии сигнала по всем частотам от 0 до оо. Реально такие процессы не существуют, так как энергия такого сигнала должна быть бесконечной, но понятие «белого шума» является удобной абстракцией для тех случаев, когда спектральная плотность сигнала примерно постоянна на всем интересующем нас диапазоне частот. Пусть дана стационарная случайная функция X (t), спектральная плотность которой на интервале [щ, щ] 251
является постоянной и равна нулю вне этого интервала. В таком случае нормированная спектральная плотность аналитически описывается выражением О Мш) ■' в, — со. при ox^tof, При U^s^Ws при ы^>щ. ш2; График нормированной спектральной плотности изображен на рис. 82. Найдем нормированную корреляционную функцию случайной функции X (t), воспользовавшись первой формулой (6.65): со а>2 ?х (х) = \ ах (ш) COS <«х dw = \ COS шх du> = 1 1 (sin щх - sino^x). Т (Сй2 — COi) Посмотрим, как будет изменяться рх (х) при щ 1 щ: Р*(х) игл з X (й)8 — COj) (sin ш.2х — sin щх) = lim —т- COj—Ю) 2 /W, 4- О), \ . /СОа — СО COS WT ' х Sin -*-=—- x >l) COS U)2X.- При нахождении предела мы использовали первый замечательный предел sin х lim 1. Случайная функция, для которой корреляционная функция имеет вид (6.67), является синусоидой (см. пример 1 § 6.6). Заметим, что если щ -> ш.2, то спектр случайной функции превращается в дискретный с одной линией в точке щ. Пусть теперь ш1==0. Тогда нормированная корреляционная функция (6.66) принимает вид Р* (*) = -— Sin ЩХ. 252
Рис. 83 График этой корреляционной функции приведен на рис.'83. Если ш2->оо, то мы получаем белый шум с нормированной корреляционной функцией , ч ,. 1 . (1 при г = 0, о (т)= lim —sinco9-c=J r Шз^оо^а \ 0 при г ^0. Для прлучения корреляционной функции белого шума умножим нормированную корреляционную функцию на дисперсию случайной функции X(t). Будем иметь: Г Dx при х = 0, ' ^(г)=1 0 при г^О. Таким образом, для белого шума корреляционная функция везде равна нулю, кроме точки г —0'. Это означает, что для белого шума совершенно отсутствует связь между значениями случайной функции для любых значений аргументов t\ и tit если t\ Ф U. В заключение еще раз подчеркнем, что всякий реальный процесс, у, которого спектральная плотность сохраняет постоянное значение в пределах некоторой полосы частот, определяемой характером задачи, может рассматриваться как белый шум. 2. Случайная функция с линейной корреляционной функцией Рассмотрим стационарную случайную функцию X (/), корреляционная функция которой на интервале от 0 до х0 является линейной функцией и имеет вид: ■ (D^(l-f) ПРиО<г<т0, ' { 0 при t^>x0. График этой корреляционной функции приведен на рис. 84. Линейная корреляционная функция может быть использована для аппроксимации быстро затухающей монотонной корреляционной функции. 253
Найдем спектральную плотность случайной функции X (t), использовав для этого первую формулу (6.62): 00 СО Sx (со) = — \ kx (т) COS сот d~ = — \ kx (х) COS сох dx = — оэ ^ О о Этот интеграл представим в виде суммы двух интегралов, один из которых является табличным, а второй интегрируется по частям. Получим: "о то Sx (со) = —- \ COS сот tfx - \ х COS сох их = 2DV • —- Sin cox TiCO -о 2DX ■ |то , 2Ц* }° ■ , -tsiii ют -А i\ smcoxax = О тмх0 |о ' <icot0 J 2DX COScox —\ (1 — coscox0) = —^sm- -к-. TITqCO" 2 (6.69) График 5д. (со) приведен на рис. 85. Из формул (6.68) и (6.69) видно, что при уменьшении т0 корреляционная функция сжимается, а спектральная ^Sx(u) Рис. 84 Рис. 85 плотность растягивается и, наоборот, при увеличении х0 корреляционная функция растягивается, а спектральная плотность сжимается. ' * 3. Случайная функция с показательной корреляционной функцией Рассматривая телеграфный сигнал, мы видели, что корреляционная функция имеет вид показательной фуик- 254
ции. Рассмотрим теперь случайный процесс X (t), корреляционная функция которого имеет вид kx{T)=Dxe~^\ (6.70) т. е. является показательной функцией. Подобную корреляционную функцию имеют случайные процессы, обладающие тесной'связыо между значениями функции X (t), разделенными малым интервалом значения аргумента. График функции (6.70) изображен на рис. 86. Найдем спектральную плотность случайной функции X (t), использовав для этого первую формулу (6.63): \кхт со - со a2z20-;wx dx = °i\ e-rf^-s^dx. Рис. 86 Преобразуем показатель степени к полному квадрату: aV — /шх = — йЧ2 — /сох У'' у2ш2 , /со2 4а2 4а2 = — ах - ■ 2а Тогда SxH = ^f \e - а, + 4а2 /со 2а J 4-j2 d* = Dx-j± {' -{<" + /со 2aUx. Применим замену переменной: , /ш , , dt ai-\-J— — t, откуда di = — ; получим: D *0 4 V ' 0.7. a- dt. 255
Интеграл в этом выражении является интегралом Пуассона и равен Y™, поэтому 5Л">) = -^=в_й!. (6.71) ау я Сравнивая формулы (6.70) и (6.71), мы видим, что в этом примере корреляционная функция и спектральная плотность выражаются через однотипные показательные функции. Поэтому график функции Sx (u>) имеет такой же вид, что и график функции kx(x). § 6.15. ПРЕОБРАЗОВАНИЕ СТАЦИОНАРНОЙ СЛУЧАЙНОЙ ФУНКЦИИ ЛИНЕЙНОЙ СИСТЕМОЙ Ранее были рассмотрены общие правила определения характеристик случайной функции после линейного преобразования. Рассматривая каноническое разложение случайной функции, мы отметили, что задача линейного преобразования случайной функции сводится к задаче такого же линейного преобразования над неслучайными координатными функциями. Для стационарной случайной функции задачу линейных пре- x(t) Рис. 87 ■ . образований удается еще — > более упростить. Пусть на вход линейной динамической системы с постоянными параметрами (такую систему называют стационарной линейной системой) поступает стационарная случайная функция, характеристики которой известны. На выходе системы получим случайную функцию, характеристики которой требуется определить. . Схема работы системы условно изображена на рис. 87. Работа линейно-динамической системы с постоянными параметрами описывается обыкновенным дифференциальным уравнением с постоянными коэффициентами, которое имеет следующий вид: an^Y{t) + an-^Y{t)-\-... + a,Y{t) = = bm^mX{t)-\~Ът-Х 1£1хЦ)+... + ЪьК (0 (6.72) 256
или, если обозначить оператор дифференцирования через р, (апрп + an-lPn~l +... + со) Y (/) = = (bmpm+bm-iPmr+ + ...'+b0)X(t). (6.73) Обозначая эти линейные операции через Ап (р) и Вт(р), запишем выражение (6.73) в таком виде: An(p)Y(t) = Bm(p)X(t). (6.74) Наконец, условно разрешая уравнение относительно Y (t), получим: Отношение операторов Вт(р) и Лп(р) называется передаточной характеристикой системы и обозначается Ф (р): Y(t) = d>(p)X{t). (6.76) Ограничимся рассмотрением участков времени, достаточно удаленных от начала процесса, когда все переходные процессы в системе можно считать законченными и система работает в установившемся режиме. В таком случае, если на входе линейной системы — стационарная случайная функция X (t), то на выходе системы получим случайную функцию Y (t), которая будет также стационарной. Так как координатные функции спектрального разложения стационарной случайной функции X (t) представляют собой гармонические колебания, то рассмотрим, как преобразуется линейной системой гармоническое колебание, заданное в виде Реакцию системы будем искать опять в виде гармонического* колебания у(() = Ае?ы, (6.77) где Л — коэффициент, который следует определить. Подставив выражение для x(t) и у (t) в уравнение (6.72), получим: ап~ (Леш) + а^^ (Ае?<*() +... + а0А^( = = Ьт ~efwt + Ьт_г ^т** + • • • + Ь*Р*. (6.78) */89 гурский 257
Так как то, сокращая выражение (6.78) на &**, получим: Л (аа (/to)" + ап_г (/а,)-1 +... + до) = = Ьт (Мт + Ьт.1 (/С»)'"-1 + • • . + Ьо. Отсюда, полагая, что Ап (/ш) ^ О, имеем: Л = №| = Ф(/ш), Следовательно, г/(0 = Ф(/ш)^. Передаточная характеристика Ф (р) я/ж р = /to «ози- вается частотной характеристикой. Частотная характеристика Ф (/ш) в общем случае является комплексной величиной. Таким образом, если на вход линейной системы с постоянными параметрами поступает гармоническое колебание вида e,w, то реакция системы представляется в'виде того же гармонического колебания, умноженного на частотную характеристику Ф (/ш). Модуль частотной характеристики | Ф (/ш) | является коэффициентом усиления амплитуды гармонического колебания с частотой ш. ■ Соотношение между вещественной . и мнимой частями частотной характеристики определяет сдвиг фазы гармонического колебания на частоте to. Пусть теперь случайная функция X (/) представлена на интервале (О, Т) в виде спектрального разложения [см. (6.56)]: 00 X(t) = mx+ 2 tV'V. fc = — со При прохождении через линейную систему каждый член этого разложения будет умножаться на частотную характеристику Ф (/">). (Математическое ожидание стационарной случайной функции X (t) будем рассматривать как гармоническое колебание нулевой частоты ш = 0). оо К(0 = Ф(0)т,-Ь 2 ^Ф(/Ч)^' = k = — со с» = /11,4- £ ^Ф(«^. (6.79) fee—С» 258
Так как Ф(0)=Л, "О ТО Ф(0)тх = ^-тх = ту. «о Случайная функция Y (t) представлена в виде спектрального разложения (6.79). Определим спектр этого разложения. Для этого найдем дисперсию комплексной случайной величины Uk® (/«ft): D[икФ(/Ч)] = М[| икФ(/Ч)Н = М[\ик\*\Ф(/Ч) |2] = = Iф 04) I2 M [| Uk |21 = | Ф (/Ч) |* Dk. Таким образом, при преобразовании стационарной случайной функции стационарной линейной системой каждая из ординат ее спектра умножается на квадрат модуля частотной характеристики системы для соответствующей частоты. Переходя от разложения случайной функции X (t) на конечном интервале с дискретным спектром Dk к разложению на бесконечном интервале значений t с непрерывным спектром, аналогично можем записать: 5>И = |Ф(/«о)|в5ЛЧ т. е. при преобразовании стационарной случайной функции стационарной линейной системы ее спектральная плотность умножается на квадрат модуля частотной характеристики системы. Итак, общий порядок решения поставленной в начале этого параграфа задачи следующий: 1. Находим математическое ожидание на выходе системы: ту = ^тх. (6.80) 2. По корреляционной функции kx (т) входной случайной функции X (t) находим спектральную плотность Sx (to) сигнала на входе системы: 00 S*H=4 \kx(x)e~^dx. (6.81) — 00 259
3. Находим спектральную плотность сигнала на выходе системы, умножая Sx(u>) на квадрат модуля частотной характеристики системы Ф(/о>): Sy(t») = \<!>(j*)\*Sx(u). (6-82) 4. Находим корреляционную функцию случайной функции на выходе системы: 00 Ау(т)=1 J Sy{to)J*zdu. (6.83) — 00 Очень часто нас интересует только дисперсия сигнала на выходе системы. Тогда из формулы (6.83) при т = 0 получаем более простую формулу: * 00 Dy = \- jj Sy(u)d<o — 00 или, учитывая четность функции, 00 Dy=*lSy(<i>)d<o. (6.84) о Пример. На вход линейной динамической системы, описываемой дифференциальным уравнением первого порядка поступает случайная функция X (/) с математическим ожиданием тх и корреляционной функцией kx(x) = Dxe-«^K где а — положительный коэффициент. Найти математическое ожидание ту и дисперсию Dy на выходе системы. Решение. На основании формулы (6.80) находим: ту = -±тх. ао. Спектральную плотность сигнала на входе систем определяем, воспользовавшись примером 1 § 6.13: S*(m) 2Рха я (а2 4- со2) ' 260
Находим частотную характеристику системы Ф(/<о). Для этого записываем уравнение системы в операторной форме: (aiP + flo)y(O==(&iP + 0o)X(O. Отсюда (р = /ш) <u(ta) = bJ.* + b\ Тогда |Ф(/ш),2=й4±»|. 1 и " afw2 -f- a] Определяем спектральную плотность сигнала на выходе системы: Sv (о)) = I Ф (/(о) |2 5Х (ш) == У, + &! • Л^" . . Далее по формуле (6.84) находим дисперсию сигнала на выходе системы: со о Этот интеграл может быть вычислен разложением подынтегрального выражения на простые дроби. Произведя интегрирование, получим: e0fli (aaj + ^o) ' Вопросы для самопроверка 1. Какая функция называется случайной? Приведите примеры случайных функций. 2. Что называется реализацией случайной функции? 3. Какая существует связь между понятием случайной функции и понятием системы случайных величин? 4. Каким образом' можно дать описание случайной функции с вероятностной точки зрения? 5. Дайте определения математического ожидания, дисперсии и корреляционной функции случайной функции. 6 Какая существует связь между дисперсией и корреляционной функцией? 7. Назовите основные свойства корреляционной функции. 8. Чем отличается нормированная корреляционная функция от корреляционной функции? 9. Дайте определение корреляционной функции связи и укажите, что она характеризует. 10. Какие преобразования случайных функций называются линейными? Приведите примеры линейных преобразований. 9 Гурский 261
11. Чему равны математическое ожидание и корреляционная функция от произведения случайной функции на неслучайную функцию? 12. Чему равны математическое ожидание и корреляционная функция производной от случайной функции? 13. Чему равны математическое ожидание и корреляционная функция интеграла от случайной функции? 14. Какая случайная функция называется элементарной? 15. В чем заключается идея канонического разложения случайной функции? 16. Какая случайная функция называется стационарной? Приведите примеры стационарных случайных функций. 17. Сформулируйте основные свойства корреляционной функции стационарной случайной функции. 18. В чем заключается эргодическое свойство стационарных случайных функций? Приведите примеры стационарных случайных функций, которые обладают эргодическим свойством и которые не обладают эргодическим свойством. 19. Что называется спектральным разложением функции? 20. Какими преобразованиями связаны между собой корреляционная функция и спектральная плотность стационарной случайной функции? 21. Какой стационарный случайный процесс называется белым шумом? 22. Что называется передаточной характеристикой линейной системы? 23. Как преобразуется стационарная случайная функция стационарной линейной системой? Упражнения. 1. Плотность вероятности fY (х, t) случайной функции X (t) равна {х — a sin/)2 1/2*9 ' где а и о — постоянные, причем а;>0. Найти математическое ожидание и дисперсию случайной функции X(t). Отв. тх (t) = a sin t, Dx (t) = a2 2. Двумерная плотность вероятности /s (хи х2; tu ts) случайной функции X (t) равна . Найти: а) математическое ожидание и дисперсию случайной функции X(t); б) корреляционную функцию случайной функции X(t). Отв. а) 0; а2; б) корреляционная функция Кх {*и ^s) = ff2 при tx = t% и Кх (*ь *з) = 0 при tt ф t». 3. Математическое ожидание и корреляционная функция случайной функции X{t) заданы выражениями тх (0 = t -f 4; Кх (tit h) = txt%. 262
Найти характеристики случайной функции Y(t) = 5tX(t) + 2. Отв. ту (t) = 5t* + 20t + 2; Kv (tu tt) = 2bt\tf, Dv (t) = 25Л 4. Характеристики случайной функции Х(г') заданы выражениями: тх (t) = t* + 3^; /Сд. (*lf *,) = е~'*~% Найти характеристики случайной функции Отв. mv (t) = 2*3; Kv (tu tt) = At\t\e~'»~ % Dy = At6e~ m. 5. Характеристики случайной функции X (t) заданы выражениями: тх (t) = At -j- 5; AT* (^, ts) — cos ^ cos ts. Найти характеристики случайной функции t Y(t) = ~ix{x)d-z-\-t. о Отв. ту (t) = 3^ -j- 5; Ку {tu ts) = —- sin tt sin ^2; 6. На вход дифференцируемого механизма поступает случайная функция X (t) с математическим ожиданием mx(t) = Asmt и корреляционной функцией Kx(ti,tt) = Dxe-a«*-W, где Dx —постоянная дисперсия случайной функции X(t). Определить математическое ожидание и дисперсию на выходе системы. Отв. ту (t) = A cos t; Dy (t) = 2Dxa. 7. На вход динамической системы поступает случайная функция X (i), характеристики которой известны: тх (0 = 2е(; Кх (tif h) = ^е V". Работа системы описывается оператором вида Y{t) = ~ ^X(x)dx + fi о Определить характеристики случайной функции Y(t) на выходе системы. Отв. mv(t) = t* + ^(et - I); 9* 263
8. Случайная функция X{t) имеет вид X (t) — Xt\ где X — случайная величина с математическим ожиданием, равным 2, и дисперсией, равной 1. Найти характеристики случайной функции X(t). Отв. mx(t) = 2?\ Kx (tlt tt) = t\t\. 9. Случайная функция X(t) задана выражением X (t) = 2 4- Xtt + АУ2, где Xi и Xt — некоррелированные случайные величины с математическими ожиданиями тх — — 3, тх =2 и дисперсиями Dx =2, Dx =3. Найти характеристики случайной функции X(t). Отв. тх \t) = 2 - 3t + 2г2; Кх (tu tt) = 2tltiS + ШЩ; Dx (t) = 2t* -f 3t\ 10. Случайная функция X(t) задана каноническим разложением X (t) = cos t + A\ + Xtt + АУ cos t + АУ2. Дисперсии случайных величин АУ АУ АУ X4 известны и соответственно равны Di, D%, Z)3, D4. Найти математическое ожидание, корреляционную функцию и дисперсию случайной функции X(t). Отв. тх (t) == cos t; Кх (tu tt) = D, + Datita + Datytt cos ^ cos U Л- DJ.\t% Dx (t) = Di + £y2 + /Vs cos2 * 4- ZV4. И. Корреляционная функция Kx{tuta) случайной функции Л (О задана каноническим разложением Кх (tu tt) = 3^2 4- t\t\ 4- 5*де. Найти каноническое разложени-е центрированной случайной функ- о ции X(t). Отв. X (t) = АУ 4- АУ2 4- АУ3, причем Dx =3, £>„ =1, Dx =5. 12. Случайная функция X(£) задана каноническим разложением Л" (t) = * 4- *i cos 2^ 4- X. sin 2t. Дисперсии случайных величин Xi и Х2 известны и равны 2. Найти каноническое разложение и характеристики случайной функции Y(t)=3tX(t) + 2t\ Отв. Y (0 = Ыг 4- ЗЛУ cos 2t -f ЗЛУ sin 2f, my(t) = 5t2; Ky(ti,ta) = mtticos2{ta-tiy, Dy (t) = Ш». 13. На вход динамической системы поступает случайная функция X(t), заданная в виде канонического разложения X (0 = 1+ АУ + ЛУа 4- X,t\ * 264
причем Dx=\, DXs = DX3 = 2. Работа системы описывается оператором вида Y{t) = 2t^Jp- + Zt\ Найти каноническое разложение и характеристики случайной функции X{t) на выходе системы. Отв. УУ) = 3^ + 2Х^ + 4Х^* + 6Х^3; ту (t) = 3ts; Ку (ti, U) = 4ttt2 + Z2t\t\ + 12t\tf, Dy (t) = 4ts + 32^4 + 72te. 14. Случайная функция X (t) задана каноническим разложением X (t) = 1 -f- Xi cos co^ -f- ^2 sin <&it + Xa cos a>st -j- X4 sin to2£. Известны дисперсии коэффициентов разложения D = Dx = 1, Dx =DK =2. Найти характеристики случайной функции X(t). Установить, является ли случайная функция X(t) стационарной. Отв. mx{t)= 1; Кх Ci» tt) = cos <ot (*я - ti) + 2 cos co2 (*, — ^); D^ (t) = 3; X(0 является стационарной случайной функцией. 15. Нормированная корреляционная функция рх (х) стационарной случайной функции X{t) задана выражением ' ,„,_( 1~Т" ПрИ 1х1<то, Р* (х) — 1 Т° [ 0 при | х j 5г х0. Найти нормированную спектральную плотность a^(co). 2 Отв. ах (ы) = г (1 — cos <мх0). 16. Спектральная плотность Sx(^) стационарной случайной функции X(t) задана выражением ш2 где а>0. Определить корреляционную функцию ^(х). Отв. кх(г)=У'Пх~е-"2. 17. Нормированная корреляционная функция p*(x) стационарной случайной функции X{t) имеет вид рх (х) = ё~a'^ ' cos со0х, где а>0. Определить нормированную спектральную плотность ах(со). О™. аЛ. (со) = £ [a2 + (J_Wo)2 + ^-+(с! + ШоГ] • 18. Корреляционная функция kx (т) стационарной случайной функции задана выражением kx (х) = £)д.£~ат" cosco0x, где а>0. Определить спектральную плотность S* (to). (0J-fcO0)2 (Ц)-Ш0)3-[ ' ^ J. Owe. Sx (со) = - /ит 4a +<? 265
19. На вход инерционного звена *, описываемого уравнением уступает стационарный сигнал с белым спектром (со спектральной плотностью Sx = const на всех частотах от ю = 0 до ю = до). Найти дисперсию сигнала на выходе. Отв. Dy= Х2Т . 20. Работа динамической системы описывается уравнением у'(t) + 2y (t) = х {t). На вход системы поступает стационарная случайная функция X(t) с математическим ожиданием mx (t) = 1 и дисперсией [jx = 2. Нормированная спектральная плотность зх (ю) случайной функции X (t) постоянна на интервале частот [tolf ««,] и равна нулю вне этого интервала. Найти математическое ожидание и дисперсию реакции системы Y (t). Отв. /»„(*) = — ; D><=;d^(arctg?~arctg 2/' 21. Работа динамической системы описывается дифференциальным уравнением у' Ц) -f 2у (t) = 4х' (0 + х (t). На вход системы поступает стационарная случайная функция X(t) с математическим ожиданием тЛГ = —1 и дисперсией 0^=1,5. Нормированная спектральная плотность ах («) постоянна на интервале частот [шр w2] и равна нулю вне этого интервала. Найти математическое ожидание и дисперсию реакции системы Y(t). Отв. mv(t) = — у; ^ = 24-^(.геЧ£й_мсЧ? 22. Работа динамической системы описывается дифференциальным уравнением 2y'(t)+y(t) = 3x(t). На вход системы поступает стационарная случайная функция X(t) с математическим ожиданием тх=\ и корреляционной функцией kx (т) =0~"2l'tL Найти математическое ожидание и дисперсию случайной функции К (£) на выходе системы. 9 Отв. mv (t) = 3; Dv — -=-. * Инерционным звеном называется звено, у которого при единичном ступенчатом воздействии на входе величина на выходе по экспоненциальному закону стремится к новому установившемуся значению. 266
23. Работа динамической системы описывается дифференциальным уравнением b'(t) + 2y(t) = 2jC(t) + 3x(t). На вход системы поступает стационарная случайная функция X (t) с математическим ожиданием тх=\,5 и корреляционной функцией _Ll! kx(z) = 2e 3. Найти математическое ожидание и дисперсию реакции системы. п t*s 9 г. 89 Отв. my(t) = -j; Dy = ^. 24. Работа динамической системы описывается дифференциальным уравнением 2y'(t)+y(t) = x'(t) + 3x(t). На вход системы поступает стационарная случайная функция X(t) с математическим ожиданием тх=\ и корреляционной функцией kx(i) = 2е~2,х ]. Определить математическое ожидание и дисперсию случайной функции на выходе системы. Отв. ту (t) = 3; Dy (t) = 4.
Глава 7 МАТЕМАТИЧЕСКАЯ СТАТИСТИКА § 7.1. ПРЕДМЕТ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ Математической статистикой называется наука, занимающаяся разработкой методов получения, описания и обработки опытных данных с целью изучения закономерностей случайных массовых явлений. Определение методов обработки опытных данных составляет одну из основных прикладных задач теорий вероятностей. Все задачи математической статистики касаются вопросов обработки наблюдений над массовыми случайными явлениями, но в зависимости от характера измеряемой величины, цели измерения при обработке результатов измерений эти задачи могут принимать ту или иную форму. Типичными задачами математической статистики, которые наиболее важны для нас по своим практическим применениям, являются следующие. 1. Оценка на основании результатов измерений неизвестной функции распределения. Задача ставится так: в результате .независимых измерений (испытаний) над случайной величиной X получены следующие ее значения; xL, х2,..., хп. Требуется приближенно оценить неизвестную функцию распределения Fx случайной величины X. 2. Оценка неизвестных параметров распределения. Задача ставится так: случайная величина X имеет функцию распределения определенного вида, зависящую от k параметров, значение которых неизвестно (о типе функции распределения часто можно сделать достаточно определенное заключение на основании общетеоретических соображений). Требуется на основании опытных данных оценить значение этих параметров. 3. Статистическая проверка гипотез. Одна из основных задач статистической проверки гипотез ставится так: на основании некоторых соображений можно считать, что функция распределения исследуемой случайной величины X есть F (х). Спрашивается: сов- 268
местимы ли наблюденные значения с гипотезой, что случайная величина X действительно имеет распределения F(x). В частности, если закон распределения исследуемой случайной величины X не вызывает сомнений и в проверке нуждаются только значения некоторых параметров, характеризующих распределение, то в задаче спрашивается: не опровергают ли опытные данные ту гипотезу, что параметры закона распределения имеют предположенные значения. В основе математической статистики лежит ряд исходных понятий, без предварительного ознакомления с которыми невозможно изучение современных методов обработки опытных данных. Остановимся на выявлении существа основных понятий математической статистики. § 7.2. ГЕНЕРАЛЬНАЯ СОВОКУПНОСТЬ И ВЫБОРКА Пусть требуется исследовать какой-нибудь признак, свойственный большой группе однотипных изделий (например, размеры деталей данного типа, вес изделий и т. д.). Совокупность значений признака всех N изделий данного типа называется генеральной совокупностью. При этом предполагается, что число N в генеральной совокупности весьма велико. В некоторых случаях количество значений, образующих генеральную совокупность, можно мыслить и бесконечным. Например, при измерении дальности до неподвижной цели мы можем получить сколь угодно много результатов измерений. На практике, однако, сплошное обследование применяется сравнительно редко. Например,- если совокупность содержит очень большое число изделий, то провести сплошное обследование физически невозможно. Тем более, если обследование изделий связано с их уничтожением (например, проверка электронного оборудования на продолжительность работы) или требует больших материальных затрат, то проводить сплошное обследование практически не имеет смысла. В таких случаях случайно отбирают из всей совокупности ограниченное число объектов (изделий) и подвергают их изучению. Выборочной совокупностью, или просто выборкой, называют совокупность случайно отобранных объектов. ■ Таким образом, выборочный метод заключается в том, что из генеральной совокупности берется выборка 269
объема п (причем n^N) и определяются характеристики выборки, которые принимаются в качестве приближенных значений соответствующих характеристик генеральной совокупности. Чем больше п, тем более обоснованное суждение можно высказать на основе выборки о свойствах генеральной совокупности. Очевидно, что при n-+N выборочное распределение приближается к генеральному. Отметим, что выборка дает наибольшую информацию о генеральной совокупности только в том случае, -когда результаты обследований, составляющие выборку, являются независимыми. § 7.3. СТАТИСТИЧЕСКИЙ РЯД. СТАТИСТИЧЕСКАЯ ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ Предлоложим, что изучается некоторая случайная величина X, закон распределения которой неизвестен. С этой целью над случайной величиной X производится ряд независимых опытов (измерений). Результаты измерений представляют в виде таблицы, состоящей из двух строк, в первой из которых указываются номера измерений i, а во второй — результаты измерений xt: i xt 1 Х\ 2 ■%2 3 *3 4 х4 п ха Таблицу, в которой содержатся номера и результаты измерений, в математической статистике называют статистическим рядом. Статистический ряд представляет собой первичную форму записи статистического материала и может быть обработан различными способами. Одним из способов такой обработки является построение статистической функции распределения случайной величины X. ч Статистической функцией распределения случайной величины называется закон изменения частоты события X<jc в данном статистическом материале: F*(x) = P*(X<x)- Для того, чтобы найти значение статистической функции распределения при данном х, надо подсчитать число 270
Опытов, в которых случайная величина X приняла значения, меньшие, чем х, и разделить на общее число произведенных опытов. Пример. Построить статистическую, функцию распределения ошибок 20 измерений дальности до цели с помощью дальномера. Результаты измерений сведены в статистический ряд: 1 Xi, М i XbM 1 5 11 —4 2 -8 12 -2 3 10 13 20 4 15 14 14 5 3 15 -8 6 -6 16 -12 7 -15 17 16 8 20 18 10 9 12 19 -5 10 15 20 18 Решение. Так как наименьшее наблюдаемое значение —15, то F* (—15) = 0. Значение —15 наблюдается один раз, его частота 1 равна 2Q» следовательно, в точке —15 F* (х) имеет скачок, • 1 о равный sq • В промежутке от —15 до — 12 функция F* (х) 1 ' имеет значение ^, 20 -15-12-10-4-2 035 1012 161820 в точке —12 функция F* (х) имеет тоже рис §# « 1 скачок, равный ^ , ибо значение —12 наблюдается один раз. В промежутке от 2 —12 до —8 функция F* (х) имеет значение ^. а в точке —8 2 происходит скачок на ™, так как значение —8 наблюдается дважды и т. д. График функции F* (х) для данного примера приведен на рис. 88. Статистическая функция распределения любой случайной величины (прерывной или непрерывной) представляет всегда прерывную ступенчатую функцию, скачки которой соответствуют наблюдаемым значениям случайной величины и по величине равны частотам этих значений. 271
Согласно теореме Бернулли при неограниченном увеличении числа опытов п частота события Х<^х сходится по вероятности к вероятности этого события. Это значит, что статистическая функция распределения F* (х) при увеличении п сходится по вероятности к подлинной функции распределения F (х) случайной величины X. Следует заметить, что при большом числе опытов п построение статистической функции распределения F* (х)— очень трудоемкая операция, поэтому часто бывает удобно пользоваться другими характеристиками статистических распределений, аналогичными не функции распределения F(x), а плотности вероятности f(x). § 7.4. СТАТИСТИЧЕСКАЯ СОВОКУПНОСТЬ. ГИСТОГРАММА При большом числе наблюдений представление результатов наблюдений в виде статистического ряда бывает затруднительным, а при решении многих задач и нецелесообразным. В таких случаях производят подсчет результатов наблюдений, попадающих в определенные группы, и составляют таблицу, в которой указываются группы и частота получения результатов наблюдений в каждой группе. Совокупность групп, на которые разбиваются результаты наблюдений и частот получения результатов наблюдений в каждой группе, называют статистической совокупностью. В качестве примера построена статистическая совокупность ошибок 100 измерений дальности с помощью радиодальномера: Группы, м Число ошибок в группе Частота -20; -15 2 0,02 -15; -10 8 0,08 -10; -5 17 0,17 -5; 0 24 0,24 0; 5 26 0,26 5; 10 13 0,13 10; 15 6 0,06 15; 20 4 0,04 Из примера видно, что статистическая совокупность образуется из статистического ряда путем деления его на группы по некоторым признакам и подсчета чисел и частот измерений в каждой группе. Заметим, что если при группировке наблюдаемых значений имеем значение, которое в точности лежит на гра- 272
нице двух групп, то следует прибавить к числам mi одной и другой групп по у . Что касается числа групп, то их количество выбирается таким образом, чтобы результаты измерений были хорошо обозримы и содержали достаточно большое количество k Pi сведений. Графическим изображением статистической совокупности является так называемая гистограмма. Гистограмма строится следующим образом: по оси абсцисс откладываются интервалы, соответствующие группам совокупности, и на каждом из них, как на основании, строится прямоугольник, площадь которого равна частоте данной группы. Из способа построения гистограммы следует, что полная площадь ее равна единице. В качестве примера построим гистограмму статистической совокупности ошибок 100 измерений дальности с помощью радиодальномера (рис. 89). * Г *(Х) Рис. 89 Рис. 90 Очевидно, что если точки гистограммы соединить плавной линией, то эта линия в первом приближении будет представлять график плотности вероятности случайной величины X. При этом, если число опытов увеличивать и выбирать более мелкие группы в статистической совокупности, то гистограмма будет всеболее приближаться к плотности вероятности случайной величины. 273
Пользуясь данными статистической совокупности, можно приближенно построить и статистическую функцию распределения случайной величины X. Для примера построим приближенно статистическую функцию распределения ошибок 100 измерений дальности с помощью радиодальномера. В качестве точек оси Ох для вычисления F* (х) возьмем границы xv хг,...групп, которые фигурируют в статистической совокупности. Тогда будем иметь: F*(—20) = 0; F*(—15) = 0,02; F* (—10) = ' =0,02 + 0,08 = 0,1; F*(—5) = 0,27; F*(0)=0,51; F*(5) = 0,77; F*(10)=0,9; F* (15) = 0,96; F*(20) = l. Приближенный график статистической функции распределения дан на рис. 90. § 7.5. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СТАТИСТИЧЕСКОГО РАСПРЕДЕЛЕНИЯ Закон распределения случайной величины представляет собой некоторую функцию, указание этой функции полностью описывает случайную величину с вероятностной точки зрения. Однако при решении многих практических задач нет необходимости характеризовать случайную величину исчерпывающим образом, а достаточно указать только отдельные числовые характеристики, которые характеризуют существенные черты распределения случайной величины. Основными числовыми харатеристи- ками случайной величины является математическое ожидание и дисперсия. Математическое ожидание характеризует среднее значение, около которого группируются возможные значения случайной величины, а дисперсия характеризует степень разбросанности этих значений относительно среднего. Аналогичные числовые характеристики существуют и для статистических распределений. Аналогией математического ожидания случайной величины X является среднее арифметическое наблюдаемых значений случайной величины п м*\х]=^г-, 274
где xt — значение случайной величины, наблюдаемое в 1-м опыте; п — число опытов. Эту характеристику называют статистическим средним случайной величины. При большом числе опытов среднее арифметическое наблюдаемых значений случайной величины приближается (сходится по вероятности) к ее *матем этическому ожиданию и может быть принято приближенно равным математическому ожиданию. Аналогией дисперсии случайной величины X является статистическая дисперсия, которая определяется следующим образом: 2 (** " KY D*[X] = ±^— , где Xi — значение случайной величины, наблюдаемое в i-м опыте; п — число опытов; т* = М* [X] — статистическое среднее. Аналогично определяются статистические начальные и центральные моменты любых порядков: п 2 4 2 (*i - m%)k М* [(X - m*)k] = ^—7i . Заметим, что при увеличении числа наблюдений все статистические характеристики будут сходиться по вероятности к соответствующим числовым характеристикам случайной величины и при достаточном п могут быть приняты приближенно равными им. § 7.6. СВОЙСТВА ТОЧЕЧНЫХ ОЦЕНОК Рассмотрим следующую общую задачу. Имеется случайная величина X, закон распределения которой содержит неизвестный параметр а. Требуется на основании опытных данных найти подходящую оценку параметра а. 275
Обозначим через Xi, Х2, ..., Хп (7 1) наблюдаемые значения случайной величины X в результате проведенных п независимых опытов. Пусть величина а, вычисленная на основе материала (7.1), является оценкой параметра а. Это значит, что а является функцией величин Х\, Х2, ..., Хп: а = а(Хь Х2, ..., Хп). Кроме того, наблюдаемые значения Хи Х2, ..., Хп следует рассматривать как случайные величины, каждая из которых распределена по тому же закону, что и случайная величина X. Поэтому а является тоже случайной величиной, закон распределения которой зависит, во-первых, от закона распределения случайной величины X, во-вторых, от числа опытов п. Для того.чтобы оценка а имела практическую ценность, она должна обладать следующими свойствами. 1. Несмещенность оценки. Различают оценки смещенные и несмещенные. Смещенными называются оценки, математическое ожидание которых не равно оцениваемому параметру: М[а(Хи Х2, ..., Хп)\фа. Несмещенными называют оценки, для которых выполняется условие М[а(Хи Хъ ..., Хп)] = а. Естественно в качестве приближенного неизвестного параметра брать несмещенные оценки, для того чтобы не делать систематической ошибки в сторону завышения или занижения. 2. Состоятельность оценки. Оценка а{Х\, Хъ ... , Хп) для параметра а называется состоятельной, если она сходится по вероятности к оцениваемому параметру при неограниченном возрастании числа опытов п, т. е. \\тР[\а{Хи Х2, .... Хп)~с|<е] = 1, (7.2) п —■ со где в — сколь угодно малое положительное число. Для удовлетворения требования (7.2) достаточно, чтобы дисперсия оценки стремилась к нулю при п->оо, т. е. чтобы выполнялось условие lim D[a(Xlf Х2, •••, Хя)] = 0 (7.3) п -*оо 276
и, кроме того, чтобы оценка была несмещенной. От формулы (7.2) легко перейти к выражению (7.3), если воспользоваться неравенством Чебышева. Итак, сосгоятельность оценки означает, что при достаточно большом количестве опытов п со сколь угодно большой достоверностью отклонение оценки от истинного значения параметра меньше любой наперед заданной величины. Очевидно, такому требованию должна удовлетворять всякая оценка, пригодная для практического использования. t 3. Эффективность оценки. Оценки, обладающие свойством несмещенности и состоятельности, при ограниченном числе опытов могут отличаться дисперсиями. Совершенно очевидно, что чем меньше дисперсия оценки, тем меньше вероятность грубой ошибки при определении приближенного значения параметра. Поэтому необходимо, чтобы дисперсия оценки была минимальной, т. е. чтобы выполнялось условие D[a(Xu Хь ..., Xn)] = Dmin. Оценка, обладающая таким свойством, называется эффективной. При выработке практических методов обработки опытных данных с целью получения оценок, принимаемых в качестве приближенных значений искомых параметров, необходимо руководствоваться сформулированными свойствами оценок. § 7.7. ОПРЕДЕЛЕНИЕ ПРИБЛИЖЕННОГО ЗНАЧЕНИЯ ИЗМЕРЯЕМОЙ ВЕЛИЧИНЫ И ПРИБЛИЖЕННОГО ЗНАЧЕНИЯ ДИСПЕРСИИ В СЛУЧАЕ ПРЯМЫХ РАВНОТОЧНЫХ ИЗМЕРЕНИЙ Определить приближенное значение измеряемой величины X — это значит произвести оценку математического ожидания величины X. При этом, если измеряемая величина X постоянна, то оценка для тх есть приближенное значение истинного значения измеряемой величины, а если измеряемая величина случайная, то оценка для тх есть приближенное значение математического ожидания измеряемой случайной величины. Необходимость получения по опытным данным приближенного значения дисперсии возникает в связи с опре- 277
делением характеристики точности прибора или характеристики рассеивания измеряемой случайной величины. Пусть имеется случайная величина X с математическим ожиданием тх и дисперсией Dx; оба параметра неизвестны. Требуется на основании опытных данных найти состоятельные и несмещенные оценки этих параметров. Обозначим через Х\, Х%, ..., Хп значения случайной величины X, наблюдаемые в результате проведенных п независимых равноточных измерений, т. е. измерений, которые проводились в одинаковых условиях. Обычно считают эти условия выполненными, если измерения проводились одним прибором. Естественно в качестве оценки для математического ожидания принять среднее арифметическое наблюдаемых значений, которые мы обозначили через т т\ 2* £=1 Покажем, что эта оценка является состоятельной и несмещенной. Действительно, согласно закону больших чисел, lim P 2* т, <0 1. Это значит, что т = тх является состоятельной оценкой, Оценка ih = mx является также и несмещенной, ибо M[ih]~M 2* j=i 2 М [ХА J тя i=i i=i = тл (наблюдаемые значения Хь Х2, ..., Хп рассматриваем как случайные величины, каждая из которых распределена по тому же закону, что и случайная величина X). Перейдем к оценке для дисперсии Dx. Возьмем статистическую дисперсию и проверим ее на состоятельность и несмещенность. Статистическая дисперсия имеет вид D\ 2№ «=1 ту (7.4) 273
где 2 * m = -^i—. (7.5) п Преобразуем выражение (7.4) к другому виду: DI 2 (Xi - mf ^ (Л'<? ~ 2Х>т + ^ «=1 ■ i=l ,i=l 1=1 -m2. (7.6) Первый член в правой части равенства (7.6) представляет собой среднее арифметическое п наблюдаемых значений случайной величины X'2, следовательно, он сходится по вероятности к М [X2]. Второй член т2 сходится по вероятности к тх. Это значит, что вся правая часть равенства (7.6) сходится по вероятности к величине M[X*]-ml = Dx. Следовательно, статистическая дисперсия D* является состоятельной оценкой дисперсии Dx. Проверим теперь, является ли оценка D* также и несмещенной. Для этого в формулу (7.6) вместо т подставим его выражение из формулы (7.5) и произведем указанные действия: Так как дисперсия Dx не зависит от того, в какой точке выбрать начало координат, то выберем его в точке тх и найдем математическое ожидание величины (7.7). Получим: п 1 VI ™г^-. 2 м [dx]=^± 2 м № -12м гXiX л= '<; 279
Из независимости опытов следует, что Кх.х. = 0, поэтому равенство (7.8) принимает вид: M[D%] = n-=^Dx. (7 9) Отсюда видно, что статистическая дисперсия D* не является несмещенной оценкой для дисперсии Dx, ее математическое ожидание не равно Dx, а несколько меньше. Однако если умножить величину Dx на —^-у, то мы получим оценку для дисперсии Dx, обладающую свойством несмещенности, ибо М [7r^^h7hMm = DA Так как множитель ——i стРемится к единице при п-+оо, то оценка D=-^D*=-^- S (Xi-m)s л —1 будет также и состоятельной. Таким образом, если в результате проведенных п независимых измерений случайной величины X с неизвестным математическим ожиданием тх и дисперсией Dx получены значения Xi, X<i, ... , Хп, то для определения этих параметров следует пользоваться следующими приближенными оценками: . 2*/ ^{Xi-mf л—1 или 2** \ Ь = -%\~ ш2/. (7.10) Заметим, что в качестве оценки для дисперсии случайной величины X с известным математическим ожида- 280
нием пгх необходимо брать статистическую дисперсию Dl=± S <х* - т*)* В этом случае статистическая дисперсия удовлетворяет условию несмещенности и состоятельности (проверка этих условий предлагается читателю). Определение приближенных значений математического ожидания тх и дисперсии Dx случайной величины X по формулам (7.10) иногда приводит к громоздким вычислениям, поэтому на практике целесообразно использование формул 2 (Xt - а) т = ^— + а, D = S (Xt - a)* (т — af (7Л1) которые при умелом подборе числа а значительно облегчают обработку статистического материала. Заметим, что формулы (7.11) простыми преобразованиями приводятся к формулам (7.10). Пример. Через каждый час измерялось напряжение тока в электросети. Результаты измерений в вольтах представлены в виде статистического ряда: i j 1 Л*,-, в 222 2 219 1 3 224 4 220 » 218 6 | 7 I 8 217 221 220 9 215 10 j 11 1 12 218 "223 225 i хи в 13 | 14 220 226 15 221 16 216 17 211 • 18 219 19 1 20 220 221 21 222 22 1 23 218 221 24 219 Найти оценки для математического ожидания и дисперсии результатов измерений. Решение. Оценки для математического ожидания и дисперсии найдем по формулам (7.11), положив а = 220. Все необходимые вычисления приведены в следующей таблице: 281
i 1 2 3 4 5 6 7 8 Сумма x. — a i 2 -1 4 0 -2 -3 1 0 1 (*,-e)2 4 1 16 0 4 9 1 0 35 i 9 10 11 12 13 14 • 15 16 x. — a i -5 _2 3 5 0 6 1 -4 4 (*i-aY 25 4 9 25 0 36 1 16 116 / 17 18 19 20 21 22 23 24 x. — a 1 -1 0 1 2 -2 1 —1 1 (xi-af 1 1 0 1 4 4 1 1 13 Следовательно, и 2 (*,--220) m = D = 24 24 2(*;-220)2 24 ^ 220= ^ + 220 = 220,25 (e), 23 24 (220,25 — 220)s 7,06 (e2). § 7.8. ОПРЕДЕЛЕНИЕ ПРИБЛИЖЕННОГО ЗНАЧЕНИЯ ИЗМЕРЯЕМОЙ ВЕЛИЧИНЫ В СЛУЧАЕ НЕРАВНОТОЧНЫХ ИЗМЕРЕНИИ Рассмотрим определение приближенного значения математического ожидания тх некоторой величины X по неравноточным измерениям, т. е. по измерениям, каждое из которых характеризуется своей величиной рассеивания. Пусть мы имеем серию Хи Х2, ..., Хп независимых измерений одной и той же величины X, дисперсии которых соответственно равны a-Xl, a2x„, ..., ь% . Требуется по результатам измерений найти оценку in, удовлетворяющую свойствам несмещенности, состоятельности и эффективности. Искомая оценка т является функцией результатов измерений, т. е. т = т(Хи Х2, ..., Хп). Известно, что наиболее простой функциональной зависимостью является линейная зависимость. Поэтому будем искать нужную нам функцию в виде т гС1х,-|-сл + ...-{-сяхя==2CiXh {7Л2) 282
где Сь С2, ..., Сп — некоторые постоянные коэффициенты, которые следует определить таким образом, чтобы оценка (7.12) удовлетворяла условию несмещенности и обладала наименьшей дисперсией. Условие несмещенности выполняется, если М[т] = М J]CiM[Xi} = mx. Так как результаты измерений Хи Х2, имеют постоянной погрешности, то М[Х{)=тх (i = l, 2, ..., п). Хп не Следовательно, чтобы оценка in удовлетворяла условию несмещенности, необходимо выполнение равенства 2c, = i. (7.13) Теперь будем выбирать коэффициенты С{ (i—\, 2, ... ..., п) так, чтобы дисперсия оценки (7.12) была минимальной, т. е. чтобы оценка т была эффективной. Дисперсия оценки in, согласно свойству дисперсии, равна D[fh] = D 2№ =%СЮ1Х> (7Л4) Исследуем выражение (7.14) на минимум. Ввиду того, что на коэффициенты Ct уже наложено условие (7.13), исследуем выражение на условный минимум, применяя метод множителей Лагранжа. Составляем функцию Лагранжа: SCiD[X,] + 2x(l-j]C,). Ф: Вычисляем частные производные дФ dd = 2CiD\Xi]~2\ (/ = 1, 2, ..., п). Приравняв правую часть нулю и решив полученное уравнение относительно Cit находим: Г — х — х ^1~ D[Xi]— 4/ 283
Обозначая -у =gi, будем иметь: I d = lgt. Подставив найденное значение С,- в равенство (7.13), получим: Отсюда Следовательно, 2 i = l С х*, = х2# = 1. 1 = 1 х- ' , 1=1 ,-Х*,- * . i = l Подставив полученное значение Сг в формулу (7.12), будем иметь: п п 2 «Л Si у ' = 1 Ai — — . т = 1 (7.15) 2а '=1 t=i 2 а i=i Проверим теперь, является ли оценка пг также и состоятельной. Для этого найдем дисперсию величины т. glD[Xi]t D[m] = D i = i Sft 1 2ft но (согласно обозначению) i=i поэтому D[Xi\ = -, in gi, ~ , ~ , 1 V"l 1 2ft i=1 2ft ,i = l / i = l 284
Поскольку ряд £ gi при п-+со расходится (не выпол- няется необходимый признак сходимости ряда), то при л->оо D[m]-*0. Это значит, что функция т, определяемая выражением (7.15), является состоятельной оценкой тх. Таким образом, оценка S SiXi т = 1^ п ;=i для математического ожидания тх измеряемой величины X при неравноточных измерениях обладает свойствами несмещенности, состоятельности и эффективности. Величину # = -?- (7Л6) xi принято называть весом г'-го измерения. Из выражения (7.16) видно, что чем больше дисперсия <заХш, тем меньше вес gt результата измерения Xt. Пример. Производились измерения специальной меры длины. Результаты измерения приведены в следующей таблице: Порядковый № измерения 1 2 3 Сумма Отклонение от номинального размера, мк Прибор № 1 10,3 10,5 20,8 Прибор № 2 1 Прибор М> 3 10,8 11,2 10,7 32,7 9,9 10,6 20,5 Прибор № 4 11,3 11,1 10,4 32,8 При этом известно, что дисперсии погрешностей измерений на применявшихся приборах имели следующие значения в мк*\ о\ = 0,32; о! = 0,25; of = 0,50; of = 0,16. Требуется оценить отклонение действительного размера меры от номинального ее размера. 285
Решение. Мы имеем 10 результатов измерений, которые получены на четырех различных приборах. Поэтому некоторые измерения имеют одинаковые дисперсии. Применяя формулу (7.16), найдем вес каждого измерения: 1 1 ^=^ = 0^2' gz = gt = gs = 025> 1 1 ge = £7 — щ, gs = g* — gio — oje- Их сумма: ю i = \ Поэтому на основании формулы (7.15) - 20.8 • о^, + 32,7 ■ ^ + 20,5 ■ Q-L + 32,8 ■ ^ т = ■—т. — я« 10,67. § 7.9. ДОВЕРИТЕЛЬНЫЙ ИНТЕРВАЛ. ДОВЕРИТЕЛЬНАЯ ВЕРОЯТНОСТЬ Оценки, которыми мы до сих пор занимались, называются точечными, так как они указывают точку на числовой оси, в которой должно находиться значение неизвестного параметра. В ряде задач требуется не только найти для параметра а подходящее числовое значение, но и оценить его точность и надежность. Такого рода задачи очень важны при малом числе наблюдений, так как точечная оценка а в значительной мере является случайной и приближенная замена а на а может привести к серьезным ошибкам. Для определения точности оценки а-в математической статистике пользуются доверительными интервалами, а определения надежности — доверительными вероятностями. Раскроем существо этих понятий. Пусть для параметра а получена из опыта несмещенная оценка а. Требуется оценить возможную при этом ошибку. Задаем некоторую вероятность р (например, (3=0,9) и находим такое значение г^>0, для которого />(|Д-а|<е) = р. (7.17) 286
Представим (7.17) в виде Р(а — г<а<а+е) = р. • (7.18) Равенство (7.18) означает, что неизвестное значение параметра а с вероятностью р попадет в интервал /p(fi-e, fi-f в). ■ (7.19) Заметим, что здесь неизвестное значение параметра а является неслучайной величиной, а интервал L является случайной величиной, так как положение интервала на оси зависит от случайной величины а (центр интервала), длина интервала 2s тоже в общем случае является случайной величиной. Поэтому в данном случае вероятность р лучше толковать не как вероятность попадания точки а в интервал L, , а как вероятность того, , J3 что случайный интер- , ( Д , ^ ^ вал /„ накроет точку 0 а-Е а а-е (рис Р91). о Интервал / назы- - ис- Ji вается доверительным интервалом, а вероятность р— доверительной вероятностью, т. е. доверительной вероятностью или надежностью р, соответствующей данному доверительному интервалу L, называется вероятность того, что истинное значение параметра лежит в этом интервале. В качестве примера рассмотрим задачу о доверительном интервале для математического ожидания. Пусть произведено п независимых опытов над случайной величиной X с неизвестными математическим ожиданием тх и дисперсией Dx. На основании опытных данных для этих параметров построены оценки: . J*, 2(Х—т)2 Требуется построить доверительный интервал /, соответствующий доверительной вероятности р, для математического ожидания случайной величины X. Так как величина in представляет собой сумму п независимых одинаково распределенных случайных величин Xi, то согласно центральной предельной теореме ее закон распределения близок к нормальному. Пользуясь 287
свойствами математического ожидания и дисперсии, находим: М[т]=М 2*< = i |>[Х,]= 1 £ тд т. * = i t==i D[m] = D 2* =41>га=^ i=i (7.20) Найдем теперь такую величину в, для которой Р(|Л-тх|<.р) = р. Учитывая, что закон распределения случайной величины m близок к нормальному, выразим вероятность (3 в левой части равенства (7.20) через функцию Лапласа: / - ч Р(\т—тх\<г) где а- V4 ф п ф х«»/2 \"/п , (7.21) среднее квадратическое отклонение оценки. Так как функция Лапласа нечетная, то равенство (7.21) принимает вид: Р{\т-тх\<^г.) = Ф LP \°т V? Из уравнения находим значение е. ф/_1* \ = р «3 = ^/2 Ф-ЧР). (7.22) где Ф ! (р)—функция, обратная функции Лапласа. Величина <3£ = 1/ -^-, входящая в формулу (7.22), выражается через неизвестную нам дисперсию Dx, поэтому в качестве ее ориентировочного значения можно взять оценку D и положить приближенно 288
Таким образом, доверительный интервал для математического ожидания приближенно равен /р = (/й—вэ; /й+«р), где г определяется формулой (7.22). Пример. Произведено 20 опытов над величиной X. Результаты опытов приведены в следующей таблице: i 1 2 3 4 5 6 7 8 9 10 х. 10,9 10,7 11,0 10,5 10,6 10,4 11,3 10,8 11,2 10,9 i 11 12 13 14 15 16 17 18 19 20 xi 10,8 10,3 10,5 10,8 10,9 10,6 11,3 10,8 10,9 10,7 Требуется найти оценку т для математического ожидания величины X и построить доверительный интервал, соответствующий доверительной вероятности р = 0,86- Решение. Имеем: т 20 1 V =42х'=10'78- i=i Использовав формулу для оценки дисперсии, находим: 20 2*' D = 20 10.782/S = 0,064; 19 m f n 0564. По формуле (7.22) находим значение ер: , г =0,0564 У 2 ф_1 (0,86) =0,083. Доверительные границы m1 = m — £p = 10,78 —0,083^,10,70; т = т-\-г9= 10,78 -f 0,083 ** 10,86. Доверительный интервал /р = (Ш,70; 10,86). 289
§ 7,10. ПОСТРОЕНИЕ ДОВЕРИТЕЛЬНОГО ИНТЕРВАЛА ДЛЯ МАТЕМАТИЧЕСКОГО ОЖИДАНИЯ СЛУЧАЙНОЙ ВЕЛИЧИНЫ, РАСПРЕДЕЛЕННОЙ ПО НОРМАЛЬНОМУ ЗАКОНУ. РАСПРЕДЕЛЕНИЕ СТЬЮДЕНТА В предыдущем параграфе мы рассмотрели приближенный метод построения доверительного интервала для математического ожидания тх величины X с неизвестным законом распределения. Для точного построения доверительного интервала необходимо знать закон распределе- п ния случайной величины т= , который в общем случае зависит от самих неизвестных параметров величины X. Оказывается, в некоторых случаях от случайной величины т можно перейти к другой случайной величине, являющейся функцией наблюдаемых значений Хи Хч, — Хп, закон распределения которой не зависит от неизвестных параметров величины X, а зависит только от числа опытов я и от вида закона распределения случайной величины X. Так, например, доказано, что при нормальном распределении величины X случайная величина Т^УИ"1'™*, (7.23) VD где V Xl J] (Xt - rhf ~ i = 1 гч i = 1 подчиняется распределению Стьюдента с п — 1 степенями свободы. Плотность вероятности распределения Стьюдента имеет вид: ' п Г , 2; /, , t2 \--а S»-i(') = —zzzzr^TZTTxll-b^r) \ (7-24) У%{п- 1)Г где Г (.*) = § ux~le~udu — гамма-функция, о Из формулы (7.24) видно, что распределение Стьюдента не зависит отт и D, а зависит только от числа опытов п. При этом Sn-i (t) является четной функцией от t. 290
Рассмотрим применение распределения Стьюдента при построении доверительного интервала для математического ожидания. Пусть произведено п независимых опытов над случайной величиной X, распределенной по нормальному закону с неизвестными математическим ожиданием тл и дисперсией Dx. На основании опытных данных для этих параметров построены оценки j}Xt J (X, - mf m= . D = n- 1 Требуется построить доверительный интервал /„ соответствующий доверительной вероятности р, для математического ожидания случайной величины X. Обозначим через е8 половину длины интервала, симметричного относительно т, тогда будем иметь: Р(|/й-т,|<вр) = р. (7.25) Перейдем в левой части равенства (7.25) от случайной величины т к случайной величине Т, распределенной по закону Стьюдента. Для этого умножим обе части неравенства \пг—шх\<С% на положительную величину Vn получим УЪ 'V^n I m — tnx | ^ e(3 \ или, пользуясь обозначением (7.23), Учитывая четность функции Sn-i (t), получим, что ве- роятность р осуществления неравенства \T\<^t^ = —-г== У п равна (см. свойства 3, § 2.4): P(\T\<ty = 2\ Sn-i(t)dt = $. (7.26) 291
Равенство (7.26) определяет величину ^ в зависимости от доверительной вероятности [3. Имеется готовая таблица (см. в приложении табл. 3), пользуясь которой, по доверительной вероятности (3 и числу степеней свободы п — 1 находят величину t . Определив величину t, по формуле s-'У! находим половину ширины доверительного интервала L. Следовательно, сам интервал Пример. Произведено 10 независимых опытов над случайной величиной X, распределенной нормально с неизвестными параметрами тх и ах. Результаты опытов представлены в виде статистического ряда: i Х( 1 2,5 2 3 2 -2,3 4 ~ 1,9 5 -2,1 6 2,4 7 2,3 8 -2,5 9 1,5 10 -1,7 Найти оценку т для математического ожидания и построить доверительный интервал, соответствующий доверительной вероятности [3 = 0,95. "Решение. Имеем: т 2х«=0,4; D = i= 1 • 10 4>—<0'4>'2 4,933. По табл. 3 приложения для п—1=9 и ^ = 0,95 находим: *р = 2,26, откуда Доверительный интервал будет 7р = (м--вр;т+вр)==(-1,18; 1,98). 292
§ 7.11. ОПРЕДЕЛЕНИЕ ПРИБЛИЖЕННЫХ ЗНАЧЕНИЙ ЧИСЛОВЫХ ХАРАКТЕРИСТИК СИСТЕМЫ ДВУХ СЛУЧАЙНЫХ ВЕЛИЧИН Пусть над системой случайных величин (X, У) произведено в одинаковых условиях п независимых опытов. Результаты опытов (Хь Yr), (X2 Yt), ..., (Хп, Yn) являются независимыми системами случайных величин, математические ожидания, дисперсии и корреляционные моменты которых одинаковы, т. е. tnXi = mx, ту. = ту, DXi = Dx; Dy. = Dy\ kXiyi = kxy. Требуется путем обработки опытных данных найти приближенные значения указанных числовых характеристик. Эта задача решается аналогично тому, как мы решали ее для одной случайной величина. Так как неизвестные математические ожидания тх и ту, а также дисперсии Dx и Dy являются характеристиками отдельных случайных величин, входящих в систему, то для определения приближенных их значений, применяя формулы (7.10), получим: п тх = 1-^~, х п ' я i = l п 6* = ^гт2 М-*1*)** 1 = 1 я Поскольку корреляционный момент есть математическое ожидание произведения отклонений случайных величин /X и Y от своих математических ожиданий, то приближенное значение корреляционного момента kxy ищем как линейную комбинацию вида kxy = Z Ct (Xi - тх) (Yt - ту), (7.27) i = l 293
где d — постоянные коэффициенты, причем, в силу равно* точности измерений, d = C. Неизвестный коэффициент С определяем из условия, чтобы величина kxy была несмещенной оценкой для корреляционного момента kxy, т. е. чтобы M[kxy] = M ^CiXi-m^iYi-my) i = l = С 2iM[(Xi-fhx)(Yi-fhy)] = k i=l xy- Преобразуем выражение, стоящее под знаком математического ожидания. Так как по условию mXi = mx, то п п п 2 Xj ' Ц тх 2 тх Xi-mx = Xi-~^—i-^^ i=i—= £ №-'%•) 0 £ ki = (Х,-т^-^—- = Xl-i=±—. аналогично Следовательно, M[(Xi-mx)(Yi-~my)} = = М Xi 2* о 2* м п. п п п 00 1 п %Л ° 1 ° ^Ч ° 1 %Л ° V4 ° х.у.—U2 Yi—nY> 2x'+h2xi2Y> /=i y=i 294
Принимая во внимание, что kx.y.z=kxy, a kx.y. = 0npn i Ф /, имеем: •у)\ *Ху п ъХу —kxy~\- M[(Xi — mx) (Yi — my)] = kxv — ~k 4.iVb — ь —-k 4-~nk —n'lk ' П2 jLm У У П ХУ ' ГЛ2 ХУ n xy Таким образом, n M [kxy] = С ^M[(Xi- mx) (Yi -my)) = i=l = C 2^ ~T~kxy — ^~fT~ 24kxy = C—^--nkxy = i=l i=l — *-< v"- * / Kxy — ^jry> 1 I если С -— ,. я— 1 Для того, чтобы показать состоятельность оценки (7.27) при условии, что Ci = C = ——г, найдем дисперсию этой оценки: D[kxv) = D 2 {Xi-mx){Yi-my) i = \ П- 1 j^jb 2 D [(Xt -mx)(Yt - iky)\. i = i Так как по условию случайные величины X,- и Yi имеют одинаковые распределения, то D[Zi] = Dz = const (/=1, 2, ..., п), где Zi — (Xt — m*) (Yt — rhy). Следовательно, i=i t = i nD, Выражение D [kxy] я. _ 2 О при n —»oo , а это значит, что ^=^r-i 2 ^ - *"*) (r' - %) <7-28) 295 j = i
является несмещенной и состоятельной оценкой для корреляционного момента kxy системы случайных величин (X, Y). Формула (7.28) наиболее употребительна для определения корреляционного момента двух случайных величин по опытным данным. Опытный коэффициент корреляции гху определяют по формуле При этом среднее квадратическое отклонение опытного коэффициента корреляции вычисляется по формуле 1 — Г'2ху 1 — Гху § 7.12. МЕТОД НАИБОЛЬШЕГО ПРАВДОПОДОБИЯ ДЛЯ НАХОЖДЕНИЯ ОЦЕНОК ПАРАМЕТРОВ РАСПРЕДЕЛЕНИЙ В § 7.7 мы рассмотрели оценки для математического ожидания и дисперсии. В этом параграфе рассмотрим один из важнейших методов для отыскания оценок параметров по данным опыта, который носит название метода наибольшего правдоподобия. Пусть функция / (х, 6), зависящая от параметра б, является плотностью вероятности случайной величины X. Требуется на основании опытных данных определить неизвестный параметр 6. Обозначим через хи #2, ...,*« наблюдаемые значения случайной величины X в результате проведенных п опытов. Функцией правдоподобия называется функция L(xb *2, .... *я,6) = = f(xit ЩЦхь B)...f(xn, 6). (7.29) Если случайная величина X — дискретная с возможными значениями а ГП\, /722, • • • , tYlr 296
будут равны соответственно числу опытных значений, которые совпадают с Еь £•>, ..., 1Г, то функция правдоподобия определяется соотношением L (хи хь ..., хп, 6) = P?i (0) р?ш (в)... р»г (6), (7.30) где Р,(в)=Р (* = *,) (i=\, 2, ..., г). Считая наблюдаемые значения хи лг2, ..., хп данными, будем рассматривать L как функцию неизвестного параметра 6. Сущность метода наибольшего правдоподобия заключается в том, что в качестве оценки параметра б выбирается значение аргумента, которое обращает функцию L в максимум. Это значение является функцией от Х\, Хч, >.., хп и называется оценкой наибольшего правдоподобия. Отсюда согласно известным правилам дифференциального исчисления, для нахождения оценки наибольшего правдоподобия необходимо решить уравнение и отобрать то решение 6, которое обращает функцию L в максимум. Обычно с целью упрощения функцию правдоподобия заменяют ее логарифмом и решают вместо (7.31) уравнение dlnL_ I dL__n п о0, ~W~— T'df — u' v-6Z> В случае двух параметров 6t и 0.2 оценки их определяются из двух совместно решаемых уравнений: д\п L п д in L г. 00! OQ-2 Продемонстрируем применение метода наибольшего правдоподобия на примерах. Пример 1. Оценить качество продукции некоторого производства. Решение. Искомой величиной является вероятность р того, что наугад выбранное изделие окажется бракованным. Вероятность р считается постоянной величиной, не зависящей от результатов проверки других изделий. Для отыскания величины р из готовой продукции случайным образом отбирается п изделий ^проверяется их качество. Вероятность р мы можем рассматривать как параметр, входящий в распределение дискретной двузначной величины X', принимающей только два значения Ei = 1 и $2 = 0 10 Гурский 297
в зависимости от того, каким окажется наугад выбранное изделие: бракованным или хорошего качества. Пусть среди наугад выбранных изделий оказалось т бракованных, тогда согласно (7.30) мы будем иметь L = pm(l— р)п m и уравнение (7.32) запишется так: д In L т п — т dp p \ -р Оно имеет единственное решение: 0. т Следовательно, оценка вероятности р по методу наибольшего правдоподобия совпадает с частотой — события появления бракованных изделий. Пример 2. На вход приемного устройства поступает сумма Y (t) = X-\-Z (t) неизвестного, не зависящего от времени сигнала X и случайной помехи Z(t). В моменты времени tit U, .... tn производятся измерения случайного процесса Y (t). На основании полученных данных уи г/2, ..., уп нужно указать приближенное значение 6 (уи Уъ • ••» Уп) сигнала X. Решение. Пусть случайные величины Z (^), Z (/2), . •. ..., Z (tn) взаимно независимы и распределены нормально с математическим ожиданием, равным 0, и дисперсией, равной о2. Тогда при заданном значении Х = 6 случайные величины Yk = Y(tk) = X-\-Z(tk) (k=\, 2, .... п) также взаимно независимы и подчиняются нормальному закону с той же дисперсией а2 и математическим ожиданием 8. Следовательно, функция f (х, 6) для нашего примера имеет вид: Согласно (7.29), запишем функцию правдоподобия п L&i, у* у„, е)= п(Л,'~-\п *=1 Qn (J in) 298
Заменяя ее логарифмом, получим: in/. ш[--(Vasrj - ^ 2 <» - ^ поэтому уравнение (7.32) запишется так: Отсюда Функция L (уи уъ, ..., у я, 6) достигает при этом значении б своего наибольшего значения. Следовательно, оценка сигнада X по методу наибольшего правдоподобия имеет вид: п В{уи !/*, ..-, Уп)=- 2 У*» Л = 1 т. е. является средним арифметическим результатом измерений. Метод наибольшего правдоподобия обладает важными достоинствами: он всегда приводит к состоятельным (хотя иногда и смещенным) оценкам, имеющим наименьшую возможную дисперсию по сравнению с другими и наилучшим образом (в некотором смысле) использующим всю информацию о неизвестном параметре, содержащуюся в выборке. Однако на практике он часто приводит к необходимости решать весьма сложные системы уравнений. § 7.13. СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ При обработке опытных данных очень часто приходится решать задачу, в которой необходимо исследовать зависимость одной физической величины у от другой физической величины х. Например, исследование величины погрешности размера изделия от температуры, величины износа резца от времени и т. д. 10* 299
Пусть производится опыт с целью исследования зависимости величины у от величины х, которая в общем случае может быть записана в виде y=f{x). Вид этой зависимости и требуется определить из опыта. Предположим, что в результате опыта получен ряд экспериментальных точек (хи у\), {хъ уч), ..., (хп, уп) и построен график зависимости переменной величины у от независимой переменной х (рис. 92). Так как производимые в ходе опыта измерения связаны с ошибками случайного характера, то обычно экспериментальные точки на графике имеют некоторый разброс относительно общей закономерности. В силу случайности ошибок измерения этот разброс или уклонения ■*- точек от общей закономерности также Рис. 92 являются случайными. Следовательно, задача состоит в такой обр-аботке экспериментальных данных, при которой по возможности точно была бы отражена тенденция зависимости у от х и возможно полнее исключено влияние случайных, незакономерных уклонений, связанных с погрешностями опыта. Такая задача является типичной для практики и называется задачей сглаживания экспериментальной зависимости. Очень часто бывает так, что вид зависимости до опыта известен из физических соображений, связанных с существом решаемой задачи, а на основании опытных данных требуется определить только некоторые параметры этой зависимости, которые входят в эту зависимость линейно. При решении задачи сглаживания экспериментальной зависимости в случае, когда вид зависимости y = f(x) до опыта известен, обычно применяется расчетный метод, известный под названием «метода наименьших квадратов». 300
§ 7.14. МЕТОД НАИМЕНЬШИХ КВАДРАТОВ Метод наименьших квадратов применяется для решения различных задач, связанных с обработкой результатов опыта. Наиболее важным приложением этого метода является решение задачи сглаживания экспериментальной зависимости, т. е. изображения опытной функциональной зависимости аналитической формулой. При этом метод наименьших квадратов не решает вопроса о выборе общего вида аналитической функции, а дает возможность при заданном типе аналитической функции y = f(x) подобрать наиболее вероятные значения для параметров этой функции. Сущность метода наименьших квадратов при решении поставленной задачи заключается в следующем. Пусть получено п экспериментальных точек с абсциссами Л1> Л2» • • • » %п и соответствующими им ординатами Уи Уь •♦ •» Уп- Зависимость у от х, изображаемая аналитической функцией y = f(x), (7.33) не может совпадать с экспериментальными значениями t/i во всех п точках. Это означает, что для всех или некоторых точек разность bt = yt-f(xt) (7.34) будет отлична от нуля. Требуется подобрать параметры функции (7. 33) таким образом, чтобы сумма квадратов разностей (7. 34) была наименьшей, т. е. требуется обратить в минимум выражение z=ftb\=it[yt-f(xi)]*. (7. 35) i = 1 i = 1 Таким образом, при методе наименьших квадратов приближение аналитической функции y = f(x) к экспериментальной зависимости считается наилучшим, если 301
выполняется условие минимума суммы квадратов отклонений искомой аналитической функции от экспериментальной зависимости. Следует заметить, что выражение (7. 35) представляет собой полином второй степени относительно неизвестных параметров (неизвестные параметры в зависимость y = f (х) входят линейно), который не может принимать отрицательных значений. Поэтому существуют такие значения неизвестных параметров, при которых функция (7. 35) достигает минимума, и этот минимум в зависимости от значений x-t и yt будет положительным или равным нулю. При решении многих практических задач функциональную зависимость у от х ищут в виде k = \ (7. 36) где Д (х), /2(х), ..., fm{x) — известные функции, аъ а*, ... ..., ат — неизвестные параметры. Так, например, при исследовании колебательных процессов функциями fk{x) (k=\,2, ..., т) являются тригонометрические функции fk (х) = cos kx, fk(x) = smkx. При исследовании во многих областях техники очень часто встречаются степенные функции fk(x) = xk-i (£=1,2, ..., т). Таким образом, /> (х) в равенстве (7. 36) являются известными элементарными функциями аргумента х. Исходя из принципа наименьших квадратов, мы должны подобрать такие значения неизвестных параметров cti, a2, ..., ат, при которых обращается в минимум выражение = 2 У г — 2 akfk (*i) (7. 37) Выражение (7. 37) является функцией неизвестных параметров ак, поэтому для отыскания минимума этой функции нужно согласно правилам дифференциального исчисления найти частные производные функции г по 302
всем параметрам ak(k=\,2, нулю; да* я Г m , m) и приравнять их •[-fi(*f)] = 0,~ [-/■<*!>]= О, ){7Щ dz дат =2 2 ^'— 2а*м*о * == i L k = i [-U**)]=o. Подставляя в систему (7.38) опытные значения x-t и */,-, мы получим систему т линейных уравнений относительно неизвестных параметров ak, решение которой может быть получено с помощью определителей или последовательным исключением неизвестных. Рассмотрим применение метода наименьших квадратов, когда для изображения экспериментальной зависимости выбрана парабола второго порядка у = ах2 -j- bx -f- с. Пусть в результате независимых опытов получено п значений величины у: Уъ Уъ • • •» Ут соответствующих значениям величины х: ^ Х\, Х%, ...» Хп. Для определения неизвестных параметров.a, b и с методом наименьших квадратов составляем сумму квадратов отклонений искомой аналитической функции от наблюдаемых значений в данных точках Z = 2 (yi — aX°i — bxi — Cf' (7.39) Дифференцируя функцию (7.39) по неизвестным параметрам a, b и с и приравнивая производные к нулю, 303
получим следующую систему уравнений: п ~~ ~2 !й = 2 (yi ~~ ax^ ~~ bXi ~c)x*i = °> i = l 2 db 2 дс ; = i ^i(yi — axi — bxi — c)xi = 0,\ (7.40) = i п = 2 (# ~~ aX'i ~~ ^*«" ~" С) = 0, i= 1 или несколько преобразовав уравнения (7.40), получим систему уравнений: а 2 xl+b 2 */ + с 2 х? = 2 *&> i- 1 i= 1 i= l i = 1 2 ^ + ь 2 *?+с 2 * = 2 ад» [ (7-41) / = i »=i a 2Xi?+b 2 x«+САг = 2 #• «=i i=i «=i Система (7.41) представляет собой систему трех линейных уравнений относительно неизвестных параметров а, Ь, и с. Решая систему (7.41) с помощью определителей третьего порядка или последовательным исключением неизвестных, мы и получим значение параметров а, Ь и с по методу наименьших квадратов. / § 7.15. СТАТИСТИЧЕСКАЯ ПРОВЕРКА ГИПОТЕЗ Прежде чем формулировать задачу проверки гипотез в общем виде, рассмотрим два примера. Пример 1. Имеется склад готовой продукции. Известно, что изделия (например, радиолампы одного типа) поступают на склад партиями с двух заводов, выпускающих продукцию разного качества, и такими же партиями отпускаются потребителю. Качество продукции завода характеризуется вероятностью Р того, что наугад выбранное изделие является бракованным. Для одного завода Р — Р0, для другого P — Pt (P0^>^i). Потребитель на- 304
у гад выбирает одну партию изделий. Нужно на основании результатов контроля решить, на каком заводе изготовлена выбранная партия изделий. Решение. Я0 — гипотеза, состоящая в том, что выбранная партия изделий плохого качества, т. е. вероятность брака равна Рй\ #i — противоположная гипотеза, вероятность брака равна /V Будем называть Я0—нулевой, а Ну — конкурирующей гипотезой. Отберем из партии наугад п изделий. Пусть Y обозначает количество бракованных изделий среди отобранных. Ясно, что Y является случайной величиной, возможными значениями которой будут 0, 1, 2,..., п. Под решением поставленной задачи понимается выработка решающего правила, которое сопоставляет каждому возможному значению случайной величины Y одну из гипотез #о или Hi. Обозначим набор возможных значений случайной величины Y через А, тогда согласно сказанному выше, искомое решающее правило состоит в некотором разбиении множества А на части А0 и At. При попадании возможного значения случайной величины Y в множество А0 принимается гипотеза Я0 и, наоборот, при попадании возможного значения в множество Ai принимается гипотеза Hi. Вопрос заключается в том, какое из возможных разбиений множества А на части А0 и Ai следует выбрать. Пример 2. На вход приемного устройства в некоторый момент времени поступает случайная величина Y, которая либо является суммой известного сигнала X и случайной помехи Z, либо одной помехой. Производится измерение величины Y. По полученному числовому значению у нужно решить, присутствовал ли на входе сигнал X, т. е. выбрать одну из двух возможностей: y — x-\-z или y~=z. Решение. В качестве нулевой гипотезы Я0 возьмем отсутствие сигнала, а в качестве конкурирующей гипотезы #i — наличие сигнала. Задача заключается в проверке гипотезы Н0 относительно гипотезы #ь Множество А возможных значений случайной величины Y представляет собой всю ось у. Искомое решающее правило состоит в разбиении оси у на две части: Д0 и Ai- Требуется выбрать одно из таких разбиений. Общая постановка задачи. Имеются две противоположные гипотезы Но и Hi и некоторая связанная с ними 305
случайная величина Y. Пусть у обозначает числовое значение случайной величины Y, полученное в результате испытания, Д— множество всех возможных значений случайной величины Y. Требуется произвести проверку нулевой гипотезы относительно конкурирующей гипотезы Hi на основании результатов испытания. Разобьем множество А на две части А0 и Aj с условием принятия гипотезы f/0 при попадании полученного значения у случайной величины Y в результате проведенного опыта в А0 и гипотезы Hi — при попадании у в Аь Выбор решающего правила, т. е. правила разбиения множества А на две части Д0 и Ai в любой задаче проверки гипотез возможен больше, чем одним способом. йп &1 &о At A0 1 1 *- 1 . 1 *- h У I, h У Рис. 93 Рис. 94 Так, в примере 2 можно задать какое-нибудь число 1Х и положить Д0 = (— оо, W), Ai = (/i, oo) (рис. 93). Другой вариант решающего правила изображен на рис. 94. Спрашивается: какому из этих разбиений следует отдать предпочтение, или, отвлекаясь от рассматриваемого примера, какое из всех возможных разбиений в каждой конкретной задаче считать наилучшим? Метод минимума риска. Для применения к задаче проверки гипотез метода минимума риска нужно располагать некоторыми вероятностными данными. Будем считать известными два условных распределения вероятностей случайной величины Y: h(y) — ПРИ условии, что верна гипотеза Я0; fi(y) — ПРИ условии, что верна гипотеза Н\. Заметим, что случайная величина Y может быть и дискретной (пример 1) и непрерывной (пример 2). Тогда под функциями /о (у) и /i (у) в первом случае будем понимать условные дискретные распределения вероятностей, во втором случае — условные плотности распределения. В п-римере 1 вероятность Р того, что наугад выбранное изделие является бракованным, не зависит от результатов проверки других изделий и при условии истин- 305
ности гипотезы Я0 равна Р0. Поэтому закон распределения случайной величины У является биномиальным и, следовательно, имеет вид U (y)=P (Y = y\P = Ро) = C#>J (1 - P0)*-J\ (7.42) Аналогично, при условии истинности гипотезы Н\ П(У)=Р (Y = y\P = P1) = Cffl (1 - Pi)"l-y. (7.43) R примере 2 будем считать случайную величину Z подчиненной нормальному закону с нулевым математическим ожиданием и дисперсией а-, тогда условная плотность распределения /0 (у) случайной величины Y при условии отсутствия сигнала имеет вид f9(y)=-±re-*i, (7.44) так как в случае отсутствия сигнала Y = Z. Если же сигнал присутствует, то Y = X~yZ и, следовательно, h(y)=fo(y-x) = —^re~2^r'. -(7.45) Кроме условных распределений /0 (у) и fi(y)> нам потребуется априорная (доопытная) вероятность Р того, что гипотезл Я0 имеет место. Иногда мы располагаем сведениями об этой вероятности, а иногда нам ничего не известно или известно очень мало. Так, например, если в задаче о приемочном контроле известно, что среди партий готовой продукции, хранящейся на складе, одна четверть плохого качества, то при условии, что потребитель наугад выбирает одну партию изделий, Будем рассматривать следующие случайные события: А — верна гипотеза Я0, А — верна гипотеза Яь 307
В — результат эксперимента // попал в область А0, В — результат эксперимента у попал в область At. Тогда в результате принятия решения возможен один из следующих четырех исходов: АВ — верна гипотеза Я0 и принято решение о ее истинности; АВ — верна гипотеза Яь а принято решение о истинности гипотезы Я0; АВ — верна гипотеза Я0, а принято решение о истинности гипотезы Яь АВ — верна гипотеза Hi и принято решение о ее истинности. Отсюда видно, что исходы АВ и АВ связаны с ошибочными решениями. Исходу АВ соответствует так называемая ошибка первого рода, а исходу АВ — ошибка второго рода. Например, в задаче обнаружения сигнала ошибке первого рода соответствует принятие решения о наличии сигнала в случае его отсутствия, ошибке второго рода соответствует принятие решения об отсутствии сигнала в случае его наличия. Для ответа на вопрос, какое из решающих правил следует считать наилучшим, введем понятия функции потерь и среднего риска. Функция потерь сопоставляет каждому из четырех возможных исходов АВ, АВ, АВ, АВ соответствующие потери, выраженные в некото-рой системе единиц. При правильном решении естественно положить потери равными нулю. Потери, связанные с ошибками первого и второго рода, обозначим соответственно С\ и С2. Будем считать, что С\ и С2 — положительные. Для задания функции потерь нужно указать эти два числа. В дальнейшем предполагается, что функция потерь задана. Заметим, однако, что в практических задачах часто трудно сделать обоснованный выбор величины Ci и С%. Ниже мы покажем, как поступают в таких случаях. Перейдем теперь к понятию риска. Пусть Р0, Pt и Р2—вероятности соответственно правильного решения, ошибки первого рода и ошибки второго рода. Определение значений этих вероятностей будет приведено ниже. Величина потерь С, к которым приводит однократное применение решающего правила, является случайной величиной, принимающей значения О, С\, С% с вероятностями соответственно Pq, P\ и Р%. 308
Математическое ожидание М [С] случайной величины С называется средним риском (или просто риском) и обозначается буквой г. Таким образом, г = М [С] = Р0 ■ О -f Р,С, + Р2С2 = PtQ -f Я2С2. (7.46) Понятие риска приводит к естественному способу сравнения решающих правил. Из двух правил лучшим считается то, которое приводит к меньшему риску. Оптимальным решающим правилом называется правило, приводящее к наименъишму возможному в данной задаче риску. Итак, мы должны найти оптимальное решающее, правило, которое соответствует заданным условным распределениям fo(y) и ft (у), априорной вероятности Р и функции потерь (Сь С2). Это правило будем обозначать буквой Г. При отыскании правила Г ограничимся рассмотрением непрерывной случайной величины Y. Обозначим через а условную вероятность ошибки первого рода, вычисленную при условии истинности гипотезы #о, а через J3 — условную вероятность ошибки второго рода, вычисленную при условии истинности гипотезы Н\. Применяя правило определения вероятности попадания случайной величины Y на заданный участок, если известна ее плотность вероятности, запишем вероятности а и J} с помощью условных плотностей f0 (у) и fa (у): a = P(B/A)=\fo(y)dyt $ = P(BfA)=]fa(y)dy. (7.47) At Д0 В свою очередь, безусловные вероятности Pi и Р2 ошибок первого и второго рода, входящие в (7.46), выражаются через условные вероятности этих ошибок аир и априорную вероятность Р следующим образом: Рх = Р (АВ) = Р (Л) Р (В/А) = Ра, Ръ = Р (АВ) = = Р(А)Р(В1А) = (1-Р)$. Поставим полученные значения Pt и Р2 в формулу (7.46), получим: r = PaC1 + (l-P)$C9 = PCl \h(y)dy + -^(\-P)C,\fa(y)dy. (7.48) До Из формулы (7.48) видно, что каждому способу-разбиения множества А на области А0 и ^ соответствует свое 309
значение риска. Нужно выбрать области А0 и Ai так, чтобы выражение (7.48) достигло минимума. Используя свойства плотности вероятности $ /о (У) dy = \U (У) dy + \U (у) dy=\, Д Д0 Д! перепишем формулу (7.48) в виде r = PCM-\Uiy)dy\ + {\- P) C2 $ h (У) dy= L до J До =Pd + J [(1 - Р) од (у) - яод (у)] dy. До Последнее выражение достигает минимума при таком выборе области Д0, который приводит к наименьшему возможному значению интеграла в правой части. А для того, чтобы интеграл был минимальным, нужно включить в состав Д0 те и только те значения у, в которых подынтегральная функция отрицательна, т. е. (1-Я) ОД (у) - РОД (у) < 0, (7.49) а в состав Ai — остальные значения у. Запишем неравенство (7.49) в таком виде: Функция f . \ называется отношением правдоподобия. /о \У) Таким образом, искомое оптимальное решающее правило Г заключается в следующем: для полученного в результате эксперимента значения у вычисляется отношение правдоподобия тЦ\ и сравнивается с числом /о \У) '=<r=fe <7-5') если отношение правдоподобия меньше /, принимается гипотеза Я0; в противном случае — гипотеза Нх. Оптимальное решающее правило Г называется пороговым критерием для отношения правдоподобия j-Щ PC с порогом / = , * . Аналогичный результат получается и для дискретной случайной величины. 310
Применим пороговый критерий Г к рассмотренным выше примерам. Пример 1. Используя равенства (7.42) и (7.43), найдем отношение правдоподобия fo (У) [Pl(lr-P0)V /1-Л\Я СИ (1 - р0)"-у [Р0 (1 - р,)\у \\ - Р0 Следовательно, неравенство (7.50) для данного примера принимает вид ГЛ(1 -PoV откуда LPo(l-Pi)J ГР1П-Р0) 1 -ЯЛ" < PC, (1-P)CS < PC! ,' 1 - Pq \в (1 - Р)С2\ 1 -PJ/ ' LP0(i -Pi). Из условия, что Ро^> Pi, следует неравенство Pi (1 - Per) (7-52) Pod "Pi) <1. а это значит, что in P- <l - У <o. Po(l-Pi) Поэтому, определяя г/ из неравенства (7.52), будем иметь: РСг 11 - Рп \«1 </> ч (1 -Р)С2 \1 -Pi In Pi(l -Ро) (7.53) Po(l-Pi) Итак, если число г/ бракованных изделий среди наугад выбранных п изделий удовлетворяет неравенству (7.53), то принимается решение о плохом качестве полученной партии, в противном случае—решение о хорошем качестве. Пример 2. Используя равенства (7.44) и (7.45), найдем отношение правдоподобия: 1 fo(y) Следовательно, принимает вид: =. e :/2л 1 ху У2к неравенство (7.50) для этого примера ху еа2'е~ 2< (1-Р)С,- (7.54) 311
Пусть х^>0. Тогда, определяя у из неравенства (7.54), получим: #<т1п РС1 е2?2 * L(i -р)са и. (7.55) Итак, если значение у, полученное на входе приемного устройства, удовлетворяет неравенству (7.55), то принимается решение об отсутствии сигнала, в противном случае—решение о его наличии. Покажем это на графике. Изобразим плотности вероятностей /„(#) и fi(y) (рис. 95). Согласно формулам (7.47) условные вероятности в этом примере имеют вид: /, /2 п J ^ dyt Г a V~2n J (V—ДГ)2 dy. Следовательно, величина а равна площади области, расположенной (рис. 95) fofy) П°Д кривой f,(y), ""' правее точки у = 1\, величина (3 — площади, области, расположенной под кривой fi (у), левее y = h- Из рис. 95 видно, что при изменении порога U одна из вероятностей а или (3 растет, другая — убывает. В частности, lima =0, limp 1, 1 ima ч-—00 = 1, limp = 0. 11m /1 -►—00 Из формулы (7.48) следует, что при изменении а, т. е. при изменении 1и изменяется также и риск г и достигает минимума при значении Л, определенном формулой (7.55). Величина /, входящая в решающее правило Г, определяется значениями априорной вероятности Р и потерь Сь C2. Задание этих величин на практике, как мы уже отмечали выше, сопряжено с большими трудностями^. Поэтому желательно было бы получить величину / без использования значений Р, Сь Сч- Оказывается, часто при решении задачи проверки гипотез задают условную 312
вероятность ошибки первого рода а. Зная эту величину и зависимость, которая связывает а и /, можно найти порог /. Так, например, при решении задачи обнаружения сигнала мы имели такую зависимость: h h Используя функцию Лапласа, можем записать: ■Ч['-*(т«]. Полагая теперь, например, а=10~3, с помощью таблицы функции Лапласа находим порог /i — 3,1а. Это значит, что решение о наличии сигнала принимается, если результат измерения у удовлетворяет неравенству #5= 3,Ь, и решение об отсутствии сигнала — в противном случае. § 7.16. ПОНЯТИЕ О КРИТЕРИЯХ СОГЛАСИЯ Во многих случаях практики на основании тех или иных данных делается предположение о виде закона распределения интересующей нас случайной величины X. Однако для окончательного решения вопроса о виде закона распределения в подобных случаях представляется целесообразным проверить, насколько сделанное предположение согласуется с опытом. При этом ввиду ограниченного числа наблюдений опытный закон распределения обычно будет в какой-то мере отличаться от предполагаемого, даже если предположение о законе распределения сделано правильно. В связи с этим возникает необходимость решать следующую задачу: является ли расхождение между опытным законом распределения и предполагаемым законом распределения 313
следствием ограниченного числа наблюдений, или оно является существенным и связано с тем, что действительное распределение случайной величины отличается от предполагаемого. Для решения поставленной задачи служат так называемые «критерии согласия». Идея применения критериев согласия заключается в следующем. Пусть, например, на основании данного статистического материала нам предстоит проверить гипотезу Н, состоящую в том, что случайная величина X имеет функцию распределения F(x). Для того чтобы принять или опровергнуть гипотезу Н, будем рассматривать случайную величину У, характеризующую степень расхождения теоретического и статистического распределений. Величину У можно выбирать различными способами. Например, в качестве Y можно взять максимальное отклонение статистической функции распределения F* (х) от теоретической F(x). Очевидно, закон распределения случайной величины Y зависит от закона распределения случайной величины X, над которой производились опыты, и от числа опытов п. Предположим, что закон распределения случайной величины нам известен. Пусть в результате проведенных п опытов над случайной величиной X величина Y приняла некоторое значение у. Спрашивается, можно ли объяснить принятое значение Y = y случайными причинами или же это значение слишком велико и указывает на наличие существенной разницы между теоретическим и статистическим распределениями, т. е. непригодность гипотезы Я? Для ответа на этот вопрос допустим, что верна гипотеза Ну и вычислим вероятность того, что случайная величина Y за счет случайных причин, связанных с ограниченным объемом опытного материала, примет значение не меньше, чем наблюдаемое значение у, т. е. вычислим вероятность P(Y^y). Если эта вероятность мала, то гипотезу Н следует опровергнуть как малоправдоподобную, а если же эта вероятность значительна, то экспериментальные данные не противоречат гипотезе Н. Для вычисления вероятности Р{У^у) необходимо знать закон распределения случайной величины Y, который, как мы уже отмечали, зависит от закона распределения случайно^ величины X (функции распреде- 314
ления F (х)) и от числа опытов п. Оказывается, что при некоторых способах выбора случайной величины Y ее закон распределения при достаточно большом п практически не зависит от закона распределения случайной величины X. Именно такими мерами расхождения и пользуются в математической статистике в качестве критериев согласия. Наиболее простым критерием проверки гипотезы о виде закона распределения является критерий академика А. Н. Колмогорова, представляющий собой максимальное значение абсолютной величины разности между статистической функцией распределения F* (х) и соответствующей теоретической функцией распределения F(x), т. е. " D = max\F*(x) — F(x)\. А. Н. Колмогоров доказал, что какой бы вид не имела непрерывная функция распределения F (х) при неограниченном возрастании числа независимых наблюдений п, вероятность неравенства стремится к пределу оо Я (X) = 1 — 2 (—1)А^2**х». (7.56) ft = —oo Для вероятности Р (X) составлена таблица, краткая выдержка из которой приводится ниже: А | 0,823 Р(Х) 0,5 1,224 j 1,353 | 1,627 | 1,950 0,1 0,05 0,01 0,001 Схема применения критерия А. Н. Колмогорова следующая. 1. По результатам п произведенных измерений строится статистическая функция распределения F* (х). 2. На том же графике строится предполагаемая теоретическая функция распределения F(x). 3. Определяется максимальная величина модуля разности их ординат (рис. 96). 4. Вычисляется величина l = DVn. 315
5. По вышеуказанной таблице находится вероятность Р (X), соответствующая тому, что за счет случай- пых причин максимальное расхождение между F* (х) и F (х) будет не меньше, чем фактически наблюдаемое. Если вероятность Р (к) очень мала, гипотеза бракуется: при сравнительно большой вероятности Р (X) гипотеза считается совместимой с результатами опыта. Заметим, что критерий А. Н. Колмогорова может применяться только в случае, когда гипотетическое распределение F {х) полностью известно, т. е. известен не только вид функции распределения F(x), но и все вхо- F*(X) к F(X) 1 -^J8M. О X Рис. 96 дящие в нее параметры. Очевидно, что такие случаи на практике встречаются редко. Обычно из теоретических соображений известен только вид функции- Р(х), параметры ее приходится определять по результатам выборки. В таких случаях следует применять другие критерии согласия. Один из наиболее часто применяемых на практике критериев согласия, который позволяет производить проверку гипотезы соответствия опытного закона распределения предполагаемому (теоретическому) не только в случаях, когда последний известен полностью, но и тогда, когда параметры предполагаемого закона распределения определяются на основании опытных данных, является критерий ж2 (хи-квадрат). Описание этого критерия можно найти, например, в работе [2]. Вопроси для самопроверки 1. Чем занимается математическая статистика? 2. Назовите основные задачи математической статистики. 3. Назовите основные понятия математической статистики. 4. Что называется статистической функцией распределения? 5. Что такое гистограмма? 316
6. Назовите числовые характеристики статистического распределения. Дайте одределение этих характеристик. 7. Какая оценка параметра называется состоятельной? 8. Какая оценка параметра называется несмещенной? 9. Какая оценка для математического ожидания обладает свойствами состоятельности и несмещенности в случае прямых равноточных измерений? 10. Какая оценка для дисперсии обладает свойствами состоятельности и несмещенности? 11. Какая оценка для математического ожидания обладает свойствами состоятельности и несмещенности в случае неравноточных измерений? 12. Что называется доверительным интервалом и доверительной вероятностью (надежностью)? 13. Как строится доверительный интервал для математического ожидания случайной величины, распределенной по нормальному закону? 14. Какая оценка для корреляционного момента обладает свойствами состоятельности и несмещенности? 15. В чем заключается сущность метода наибольшего дравдо- подобия для нахождения оценок параметров распределений? 16. В чем заключается сущность метода наименьших квадратов при обработке результатов наблюдений? 17. Сформулируйте задачу статистической проверки гипотез. 18. Приведите примеры задач на проверку гипотез. 19. Какими нужно располагать вероятностными данными для применения метода минимума риска к решению задачи проверки гипотез? 20. В чем заключается сущность метода минимума риска при решении задачи проверки гипотез? 21. Сформулируйте оптимальное решающее правило Г. 22. В чем заключается идея применения критериев согласия при решении задачи о согласованности теоретического и статистического распределения? Упражнения 1. С целью исследования закона распределения ошибки измерения дальности с помощью радиодальномера произведено 300 измерений дальности. Результаты измерений представлены в виде статистической совокупности: 1и м ■ 560 - 570 570 - 580 580 - 590 590 — 600 600 — 610 mi 6 27 45 72 78 Р* i 0,02 0,09 0,15 0,24 0,26 /., м 610-620 620 — 630 630 - 640 640 — 650 т. 42 21 6 3 Р* i 0,14 0,07 0,02 0,01 Определить статические математическое ожидание и дисперсию. Построить статистическую функцию распределения. Отв. т* = 600 м; D* = 247 м2. 317
2. По воздушной цели ведется стрельба независимыми очередями, каждая из которых состоит из четырех выстрелов. Случайная величина X—число попаданий в цель для одной очереди. Произведено 30 очередей. Результаты опытов представлены в виде статистической совокупности: XI Щ Pf 0 3 0,1 1 6 0,2 2 12 0,4 3 6 0,2 4 3 0,1 Построить статистическую функцию распределения и определить статистическое математическое ожидание и статистическую дисперсию случайной величины X. Отв. т* = 2; D* = 1,2. 3. Произведено 400 бомбометаний с радиолокационным прицелом в примерно одинаковых условиях (# я= 3000 м; v «=900 км\ч). Случайная величина X—отклонение бомбы по дальности от центра цели. Результаты опытов представлены в виде статистической совокупности: 1ьм _ 500 400 --400 300 _300 200 — 200 100 — 100 -0 тг. 4- 12 28 56 100 рГ 0,01 . 0,03 0,07 0,14 0,25 1ьм 0- 100 100 — 200 200 — 300 300—400 400 — 500 т. i 96 60 32 8 4 Pf 0,24 0,15 0,08 0,02 0,01 Определить статистические математическое ожидание и дисперсию отклонения бомбы по дальности. Построить гистограмму данной статистической совокупности. Отв. «* = 0; £>* = 2,72-104 ж2. 4. Произведено 500 опытов, в которых определялась мощность отраженного от участка моря сигнала на выходе радиолокационного приемника. Результаты опытов сведены в статистическую совокупность: /;, вт гщ РГ 0 — 0,1 165 0,33 0,1—0,2 120 0,24 0,2 - 0,3 75 0,15 0,3 - 0,4 55 0,11 0,4 — 0,5 35 0,07 318
lit вт ГГЦ Pt 0,5 — 0,6 20 0,04 0,6 — 0,7 15 0,03 0,7 - 0,8 10 0,02 0,8 — 0,9 5 0,01 Определить статистическое математическое ожидание и среднее квадратическое отклонение мощности сигнала. i Отв. /п* = 0,225 вт) а* = 0,189 вт. 5. При помощи радиодальномера произведено 16 измерений одного и того же расстояния. Результаты измерения в метрах представлены в виде статистического ряда: 1 Di 1 201 2 195 3 207 4 203 5 191 6 208 7 198 s 210 9 204 10 192 М 195 12 211 13 20G П 196 15 208 16 197 Известно, что радиодальномер не имеет систематической ошибки. Найти несмещенную оценку математического ожидания, измеряемого расстояния и определить доверительные границы, в которых с вероятностью 0,9 заключено это расстояние. Отв. т* = 201 м; mt = т* - е = 201 - 3 = 198 ж; • та = 201 + 3 = 204 м. 6. Производится серия независимых опытов с целью определения вероятности события А. В результате 200 опытов событие А произошло 68 раз. Частота события принимается за приближенное значение вероятности. Найти границы, в которых с вероятностью не менее 0,9 будет заключено наблюдаемое значение частоты появления события А. Отв. /э« (0,286; 0,394). У к а за н и е. Математическое ожидание случайной величины X, которая в каждом отдельном опыте принимает значение 1, если событие А появилось, и 0, если не появилось, равно частоте р*, ее дисперсия р* (1 — р*). 7. Производится серия независимых опытов с целью определения вероятности события А. В результате 100 опытов событие А произошло 36 раз. Частота события принимается за приближенное значение вероятности этого события. Найти вероятность того, что допущенная при этом ошибка не превосходит 20%. Отв. £ = 0,87. 8. Производится серия независимых опытов с целью определения вероятности события А. В результате 100 опытов событие А произошло 36 раз. Частота события принимается за приближенное значение вероятности. Каково должно быть число опытов для того, чтобы с вероятностью не менее 0,9 можно было утверждать, что допущенная при этом ошибка не превышает 15%? Отв. п ^ 213. 319
9. Производится п независимых опытов, в результате которых событие А появилось т раз. Требуется методом наибольшего правдоподобия оценить величину вероятности Р появления события А в отдельном опыте. Отв. Р = —. п 10. Случайная величина X подчинена закону Пуассона с неизвестным параметром б и может принимать любое из значений О, 1, 2, — Пусть хи xs,..., хп — наблюдаемые значения случайной величины в результате проведенных п опытов и г — наибольшее из этих значений. Числа т0, ти..., тг представляют собой частоты, с которыми встречаются наблюденные значения случайной величины X. Требуется методом наибольшего правдоподобия оценить параметр 8. п 1 ^ Отв. 6 = — У xi- t = i
~J Оз Сл 4^ CO N3 — О 0,904837 0,090484 0,004524 0,000151 0,000004 0,818731 0,163746 0,016375 0,001092 0,000055 0,000002 ООООООО ОООООМЧ О ОО ОСО ГО 4^ О О О СО СО N3 О О О N3 СО СО N2 СО О — СЛ СО СО 4Ь. ►— — СЛ О 4^. —} СЛ СО ророрр о "о о "о о о То "аз О О О О СЛ С7; ^ СООЧЩОСО о о -~д — аз — со О Сл — СЛ N3 N3 N3 Ачслоазооо ррро оооо ооЬЪоЪсоа оооо — -~доо ооо — юслсоаз о о — ел аз со to ел о — ел со со '— азсо — со со о аз аз ел — оооооооо ОООО О OCO СЛ OOOO-tDW* ooototoooccoo QOCOCO-~l-~JtOCC осослаэслсосо — соазстэ4ь.-4аз--но 3 / 0,1 0,2 0,3 0,4 0,5 о •в* х- "о ~ 2 рр о о$эр>р><р оррр ос>р>а>а>с>ср 'ю~сс"соЪо'*--д"^'аз'азЪ1'сл ^"i^ со "со ТоТо —"^-о о СлОСлОСлОСлОСлОСлОСЛОСлОСЛОСлО "bo Vj Vj ~-j "Vj "аз Ъз Ъз "ел "ёл ^ "k- со со То То — "—* о о го со -~д 4*. ■ J4^ocT3ro-~]ro--jro~Jroa3 — ело oaiow -1сососоослоосоооазюсо(оозо сосо-j — госоососослсл4^4^стэсо--1осл4^о оо о <оор>р>р>ор>р>^рр>ос^р>р>р>р><р 'со'со'со'со'со'соо^^'со^'соо'со'сооооо'сооооо сосососососо---|-~]азСлсл4^сого — сосоаз4^го to — «00300000 — азеокзео^гооазогоюо со — — —д со 4^ аз аз — -~д со со о со со — to 4^ -j со jwjo^jojojn3>3 w>ЗJO^^з^ЮJO>э^>з^ю^w,r-',.^--* 'oЪo^''^ЪзЪзЪlЪ^^^ЪoЪ;To,to^— "— о о со со ООСлОСЛОСлОСлОСлОСлОСЛОСЛОСЛО ^р><рр>с><рр>р>р>С2с>с>р>р>р>с>с^с>с><р о 1о "со ^о "со "со "со "со ^о "со "со "со ^о "со ^о ^о 1о 1о ^о 1о ОСОСОСОСОСОСОСОСОСОСОСОСОСОСОСОСОСОСОСО SCOtpCOCOCOCOCDCOCOCOCOCOCO~J--ja3C/<4b.tO COCOCOOOCO-JCiCJiCO — ООСЛ — 030COCODOCO
ОЭ Сл 4b. CO tO — О СО ОС? --] ОЭ СЛ 4^ СО N2 • •осооо-^стэсл^сого — о ооооооооооооооооооо о о о о ооо о о о оо> — — — — — о о ООООООООО~(0СЛОСЛС0С0АЧ- Г"■* (-К /—-, /—-ч *—s Г"■* Г"■* , l /-T1 *-.«s i»>—\ /•'"•n ,Г^ ГТ\ ГТ1 i*Tl ГЧ*> Г|^ ГУ1 > ^ t J <: J ^ 1 ^ W ^_^ ' L tSJ ^Jl ^_^ ^»» ^А-> ^А-> *^- 1 ' > о о о о о — слсососо^аэслслслсооо _ JOOO-ОЮММ-^]Сп — ГО СО СО СЛ ГО СО ооо — слсс4ь.юсосо-~]4ь.сосостэстэ(чэстэ — о^-'^слаэ-^юслю — оо^соччслазо) оооооооооооооооооооо о о о о о о о о о о о о —^—— "^- — bob ООООООООО-ШЛО^ЧЧ^ООМО оооооо~соооооаэсл>^.аэслсло>^.соО} ОООО^^СОАЮ — K/MAK!4iACOWCTi4 ОО — 4ь.сл-~л(осо>£>.состэ-~].£>.гостэстэ--1ююсо — 4^4^CO--JtO — 4^tOCOCTiOOCnCO-~J-~]4^.t>.000 0000000000000000000000 о о о о о о о о о о о о о — — — — — о о о о ооооооооо-ю^аосоаоиоо^'-о ОООООООМСЛ-М-ООШЧООСОЮДМО оооо — сооою — мс^сооогослстэстэоогостэоо**. О О — СО — COCOtOCOCTitOOCOOi--JtOrOCriCO — --J~J — 4^КЭСО004^ — 00СОГОСОС00000-~]С0С0С0Сл00С0СО oooooooooooooooooooooooo о000000о00000о—^———оо00о 0000000000-MA^OM*4fi(0!OCliN300 *~v -^^ -—■* -^^ -^^ -—^ *—* - - - » - ■ f* /Тч Г s ■ Г""V I i *—ч Г(^ Г^1 — 1 I t К ~, К ~, ГТч ("^v S_^ S_^ \_^ V ' S_^ S > \_^ 4_^ 4_^ S^ ^^ [\J >+^. ~*J Ч_^ ^ *"*• >+^ IN^ ^* *-" I4** S ' W 0000000—'СО"-14^азою — оюсоч- to to о о ооооомсл^шо-ш~со^шоочю-шсаю оо — сооососо4ь.— сооосл-^ooo-joo—■• го го •£■- 00 —- — ШООСЛМОЮО — 4^ 00 О —-COOi-~JCOCO--JaiCO'— СО tO oooooooooooooooooooooooooo ОООООООООООООООО————ОООООО ООООООООООО-М^^ЮМШШЮОСЯМ-ОО оооооооом^сстсооокэслююм-чоооюо ооооо — соо — слосоаз" — кзослсл — азкзаз—J02CO ооо го аз c^co^to — to^ — мсоаэ-^оооосоосльосооссо —* со ос го — со--44^*»соа>4^аз--]01\э--4-^-^оо4^(\зазсл^сл ooooooooooooooooooooooooooo 00 0000 00© о ©о©"Ъ© о^--—^-- — о "о о о о о о оооооооооо — — со ел -j со — coco — ©aico^ooo ООООООО^МСЛО(0МОМЧ00--^-ОС0А*.-О ОООО — rOCTiC000-JCO4^C0CO-J©Oi-~]-~] —* © -J -J CO CD — — 00 — 4^ о о>' лсооосососю^аэмоослсл — cotocococo — to r005aiD0004^-JOCOC7>© — 4b.05CnOO05CT>05©-J-J>Jb.00 — СО сл*»-сого — ©сооо-^слсл^сою — © оооооооо ООО ОО"^—"СО"4^ ООООММ^Ю ОООМ» JC73 ©оососоаэаэел ооооазооаз — ос — 00 — 0ОО0СО©СЛ ООООООООО ©О©©©©— СО 4^ OOOOOCO^Oi^ 000 —чооозюсс ОО — го аэ со -J 4^ со О — О^ЬЭО^^ООО^Ю ГОС04^--ЛСОС0СлС0СО оооооооро ОООООО —CoTfcv 0000—^азазо ooONj-to^cnai ООСОО—СООЭСОСл осооо — оаз——j 4^СО© — СЛОО —СО© оооооооооо о о о ооо о — Ъо со ооооо — аэооаэаэ ООООСОСЛ — CO-J—] ОООСЛОСОСОООООО oo-J — airo — 4^ -~д -~д — coco-аэоосо©сосо ооооооооооооо obbobbbbb-мм"- ОООООО-СОЮОЭЧЧСС ооооососоаэоооосл ©ОО — 004^©©Г04^аэа>СО оосо5ососойза>кэ*^ччсо — -^оо— СО -~] © СО 4^- -~] — — СЛ оооооооооо оо о оо о оооооооооо—"^-"КэТо —о оооооооомслогомм^*- ООООООГООО — OOOOJiJiCDtO OOOON3«4-'0)A00OOOCC4 ОО — СЛ ГО — ОООО— СО 4^ 4*. СТЭ ОО — СОСОСЛ — © — Ю4^ СО CD— N2 N2 — -~] 3 / р 0,8 0,9 0 2,0 3,0
о кз оз о N3 С» СО О а; оо Сл О г-п КЗ 4^ О ОЗ -.1 rf^ О ОО ю о со аз кз о кз СП кз UI 4^ СО с» СП сл NT аз аз ~-i -j ОТ; 4^ Oi о 4^ аз о кз аз ю ел 4^ со ОО --J СЛ Ю --J аз -о со оо (-) 4^ аз 4Ь. о кз аз кз ел СЛ СО ОО СО ел К") со ОЗ оо ПО ел О ел О СО о кз -J кз Oi аз со с» со ел со о аз оо со ОО г л ** о ел Сл кз со кз -J кз О' аз со оо со сл со О ОЗ оо со оо сл 4*. о с л СЛ N3 со кз -J кз с л аз со оо со сл со о ОЗ оо СО оо сл СЛ о Г)1 аз кз -j кз --J кз сл аз СО с» со сл со аз 00 4^ оо ГЛ о< о ел --J кз аз кз ~j кз (Л аз со со о СЛ со аз с» 4*. оо ел аз о с л СО КЗ Oi кз --J кз сл аз со со о СЛ со аз с» 4^ оо с л аз о Oi ОО КЗ 4^ КЗ ~J КЗ С л аз СО со о СЛ со аз оо Сл По с л ~-J о ■•л со КЗ со КЗ -J КЗ с л аз со со о «•л со КЗ ГГ) оо сл 0О г л СО о аз о КЗ КЗ КЗ -J КЗ ел аз со со о сл со КЗ аз ОО аз оо ел СО О аз КЗ КЗ -J КЗ с л --J со со СЛ СО КЗ аз ОО аз оо с л со о стэ со КЗ о КЗ -J КЗ Г Л --J со со Г Л со со аз ОО -j ОО аз о о стэ 4^ со КЗ -J КЗ С Л ~j со со СЛ со со аз оо оо оо стэ о стэ аз оо КЗ -J КЗ СЛ -J со со КЗ сл со 4^ аз оо Ос ОС стэ КЗ о аз -j -j КЗ оо КЗ г л -J СО СО КЗ сл оо 4*. аз оо со оо аз со о стэ со аз КЗ со КЗ С Л оо со со КЗ сл со Сл аз со о 0О СТз СЛ о ~J СЛ КЗ оо КЗ с л оо СО со со СЛ со аз аз со ОО СТЭ аз о ~j 4^ 4^ КЗ оо КЗ с л ОО СО со со С Л со -J аз со КЗ 0О стэ ОО о --J аз со КЗ ОО КЗ СЛ со со со 4^ Сл СО оо аз со 45* 0О --J о о --J со КЗ го со КЗ С Л со СО со СЛ СЛ со со аз со СЛ оо -J со о оо со КЗ со КЗ аз о со со аз Сл 45* о аз о -j со -J о со со о КЗ со КЗ аз о со со -j сл 45* КЗ -J О о со О со со СО КЗ со КЗ аз СО со сл 4^ со -J <_> со со со со с_> с_> оо со о КЗ аз КЗ со со СЛ 45* аз ■^j <_> аз со со с_> со --J со о a со 4*. о КЗ Сл 45* СО -J СО со со аз со к- КЗ аз Oi 45* о 45* Сл СЛ СО ■^J со со о со 45* СЛ СО to КЗ аз -j *- о со Сл UI со -J КЗ -J со КЗ о UI аз 4^ Со 45* КЗ -J ~ 45* 45* Сл Оз со -J га 45* со с_> СО СО -J КЗ -J -J 45* Ю 45* Сл 45* --) аз U1 о СО -j со КЗ сл с_> КЗ 45* КЗ КЗ со со 45* 45* U1 аз -j о оо аз _ о аз со СО Оз _р Сл оо о СО КЗ От о Сл о о --4 КЗ -J __ о о о _ СО -J аз со аз со 1 / / "CD О _ о о о -3 о 0,7 - Со ч
ССООЮО" — — >— ■— — — — ЮМКЗЮСОСОСО^Л.СЛО'О)^»©1— *■ --4 СО Со 00 ОС N3 (2 С; СО О >- СО ►£* Си Oi OO CO — COOiOOOCO^J — CnOaiCOtOCO^JCnOCOCOOOC; C0CjC^C0CiOT^J^J^J--J^J^J^J-~]~--~]^J-J-~]-~]-~l^J-~]-~]^JO0OeO0O0 CD O^- CO ~CO CO СЛОО>— 4b. -~] CO —* CC OiOC — 4b.-~l>—'СЛЮ^ОС! СО—' —MOJfOWOOiCO ^-„— JO JO JO JO JO JO JO JO JO JO N3 JO JO JO JO JO JO JO JO JO JO JO JO JO JO JO JO JO JO pO^rf*-JO ffiVobboooobobbbbb^---"-^bMbbwVoiV-w"^ аооом^Аслслсхс^сл^чооюсоО'-мсо^гооэосоа — асл^^ооо — oo JO JO JO JO JO JO JO JO JO JO JO JO JO JO JO JO JO JO JO JO JO JO JO JO JO JO JO pi Oi CO _CO jt». J35 _— "со be bo 4^. 4^."4^-^. ^^^"а^Ьл'слЬл^'ел ^^^"стзЪ^Ьл'стз^^Ъо'со о"—*Ьо"-^"сл coco о;а!(ома!05^1чоооооо—ми^сячоооюслооюгоюоо^спсп^о) jojojojojo to jo jo jo jo jo jo jo jo jo jo jo jo jo jo jo pipipipi со с*эоэрз£ъ£*р\сош "слЪъЪ^ -~j"-~j"-~jVjVjVjVi'bo'oo ооЪоЪсЪсЪо'ср o~co^O О о"—*"—* tobo'cn""—j оЪгЪо"<о~--1 OOKjOlOOiOia^lOCOO — WCOAOiOOOMOiOO — CJ — ЧСЛОО'-'"^4'''' ■СОО^Ю — CO СП _co 50 pi p> pi со pi pi pi pi pi pi со ^co pi pi pi jWj^j^^j^j^^j^^pipipipi^oojo^^co ТоЬо^ЪпЪ} о^^1з-/^~^~^^^]'ооЪоЪо о "со о "о"—*~юЪ;~4^~<^~^ o"4^~cc oo o^cob»^
ЛИТЕРАТУРА 1. В. С. Пугачев. Теория случайных функций и ее применение к задачам автоматического управления. М., Физматгиз, 1960. 2. Е. С. В е н т ц е л ь. Теория вероятностей. М, Физматгиз, 1962. 3. Б. В. Г н е д е н к о. Курс теории вероятностей. М., Физматгиз, 1961. 4. Н. В. С м и р н о в и И. В. Д у н и н-Б а р к о в с к и й. М., Краткий курс математической статистики для технических приложений. М., Физматгиз, 1959. 5. В. Ф е л л е р. Введение в теорию вероятностей и ее приложения, т. 1 и 2. М., «Мир», 1967. 6. В. Е. Г м у р м а н. Введение в теорию вероятностей и математическую статистику. М., «Высшая школа», 1963. 7. Б. Г. Володин и др. Сборник задач по теории вероятностей, математической статистике и теории случайных функций. М., «Наука», 1965. 8. С Н. Лозинский. Сборник задач по теории вероятностей и математической статистике. М., «Статистика», 1967.
ОГЛАВЛЕНИЕ Стр. Предисловие 3 Введение 4 Глава 1. Определение вероятности и основные правила ее вычисления 8 § 1.1. Случайные события. Классификация событий. 8 § 1.2. Сумма и произведение событий 10 § 1.3. Частота события и. ее свойства 12 § 1.4. Вероятность события 15 § 1.5. Геометрическая вероятность 18 § 1.6. Аксиоматическое построение теории вероятностей 21 § 1.7. Теорема сложения вероятностей 24 § 1.8. Теорема умножения вероятностей 27 § 1.9. Теорема сложения вероятностей для совместных событий 31 § 1.10. Формула полной вероятности 34 § 1.11. Теорема гипотез (формула Бейеса) 35 § 1.12. Повторение испытаний. Формула Бернуллй 38 § 1.13. Наивероятнейшее число, наступлений события при повторении испытаний 42 Вопросы для самопроверки 44 Упражнения 44 Глава 2. Случайные величины 48 § 2.1. Понятие случайной величины 48 § 2.2. Закон распределения вероятностей дискретной случайной величины § 2.3. Функция распределения § 2.4. Плотность распределения § 2.5. Числовые характеристики случайной величины § 2.6. Моменты случайной величины § 2.7. Биномиальное распределение § 2.8. Распределение Пуассона § 2.9. Равномерное распределение - . . _ § 2.10. Показательное распределение <S9' § 2.11. Нормальное распределение 91 § 2.12. Вероятность попадания случайной величины, имеющей нормальное распределение, на заданный участок Фукция Лапласа 94 Вопросы для самопроверки 99 Упражнения 100 Глава 3. Системы случайных величин 103 § 3.1. Понятие о системе случайных величин .... 103 § 3.2. Закон распределения системы случайных . . величин. Таблица распределения 104 § 3.3. Функция распределения-системы двух случайных величин 105 326
Стр. § 3.4. Плотность распределения системы двух случайных величин 109 § 3.5. Плотности распределения отдельных величин, входящих в систему. Условные законы распределения 114 §3.6. Зависимые и независимые случайные величины 119 § 3.7. Числовые характеристики системы двух случайных величин. Корреляционный момент. Коэффициент корреляции 122 § 3.8. Функция и плотность распределения системы произвольного числа случайных величин . . . 126 § 3.9. Числовые характеристики системы произвольного числа случайных величин 129 § 3.10. Нормальное распределение на плоскости . . 132 Вопросы для самопроверки 140 Упражнения 141 Глава 4. Функции случайных величин 145 § 4.1. Закон распределения функции одной случайной величины 145 § 4.2. Распределение функционального преобразования системы случайных величин 151 § 4.3. Закон распределения функции нескольких случайных величин 153 § 4.4. Распределение Рэлея 157 § 4.5. Определение математического ожидания функции случайных величин. Теоремы о математических ожиданиях 159 § 4.6. Определение дисперсии функции случайных величин. Теоремы о дисперсиях 166 § 4.7. Определение корреляционного момента функции случайных величин. Свойства корреляционного момента и коэффициента корреляции 172 § 4.8. Комплексная случайная величина 177 § 4.9. Характеристические функции 179 Вопросы для самопроверки '. 185 Упражнения ^86 Глава 5. Предельные теоремы теории вероятностей 189 § 5.1. Предварительные замечания 189 § 5.2. Неравенство Чебышева 190 § 5.3. Теорема Чебышева • 192 § 5.4. Теорема Бернулли . . . * 195 § 5.5. Центральная предельная теорема 197 § 5.6. Теорема Муавра — Лапласа 201 Вопросы для самопроверки 204 Упражнения . 204 Глава 6. Случайные, функции 206 § 6.1. Определение случайной функции 206 § 6.2. Многомерные плотности вероятности 208 § 6.3. Математическое ожидание и дисперсия случайной функции 210 § 6.4. Корреляционная функция случайной функции 211 § 6.5. Моменты высших порядков 216 327
Стр. § 6.6. Примеры случайных функций 217 § 6.7. Комплексные случайные функции 221 § 6.8. Операции над случайными функциями .... 223 § 6.9. Каноническое разложение случайных функций 231 § 6.10. Стационарные случайные функции 234 § 6.11. Эргодическое свойство стационарной случайной функции 237 § 6.12. Спектральное разложение стационарной случайной функции на коне-чном интервале ... 241 § 6.13. Спектральное разложение стационарной случайной функции на бесконечном интервале. Спектральная плотность стационарной случайной функции 246 § 6.14. Примеры стационарных случайных функций 251 § 6.15. Преобразование стационарной случайной функции линейной системой 256 Вопросы для самопроверки 261 Упражнения 262 Глава 7. Математическая статистика 268 § 7.1. Предмет математической статистики 268 § 7.2. Генеральная совокупность и выборка .... 269 § 7.3. Статистический ряд. Статистическая функция распределения 270 § 7.4. Статистическая совокупность. Гистограмма. 272 § 7.5. Числовые характеристики статистического распределения 274 § 7.6. Свойства точечных оценок 275 § 7.7. Определение приближенного значения измеряемой величине и приближенного значения дисперсии в случае прямых равноточных измерений 277 § 7.8. Определение приближенного значения измеряемой величины в случае неравноточных измерений 282 § 7.9. Доверительный интервал. Доверительная вероятность 286 § 7.10. Построение доверительного интервала для математического ожидания случайной величины, распределенной по нормальному закону. Распределение Стьюдента 290 § 7.11. Определение приближенных значений числовых характеристик системы двух случайных величин • 293 § 7.12. Метод наибольшего правдоподобия для нахождения оценок параметров распределений . . . 296 § 7.13. Сглаживание экспериментальных зависимостей 299 § 7.14. Метод наименьших квадратов 301 § 7.15. Статистическая проверка гипотез 304 § 7.16. Понятие о критериях согласия 313 Вопросы для самопроверки 316 Упражнения 317 Приложения 321 325