Текст
                    Серия
КЛАССИЧЕСКИЙ
УНИВЕРСИТЕТСКИЙ УЧЕБНИК
основана в 2002 году по инициативе ректора
МГУ им. М.В. Ломоносова,
академика РАН В.А. Садовничего
и посвяшена
250-летию
Московского университета


КЛАССИЧЕСКИЙ УНИВЕРСИТЕТСКИЙ УЧЕБНИК Редакционный совет серии Председатель совета ректор Московского университета В.А. Садовничий Члены совета: Виханский О.С., Голиченков А.К., Гусев М.В., Аобреньков В.И., Аониов А.И., Засурский Я.Н., Зинченко Ю.П. (ответственный секретарь), Камзолов А.И. (ответственный секретарь), Карпов СП., Касимов Н.С., Колесов В.П., Лободанов А.П., Лунин В.В., Лупанов О.Б., Мейер М.С., Миронов В.В. (заместитель председателя), Михалев А.В., Моисеев Е.И., Пушаровский Л.Ю., Раевская О.В., Ремнева М.Л., Розов Н.Х., Салеикий A.M. (заместитель председателя), Сурин А.В., Тер-Минасова С.Г., Ткачук В.А., Третьяков Ю.А., Трухин В.И., Трофимов В.Т. (заместитель председателя), Шоба С.А.
Московский государственный университет имени М.В. Ломоносова Б. В. Гнеденко КУРС ТЕОРИИ ВЕРОЯТНОСТЕЙ Лопушено Министерством высшего и срелнего спеииального образования СССР в качестве учебника лля стулентов математических спеииальностей университетов Издание восьмое, исправленное и дополненное Издательство УРСС МОСКВА, -
ББК22.171я73 Гнеденко Борис Владимирович Курс теории вероятностей: Учебник. Изд. 8-е, испр. и доп. — М.: Едиториал УРСС, 2005. — 448 с. (Классический университетский учебник.) ISBN 5-354-01091-8 Дается систематическое изложение основ теории вероятностей, проиллюстрированное большим числом подробно рассмотренных примеров, в том числе и прикладного содержания. Серьезное внимание уделено рассмотрению вопросов методологического характера. В настоящее издание возвращен очерк по истории теории вероятностей. Для студентов математических специальностей университетов и педагогических институтов. Научная библиотека МГУ 22000792 Издательство «Едиториал УРСС». 117312, г. Москва, пр-т 60-летия Октября, 9 Лицензия ИД № 05175 от 25.06.2001 г. Подписано к печати 13.12.2004 г. Формат 60x90/16. Бумага офсетная. Печ. л. 28. Зак. № 59 Отпечатано с готовых диапозитивов во ФГУП ИПК «Ульяновский Дом печати» 432980, г. Ульяновск, ул. Гончарова, 14 ISBN 5-354-01091-8 Б. В. Гнеденко, 1988, 2001, 2004 Едиториал УРСС, 2004 УРСС ИЗДАТЕЛЬСТВО НАУЧНОЙ И УЧЕБНОЙ ЛИТЕРАТУРЫ E-mail: URSS@URSS.ru Каталог изданий в Internet: http://URSS.ru Тел./факс: 7 (095) 13S-42-16 Тел./факс: 7 (095) 135-42-^6 3058 ID 25650 НАУЧНАЯ СИБПИОТЕКА МГУ 1М
Предисловие к серии Уважаемый читатель! Вы открыли одну из замечательных книг, изданных в серии «Классический университетский учебник», посвященной 250-летию Московского университета. Серия включает свыше 150 учебников и учебных пособий, рекомендованных к изданию Учеными советами факультетов, редакционным советом серии и издаваемых к юбилею по решению Ученого совета МГУ. Московский университет всегда славился своими профессорами и преподавателями, воспитавшими не одно поколение студентов, впоследствии внесших заметный вклад в развитие нашей страны, составивших гордость отечественной и мировой науки, культуры и образования. Высокий уровень образования, которое дает Московский университет, в первую очередь обеспечивается высоким уровнем написанных выдающимися учеными и педагогами учебников и учебных пособий, в которых сочетаются как глубина, так и доступность излагаемого материала. В этих книгах аккумулируется бесценный опыт методики и методологии преподавания, который становится достоянием не только Московского университета, но и других университетов России и всего мира. Издание серии «Классический университетский учебник» наглядно демонстрирует тот вклад, который вносит Московский университет в классическое университетское образование в нашей стране и, несомненно, служит его развитию. Решение этой благородной задачи было бы невозможным без активной помощи со стороны издательств, принявших участие в издании книг серии «Классический университетский учебник». Мы расцениваем это как поддержку ими позиции, которую занимает Московский университет в вопросах науки и образования. Это служит также свидетельством того, что 250-летний юбилей Московского университета — выдающееся событие в жизни всей нашей страны, мирового образовательного сообщества. Ректор Московского университета академик РАН, профессор В. А. Садовничий /б, CujoU '<исии
Борис Владимирович Гнеденко (1912-1995)
Оглавление Предисловие к седьмому изданию 11 Предисловие к шестому изданию 11 Из предисловия ко второму изданию 13 Из предисловия к первому изданию 13 Введение 15 Глава 1. Случайные события и их вероятности 20 § 1. Интуитивные представления о случайных событиях 20 § 2. Поле событий. Классическое определение вероятности ... 24 §3. Примеры 32 § 4. Геометрические вероятности 40 §5.0 статистической оценке неизвестной вероятности 46 § 6. Аксиоматическое построение теории вероятностей 49 § 7. Условная вероятность и простейшие основные формулы . . 55 §8. Примеры 62 Глава 2. Последовательность независимых испытаний 71 §9. Вводные замечания 71 § 10. Локальная предельная теорема 75 § 11. Интегральная предельная теорема 82 §12. Применения интегральной теоремы Муавра—Лапласа .... 89 § 13. Теорема Пуассона 93 § 14. Иллюстрация схемы независимых испытаний 98 Глава 3. Цепи Маркова 104 § 15. Определение цепи Маркова 104 § 16. Матрица перехода 105 § 17. Теорема о предельных вероятностях 106 Глава 4. Случайные величины и функции распределения 111 § 18. Основные свойства функций распределения 111 §19. Непрерывные и дискретные распределения 117 §20. Многомерные функции распределения 121 §21. Функции от случайных величин 129 §22. Интеграл Стилтьеса 140
8 Оглавление Глава 5. Числовые характеристики случайных величин 149 § 23. Математическое ожидание 149 § 24. Дисперсия 154 §25. Теоремы о математическом ожидании и дисперсии 160 § 26. Моменты 165 Глава 6. Закон больших чисел 174 §27. Массовые явления и закон больших чисел 174 §28. Закон больших чисел в форме Чебышева 177 § 29. Необходимое и достаточное условие для закона больших чисел 181 § 30. Усиленный закон больших чисел 184 §31. Теорема В. И.Вшвенко 190 Глава 7. Характеристические функции 198 § 32. Определение и простейшие свойства характеристических функций 198 § 33. Формула обращения и теорема единственности 203 § 34. Теоремы Хелли 208 §35. Предельные теоремы для характеристических функций ... 212 §36. Положительно определенные функции 216 § 37. Характеристические функции многомерных случайных величин 222 § 38. Преобразование Лапласа—Стилтьеса 226 Глава 8. Классическая предельная теорема 234 § 39. Постановка задачи 234 § 40. Теорема Линдеберга 237 §41. Локальная предельная теорема 242 Глава 9. Теория безгранично делимых законов распределения 249 § 42. Безгранично делимые законы и их основные свойства .... 249 §43. Каноническое представление безгранично делимых законов 252 § 44. Предельная теорема для безгранично делимых законов . . . 257 §45. Постановка задачи о предельных теоремах для сумм 260 §46. Предельные теоремы для сумм 261 §47. Условия сходимости к законам нормальному и Пуассона . . 264 § 48. Суммирование независимых случайных величин в случайном числе 267 Глава 10. Теория стохастических процессов 273 § 49. Вводные замечания 273 § 50. Процесс Пуассона 277 §51. Процессы гибели и размножения 282 § 52. Условные функции распределения и формула Байеса 293
Оглавление 9 §53. Обобщенное уравнение Маркова 297 § 54. Непрерывный случайный процесс. Уравнения Колмогорова 298 § 55. Чисто разрывный процесс. Уравнения Колмогорова—Феллера 306 § 56. Однородные случайные процессы с независимыми приращениями 313 § 57. Понятие стационарного случайного процесса. Теорема Хинчина о корреляционной функции 318 §58. Понятие стохастического интеграла. Спектральное разложение стационарных процессов 323 § 59. Эргодическая теорема Биркгофа—Хинчина 326 Глава 11. Элементы статистики 331 §60. Основные задачи математической статистики 331 §61. Классический метод определения параметров распределения 334 § 62. Исчерпывающие статистики 344 §63. Доверительные границы и доверительные вероятности .... 345 §64. Проверка статистических гипотез 352 Дополнение 1. Определение математического ожидания в аксиоматике Колмогорова 360 Дополнение 2. Лемма Бореля—Кантелли и ее применение 363 Дополнение 3. Очерк по истории теории вероятностей 366 Глава 1. Предыстория понятия вероятности и случайного события . . 366 § 1. Первые данные 366 §2. Исследования Дж. Кардано и Н.Тарталья 368 §3. Исследования Галилео Галилея 371 §4. Вклад Б. Паскаля и П. Ферма в развитие теории вероятностей 374 § 5. Работа X. Гюйгенса 379 §6. О первых исследованиях по демографии 383 Глава 2. Период формирования основ теории вероятностей 386 § 7. Возникновение классического определения вероятности . . 386 §8. О формировании понятия геометрической вероятности . . . 390 § 9. Основные теоремы теории вероятностей 394 § 10. Задача о разорении игрока 399 §11. Возникновение предельных теорем теории вероятностей . . 400 § 12. Статистический контроль качества продукции 403 § 13. Дальнейшее развитие понятий случайного события и его вероятности 406
10 Оглавление Глава 3. К истории формирования понятия случайной величины 408 § 14. Развитие теории ошибок наблюдений 408 § 15. Формирование понятия случайной величины 411 § 16. Закон больших чисел 414 § 17. Центральная предельная теорема 416 § 18. Общие предельные распределения для сумм 422 § 19. Закон повторного логарифма 425 § 20. Формирование понятий математического ожидания и дисперсии 427 Глава 4. К истории теории случайных процессов 430 §21. Общие представления 430 § 22. Дальнейшее развитие 434 Таблица значений функции <р(х) = -j= ехр ^ -"у г 436 ,2' Таблица значений функции Ф(х) = -== / ехр < - — > dz 437 о а ехо "f cl\ Таблица значений функции Рк(а) = — 438 к\ * ат ехр {—а} Таблица значений функции 2J ; 440 m=o ml Список литературы 441 Список изданий книги Б. В. Гйеденко «Курс теории вероятностей» .... 442 О Борисе Владимировиче Гйеденко 443 Алфавитный указатель 444
Предисловие к седьмому изданию Вряд ли можно назвать в российской, да и в мировой научно- учебной литературе в целом учебник или учебное пособие, вьщержавшее, такое количество изданий, как книга Бориса Владимировича Гнеденко «Курс теории вероятностей». Первое издание этой книги появилось полстолетия тому назад — в 1950 году и затем неоднократно переиздавалось. Настоящее издание является седьмым, что уже само по себе уникально даже без учета того, что девять изданий этой книги вышло на немецком языке, 8 изданий вышло в США, по два издания — в Японии и Китае, по одному — в Италии, Египте, Испании, Вьетнаме. Шесть раз издательство «Мир» выпускало книгу на английском языке. Общий замысел учебника, состоящего из двух частей — элементарной (главы 1-6) и специальной (главы 7-11), практически не менялся во всех изданиях. Менялся (а иногда-и не помещался) лишь некоторый материал, относящийся к математической статистике, массовому обслуживанию и истории теории вероятностей. Так, в предлагаемое издание не вошел «Очерк истории теории вероятностей», поскольку он параллельно выходит отдельной книгой в издательстве «УРСС». Многочисленные рецензии на данный «Курс теории вероятностей» особо отмечают тщательность изложения, большое педагогическое мастерство Бориса Владимировича, удачный отбор излагаемого материала. Нет сомнения, что настоящее издание этого классического учебника по теории вероятностей будет интересно и полезно как широкому кругу специалистов и преподавателей, так и всем тем, кто начал или хочет познакомиться с основами теории вероятностей, с ее понятиями, концепциями, методами и самыми разнообразными приложениями. А. Н. Ширяев Предисловие к шестому изданию Более трети века прошло со времени выхода в свет первого издания настоящей книги. С тех пор в нашей стране и за ее пределами вышли многочисленные учебники по теории вероятностей, заслуживающие самой высокой оценки. Отличительная черта подавляющего числа этих
12 Предисловие к шестому изданию книг — стремление дать возможно более строгое в теоретическом плане изложение теории и показать силу математической абстракции. Настоящая книга ставит перед собой совсем иную цель: восходя от интуитивных представлений и рассматривая большое число примеров, подойти хотя бы к некоторым исследованиям, активно развивающимся в наши дни. Это издание значительно отличается от предшествующего: введен ряд параграфов, содержащих изложение некоторых новых результатов, вполне доступных читателям настоящей книги: вновь помещена небольшая глава, содержащая элементы математической статистики: приведено добавление, излагающее довольно подробно период возникновения и развития теории вероятностей. Этот очерк базируется на исследованиях последних лет автора и его учеников. Следует сказать, что многие вопросы истории теории вероятностей еще ожидают своих исследователей. В частности, в таком состоянии находится теория случайных процессов. Однако многое еще требует выяснения и в классической теории вероятностей. Всем хорошо известно, что абстрактное изложения предмета дает возможность быстрее подвести читателя к современному состоянию науки, а также выиграть страницы, которые необходимы для изложения материала. Я считаю, что при первоначальном знакомстве с математическими дисциплинами, а особенно с теорией вероятностей, необходимо рассмотрение большого числа примеров, которые помогли бы развить своеобразную теоретико-вероятностную интуицию, способность увязывать абстрактные идеи и методы с практическими ситуациями. Это приобретение необходимо каждому математику, а особенно подавляющему большинству студентов-математиков, которым предстоит работать в научно-исследовательских институтах прикладного плана. К тому же в настоящее время с теорией вероятностей вынуждены знакомиться многие специалисты, поскольку в их повседневной работе теоретико-вероятностные концепции крайне необходимы. Им знакомиться с необходимым разделом науки по абстрактным книгам и трудно, и не нужно, поскольку такие книги не создадут так необходимого мостика между потребностями практики и математической теорией. Впрочем, для этой категории читателей, быть может, нужны совсем особые книги, написанные в специальном методическом и психологическом ключе. Когда книга уже написана, видишь, как много в ней недостатков, как много мест следовало бы в ней переделать. Однако приходится смириться и отложить переделки до возможного переиздания. В связи с этим я прошу читателя направлять мне критические замечания и пожелания, к которым я отнесусь со всем необходимым вниманием. Я счастлив поблагодарить Ю. В. Прохорова, Б. А. Севастьянова и Д. М. Чибисова за большое число замечаний, которые они мне сделали в результате знакомства с рукописью. К сожалению, я не имел возможности в полной мере использовать все их пожелания, постараюсь это сделать впоследствии. Б. В. Гнеденко
Из предисловия к первому изданию 13 Из предисловия ко второму изданию Настоящее издание значительно отличается от первого. Я постарался возможно полнее учесть в нем замечания и пожелания, которые содержались в печатных рецензиях на первое издание книги, а также были сообщены мне устно и письменно. Пожалуй, наиболее существенным изменением является добавление задач для упражнений в первых девяти главах. Значительные добавления сделаны в главе 10: они касаются главным образом расширения сведений по теории стационарных случайных процессов. Большим изменениям подверглась последняя глава, посвященная математической статистике. В этой главе имеются некоторые новые параграфы, но в то же время исключен частично материал, содержавшийся в первом издании. Пользуюсь случаем сердечно поблагодарить товарищей, высказавших откровенное мнение о недостатках книги и способствовавших своей критикой их исправлению. Особенно я благодарен Ю. В.Лин- нику за его постоянный интерес к настоящей книге, большое число замечаний к первому изданию и за дискуссию по рукописи второго издания. Б. В. Гнеденко Из предисловия к первому изданию Настоящий курс разбивается на две части — элементарную (главы 1-6) и специальную (главы 7-11). Последние пять глав могут служить базой для спецкурсов — теории суммирования случайных величин, теории стохастических процессов, элементов математической статистики. Теория вероятностей рассматривается в книге исключительно как математическая дисциплина, поэтому получение конкретных естественнонаучных или технических результатов в ней не является самоцелью. Все примеры в тексте книги имеют целью только разъяснение общих положений теории и указание на связь этих положений с задачами естествознания. Конечно, одновременно эти примеры дают указания на возможные области приложения общетеоретических результатов, а также развивают умение применять эти результаты в конкретных задачах. Хорошо, если изучающий теорию вероятностей имеет перед глазами какие-нибудь явления материального мира для того, чтобы общая математическая схема наполнялась определенным смыслом. Такое направление изучения дает возможность читателю выработать своеобразную теоретико-вероятностную интуицию, которая позволяет предвидеть в общих чертах выводы раньше, чем применен аналитический аппарат. Заметим далее, что без систематического решения задач изучать теорию вероятностей нельзя, в особенности на первых порах.
14 Из предисловия к первому изданию Первые четыре параграфа главы 1 являются незначительной переработкой неопубликованных рукописей А. Н. Колмогорова. Я счастлив поблагодарить здесь моих дорогих учителей А. Н. Колмогорова и А. Я. Хинчина, много помогавших мне своими советами и беседами, касавшимися узловых вопросов теории вероятностей. Б. В, Гнеденко
Введение Цель настоящей книги состоит в изложении основ теории вероятностей — математической науки, изучающей закономерности случайных явлений. Возникновение теории вероятностей относится к середине XVII века и связано с именами Гюйгенса (1629-1695), Паскаля (1623-1662), Ферма (1601-1665) и Якоба Бернулли (1654-1705). В переписке Паскаля и Ферма, вызванной задачами, поставленными азартными игроками и не укладывающимися в рамки математики того времени, выкристаллизовывались постепенно такие важные понятия, как вероятность и математическое ожидание. При этом, конечно, нужно отдавать себе ясный отчет, что выдающиеся ученые, занимаясь задачами азартных игроков, предвидели и фундаментальную натурфилософскую роль науки, изучающей случайные явления. Они были убеждены в том, что на базе массовых случайных событий могут возникать четкие закономерности. И только состояние естествознания привело к тому, что азартные игры еще долго продолжали оставаться тем почти единственным конкретным материалом, на базе которого создавались понятия и методы теории вероятностей. Это обстоятельство накладывало отпечаток и на формально-математический аппарат, посредством которого решались возникавшие в теории вероятностей задачи: он сводился исключительно к элементарно арифметическим и комбинаторным методам. Последующее развитие теории вероятностей, а также широкое привлечение ее результатов и методов исследования в естествознание, и в первую очередь в физику, показали, что классические понятия и классические методы не потеряли своего значения и в настоящее время. Серьезные требования со стороны естествознания и общественной практики (теория ошибок наблюдений, задачи теории стрельбы, проблемы статистики, в первую очередь статистики народонаселения) привели к необходимости дальнейшего развития теории вероятностей и привлечения более развитого аналитического аппарата. Особенно значительную роль в развитии аналитических методов теории вероятностей сыграли Муавр (1667-1754), Лаплас (1749-1827), Гаусс (1777-1855), Пуассон (1781-1840). С формально-аналитической стороны к этому же направлению примыкает работа творца неевклидовой геометрии Н.И.Лобачевского (1792-1856), посвященная теории ошибок при измерениях на сфере и выполненная с целью установления геометрической системы, господствующей во вселенной. С половины XIX столетия и приблизительно до двадцатых годов XX века развитие теории вероятностей связано в значительной мере с именами русских ученых — П.Л.Чебышева (1821-1894), А.А.Маркова (1856-1922), А.М.Ляпунова (1857-1918). Этот успех русской науки
16 Введение был подготовлен деятельностью В. Я. Буняковского (1804-1889), широко культивировавшего в России исследования по применению теории вероятностей к статистике, в особенности к страховому делу и демографии. Им был написан первый в России курс теории вероятностей, оказавший большое влияние на развитие интереса к этой области науки. Основное непреходящее значение работ Чебышева, Маркова и Ляпунова в области теории вероятностей состоит в том, что ими было введено в качестве объекта систематического изучения и широко использовано понятие случайной величины. С результатами Чебышева относительно закона больших чисел, с «цепями Маркова» и с предельной теоремой Ляпунова мы познакомимся в соответствующих разделах настоящей книги. Современное развитие теории вероятностей характеризуется всеобщим подъемом интереса к ней, а также расширением круга ее практических приложений. В этой напряженной научной работе советская школа теории вероятностей продолжает занимать выдающееся положение. Среди представителей первого поколения советских ученых прежде всего должны быть названы имена С. Н. Бернштейна (1880-1968), А. Н. Колмогорова (1903-1987) и А. Я. Хинчина (1894-1959). В процессе изложения мы будем вынуждены самим существом дела вводить читателя в курс преобразовавших лицо теории вероятностей идей и результатов. Так, уже в первой главе будем говорить о фундаментальных работах С. Н. Бернштейна, Р. Мизеса (1883-1953) и А. Н. Колмогорова по основаниям теории вероятностей. В двадцатых годах XX столетия А. Я. Хинчин, А. Н. Колмогоров, Е. Е. Слуцкий (1880-1948) и П. Леви (1886-1971) установили тесную связь между теорией вероятностей и метрической теорией функций. Эта связь оказалась весьма плодотворной. На этом пути удалось найти окончательное решение классических задач, поставленных еще П.Л.Чебыше- вым, а также значительно расширить содержание теории вероятностей. Полностью к советскому периоду относится создание А. Н. Колмогоровым и А. Я. Хинчиным в тридцатых годах основ теории стохастических (вероятностных, случайных) процессов, которая теперь стала основным направлением исследований в теории вероятностей. Указанная теория служит прекрасным образцом того органического синтеза математического и естественнонаучного мышления, когда математик, овладев физическим существом узловой проблемы естествознания, находит для нее адекватный математический язык. Нам важно заметить, что решение классических задач теории вероятностей оказалось тесно связанным с теорией стохастических процессов. Элементы этой важной главы теории вероятностей будут изложены нами в главе десятой. За последние десятилетия неизмеримо выросла роль, которую играет теория вероятностей в современном естествознании. После того как молекулярные представления о строении вещества получили всеобщее признание, стало неизбежным широкое использование теории вероятностей и в физике, и в химии. Заметим, что с точки зрения молекулярной физики каждое вещество состоит из огромного числа малых частиц, находящихся в непрерывном движении и в процессе этого движения воздействующих друг на друга. При этом о природе этих частиц, о су-
Введение 17 шествующем между ними взаимодействии, характере их движения и пр. известно мало. В основных чертах эти сведения исчерпываются тем, что частиц, из которых состоит вещество, очень много и что в однородном теле они близки по своим свойствам. Естественно, что при таких условиях обычные для физических теорий методы математических исследований становились бессильными. Так, например, аппарат дифференциальных уравнений не мог привести в указанной обстановке к серьезным результатам. Действительно, ни строение, ни законы взаимодействия между частицами вещества в достаточной мере не изучены, и при таких условиях применение аппарата дифференциальных уравнений должно носить элементы грубого произвола. Но даже если бы этой трудности не существовало, уже одно количество этих частиц представляет собой такую трудность в изучении их движения, которую преодолеть с помощью обычных уравнений механики нет возможности. К тому же и методологически такой подход неудовлетворителен. Действительно, задача, которая здесь возникает, состоит не в изучении индивидуальных движений частиц, а в изучении тех закономерностей, которые возникают в совокупностях большого числа движущихся и взаимодействующих частиц. Закономерности же, возникающие вследствие участвующих в их возникновении ингредиентов, имеют свое собственное своеобразие и не сводятся к простому суммированию индивидуальных движений. Более того, эти закономерности в известных пределах оказываются не зависящими от индивидуальных особенностей участвующих в их порождении частиц. Конечно, для изучения этих новых закономерностей должны быть найдены и соответствующие новые математические методы исследования. Какие же требования должны быть в первую очередь предъявлены к этим методам? Понятно, что в первую очередь они должны учитывать то, что изучаемое явление носит массовый характер; таким образом, для этих методов наличие большого числа взаимодействующих частиц должно представлять не дополнительную трудность, а облегчать изучение возникающих закономерностей. Далее, недостаточность знаний о природе и строении частиц, а также о характере их взаимодействия не должна ограничивать эффективности их применения. Этим требованиям лучше всего удовлетворяют методы теории вероятностей. Чтобы сказанное не было понято ошибочно, мы еще раз подчеркнем следующее обстоятельство. Говоря, что аппарат теории вероятностей лучше приспособлен для изучения молекулярных явлений, мы ни в коей мере не хотим сказать, что философские предпосылки использования теории вероятностей в естествознании лежат в «недостаточности знаний». Основной принцип состоит в том, что при изучении «массовых» явлений возникают своеобразные новые закономерности. При изучении явлений обусловленных действием большого числа молекул, учет свойств каждой молекулы не нужен. Действительно, при изучении явлений природы необходимо отвлекаться от учета несущественных подробностей. Рассмотрение же всех деталей, всех существующих связей, в том числе и несущественных для данного явления, приводит лишь к тому, что само НАУЧНАЯ БИБЛИОТЕКА МГУ 1М JJ ^>ПП ¥<?J.
18 Введение явление затемняется и овладение им отодвигается ввиду такой искусственной усложненной обстановки. Насколько удачно произведена схематизация явлений, насколько удачно выбран математический аппарат для его изучения, мы можем судить по согласию теории с опытом, с практикой. Развитие естествознания, в частности физики, показывает, что аппарат теории вероятностей оказался весьма хорошо приспособленным к изучению многочисленных явлений природы. Указанная связь теории вероятностей с потребностями современной физики лучше всего поясняет те причины, в силу которых в последние десятилетия теория вероятностей превратилась в одну из наиболее быстро развивающихся областей математики. Новые теоретические результаты открывают новые возможности для естественнонаучного использования метода теории вероятностей. Всестороннее изучение явлений природы толкает теорию вероятностей на разыскание новых закономерностей, порождаемых случаем. Теория вероятностей не отмежевывается от запросов других наук, а идет в ногу с общим развитием естествознания. Понятно, что сказанное не означает, что теория вероятностей является лишь вспомогательным средством для решения тех или иных практических задач. Наоборот, следует подчеркнуть, что теория вероятностей превратилась в стройную математическую дисциплину с собственными проблемами и методами доказательств. В то же время выяснилось, что наиболее существенные проблемы теории вероятностей служат делу решения различных задач естествознания. Мы определили в самом начале теорию вероятностей как науку, изучающую случайные явления. Отложив выяснение смысла понятия «случайное явление (событие)» до первой главы, мы сейчас ограничимся несколькими замечаниями. Если в обыденных представлениях, в житейской практике считается, что случайные события представляют собой нечто крайне редкое, идущее вразрез установившемуся порядку вещей, закономерному развитию событий, то в теории вероятностей мы откажемся от этих представлений. Случайные события, как они понимаются в теории вероятностей, обладают рядом характерных особенностей; в частности, все они происходят в массовых явлениях. Под массовыми явлениями мы понимаем такие, которые имеют место в совокупностях большого числа равноправных или почти равноправных объектов и определяются именно этим массовым характером явлений и лишь в незначительной мере зависят от природы составляющих объектов. Теория вероятностей, подобно другим разделам математики, развилась из потребностей практики: в абстрактной форме она отражает закономерности, присущие случайным событиям массового характера. Эти закономерности играют исключительно важную роль в физике и в других областях естествознания, военном деле, разнообразнейших технических дисциплинах, экономике и т.д. В последнее время в связи с широким развитием предприятий, производящих массовую продукцию, результаты теории вероятностей используются не только для браковки уже изготовленной продукции, но, что важнее, для организации самого процесса про-
Введение 19 изводства (статистический контроль в производстве). Большое значение в этом круге идей имеет разработка статистических методов управления качеством продукции в процессе производства. Для всего инженерного дела серьезную роль приобрела теория надежности, широко использующая методы теории вероятностей. Здесь уместно заметить, что в свою очередь теория надежности выдвинула перед теорией вероятностей ряд новых теоретических вопросов. Связь теории вероятностей с практическими потребностями, как уже было отмечено, была основной причиной ее бурного развития. Многие ее разделы были развиты как раз в связи с ответами на запросы практиков. Здесь кстати вспомнить замечательные слова основателя нашей отечественной школы теории вероятностей П. Л. Чебышева: «Сближение теории с практикой дает самые благотворные результаты, и не одна только практика от этого выигрывает; сами науки развиваются под влиянием ее: она открывает им новые предметы для исследования или новые стороны в предметах давно известных... Если теория много выигрывает от новых приложений старой методы или от новых развитии ее, то она еще более приобретает открытием новых метод, и в этом случае наука находит себе верного руководителя в практике».
Глава 1 Случайные события и их вероятности § 1. Интуитивные представления о случайных событиях На протяжении длительного времени человечество изучало и использовало для своей деятельности лишь так называемые детерминистические закономерности. Подавляющая часть сведений, получаемых учащимися в школьных курсах физики, математики, химии, относится именно к этому кругу идей. Приведем примеры. • Если в основании пирамиды находится квадрат со стороной а и ее высота равна Л, то объем пирамиды равен а2Л/3. • Если тело свободно падает на земную поверхность, то путь, пройденный им за t секунд после начала падения, равен s =gt2/2. • Если химически чистую воду при атмосферном давлении 760 мм рт. ст. нагреть до 100° С, то вода начнет превращаться в пар. • При любых химических реакциях каких угодно веществ без обмена с окружающей средой общее количество вещества остается неизменным (закон сохранения вещества). Число подобных примеров можно увеличивать неограниченно. Однако закономерности этого типа не в состоянии описать все разнообразие ситуаций, с которыми приходится сталкиваться в научной и практической деятельности. Для примера спросим себя: сколько дорожных происшествий произойдет завтра в Москве? Сколько вызовов от больных поступит в пункт скорой медицинской помощи? Сколько лет проживет только что родившийся младенец? Как много времени придется затратить на поиск неисправности в определенном сложном техническом устройстве? Все эти вопросы обладают одной особенностью — на них невозможно дать однозначного ответа, поскольку процессы, с которыми они связаны, по самому их существу лишены полной определенности. Действительно, дорожные происшествия зависят от огромного числа причин, которые невозможно предусмотреть: погода, состояние дорожного покрытия, освещенность, психологическое состояние водителей и пешеходов, взаимное расположение автомобилей на дороге и множество других. Аналогичные заключения мы можем высказать и относительно остальных предложенных нами вопросов. Во всех подобных случаях мы говорим, что интересующее нас событие является случайным.
§ 1. Интуитивные представления о случайных событиях 21 Поскольку случайные события врываются в нашу жизнь помимо нашего желания и постоянно окружают нас и, более того, поскольку все явления природы, согласно современным воззрениям, являются случайными, необходимо научиться их изучать и разработать для этой цели методы их изучения. Сейчас уместно подчеркнуть, что со случайными явлениями мы вынуждены сталкиваться не время от времени, а постоянно, и зачастую именно они определяют структуру того или иного интересующего нас процесса. Так, при организации работы телефонной станции необходимо учитывать, что моменты поступления вызовов от абонентов, так же как и длительности разговора между абонентами, случайны. В грузовой морской порт суда дальнего плавания поступают не точно по расписанию, а в моменты времени, нередко существенно отличные от запланированных. Точно так же длительность погрузо-разгрузочных работ (обработки судна) коренным образом зависит не только от погрузочных средств причала, но и от устройства трюма, характера и количества прибывших грузов, их упаковки и многих других обстоятельств. Таким образом, как при организации работы телефонной станции, так и при организации работы грузового порта, мы должны считаться с двойной случайностью — случайностью поступления требований (вызов абонентов, прибытия судов) на обслуживание и случайностью длительности их обслуживания. Мы видим, таким образом, что случайные события играют большую роль как в научных исследованиях, так и в практической деятельности. Более того, нередко при проектировании ответственных сооружений (телефонных узлов, морских портов и т.д.) мы должны опираться на эти случайные явления. Это обстоятельство привело к тому, что за последние три столетия, и в особенности за последние десятилетия, случайные явления были подвергнуты систематическому исследованию. Краткий исторический очерк этого процесса приложен в конце настоящей книги. Прежде чем переходить к изложению основных результатов теории вероятностей, мы должны формализовать те понятия, с которыми она имеет дело. Пока же понятие «случайного» явления имеет лишь чисто описательный, интуитивный и весьма расплывчатый облик. Мы увидим, что теория вероятностей занимается изучением не любых событий, которые в житейской практике называются случайными, а только тех из них, которые обладают определенными свойствами. Прежде всего, она ограничивается изучением лишь тех событий, которые в принципе могут быть осуществлены неограниченное число раз, притом в неизменных условиях. Приведем примеры. Игральная кость может быть подброшена в одних и тех же условиях столько раз, сколько заблагорассудится нам, исследователям. Мы можем производить неограниченное число наблюдений за числом вызовов абонентов телефонной сети, поступающих за четверть часа дневного времени. Выходные дни и ночные часы мы при этом исключим из рассмотрения, поскольку могут возникнуть опасения, что условия формирования потока вызовов в эти дни и часы будут отличны от будней.
22 Глава 1. Случайные события и их вероятности Далее, теория вероятностей занимается лишь теми событиями, которые обладают так называемой статистической устойчивостью или, иначе, устойчивостью частот. Это требование к случайным событиям следует рассмотреть более подробно. Представим, что производится последовательность испытаний, в каждом из которых может появиться, а может и не появиться некоторое событие А. Эти испытания производятся в одинаковых условиях, и результаты одних испытаний не оказывают влияния на результаты других (как говорят, испытания независимы). Обозначим через /х число появлений события А в каких-то п заранее назначенных номерах испытаний, например в п последовательных испытаниях: тогда частота, т. е. отношение /х/n при больших п для статистически устойчивых событий А близка к постоянной и лишь слегка изменяется от одной серии в п испытаний к другой. Проверка статистической устойчивости представляет собой довольно сложную задачу, и сейчас мы не станем ею заниматься. Позднее же к этому вопросу мы будем возвращаться неоднократно. Теперь подчеркнем ту мысль, что теория вероятностей не занимается изучением уникальных событий, которые не допускают повторений. Так, не имеет смысла говорить о том, какова вероятность, что данный студент сдаст экзамен по теории вероятностей на ближайшей экзаменационной сессии, поскольку здесь речь идет о единичном событии, повторить которое в тех же самых условиях нет возможности. Мы можем об этом событии высказывать лишь некоторые субъективные суждения, основанные на нашем знакомстве со знаниями этого студента. Теория же вероятностей ставит перед собой задачу изучения объективных закономерностей, которые не зависят от субъективных суждений того или иного лица. И как бы ни были интересны вопросы, касающиеся единичных, неповторимых событий, теория вероятностей к ним не имеет отношения, если только относительно них нет возможности провести длительные независимые испытания в одинаковых условиях. Так, все следующие высказывания — • 6 августа 2007 г. в Термезе произойдет землетрясение силой 8 баллов; • к 2010 году будут найдены радикальные методы излечения всех форм рака; • в 2011 г. родится поэт, по таланту равный А. С. Пушкину — носят характер уникальности, и ответ на них будет получен (положительный или отрицательный) в свое время. Пока же эти события носят неопределенный характер. И хотя они относятся к категории «может произойти, а может и не произойти», к ним понятия и методы теории вероятностей не имеют отношения. Теория вероятностей изучает лишь такие случайные события, в отношении которых имеет смысл не только утверждение об их случайности, но и возможна объективная оценка доли случаев их появления. Эта оценка может быть выражена предложением вида:
§1. Интуитивные представления о случайных событиях 23 1. Вероятность того, что при осуществлении определенного комплекса условий 6 произойдет событие А, равна р ]К Закономерности такого рода называются стохастическими или вероятностными. С ними приходится иметь дело в самых разнообразных ситуациях, связанных с изучением как природных, так и общественных явлений, а также в самых разнообразных прикладных вопросах. Для примера, пусть у нас имеется некоторое техническое устройство, скажем, электрическая лампочка. Нас интересует вопрос: проработает ли она безотказно 1 500 часов? Заранее мы не можем ответить ни утвердительно, ни отрицательно. Для этого у нас нет данных. Но мы можем и должны ответить иначе, что доля тех лампочек из большого числа находящихся в одинаковых условиях эксплуатации, которые проработают по меньшей мере 1 500 часов, равна р. Эта величина существенно зависит от того, на каком предприятии изготовлена лампочка и, безусловно, от того, в каких условиях ей приходится работать (исправность проводки и патрона, размеры колебаний напряжения и силы тока и пр.). Конечно, каждая электрическая лампочка индивидуальна по своим качествам, но этих лампочек изготовляется очень много и испытать можно большое их число, притом изготовленных в одних и тех же производственных условиях. Мы встречаемся, таким образом, с повторением испытаний двух различных типов: а) повторение испытаний для одного и того же объекта изучения (повторное извлечение шара из урны, содержащей несколько одинаковых шаров; извлечение наудачу карты из полной колоды и т.д.); б) испытание многих сходных объектов. Именно по этому образцу на заводах производится испытание качества изготовленной продукции. Формулировка детерминистических закономерностей, к которым все привыкли со школьных лет, звучит так: 2. При каждом осуществлении комплекса условий 6 обязательно происходит событие А. В следующем параграфе мы увидим, что вероятность случайного события измеряется числом, заключенным между 0 и 1. Единице соответствует те события, которые обязательно наступают при каждом осуществлении комплекса 6. Такие события называются достоверными. Если же событие невозможно, то ему соответствует вероятность 0. Мы видим, что детерминистические закономерности можно рассматривать как частный случай стохастических, для которых вероятность р равна 0 или 1. Таким образом, стохастические закономерности являются более широкими, чем детерминистические, и позволяют точные, количественные методы применять и в тех случаях, когда о классическом детерминизме не может быть и речи. ' Мы пока не даем определения понятия вероятности и полагаемся на имеющиеся у читателей интуитивные представления.
24 Глава 1. Случайные события и их вероятности Каждый исследователь, имеющий дело с применениями теории вероятностей к физике, биологии, инженерному делу, организации производства или любой другой конкретной области знаний, исходит в своей работе из убеждения, что вероятностные суждения выражают определенные объективные свойства реальных явлений. Поэтому утверждение, что при выполнении некоторого комплекса условий 6 событие А имеет вероятность р, имеет серьезное познавательное значение. Оно указывает на наличие определенной, хотя и своеобразной, но от этого не менее объективной связи между комплексом условий 6 и событием А. Даже только утверждение, что вероятность события А при осуществлении комплекса условий 6 существует (хотя и неизвестна), является содержательным утверждением, нуждающимся в объективном обосновании и последующей проверке, если оно принято в качестве гипотезы. Философская задача состоит в выяснении природы этой связи. Ее решению посвящено большое число исследований, но задача до сих пор еще остается не решенной. Трудность этой проблемы привела к тому парадоксальному результату, что среди ученых встречается стремление не найти положительное ее решение, а снять ее, объявив вероятностные суждения имеющими отношение только к состоянию познающего субъекта (измеряющими степень его уверенности в наступлении события А и дающими основания для приписывания равных вероятностей исходов испытания при полном незнании). В последнее время такие субъективистские выводы нередко делаются по поводу событий, происходящих в условиях неопределенности, как теперь принято говорить. § 2. Поле событий. Классическое определение вероятности Мы до сих пор не давали формализованного определения ни случайного события, ни его вероятности. Теперь приступим к этому, стремясь одновременно воспитать у читателя теоретико-вероятностную интуицию. Такая цель заставляет нас вводить определение вероятности постепенно, как бы повторяя исторический путь. Такой подход позволяет избежать формального восприятия, а отправляясь от простейших представлений, постепенно переходить к более сложным и общим. Начнем с так называемого классического определения вероятности. При этом мы увидим, что оно в действительности является не определением, а скорее методом вычисления вероятностей при вполне определенных и сильно ограниченных условиях. Классическое определение исходит из предположения равновозможности как объективного свойства изучаемых явлений, основанного на их реальной симметрии. Понятие равновозможности (равновероятности) является первичным, не подлежащим формальному определению. Оно лишь поясняется рядом простых и доступных примеров. При бросании на плоскость геометрически правильного куба, изготовленного из однородного материала, любая из шести граней (при подбрасывании наудачу) не имеет реальных преимуществ перед другими.
§ 2. Поле событий. Классическое определение вероятности 25 Таким образом, если перенумеровать грани цифрами от 1 до 6, то при бросании куба могут произойти шесть равновероятных событий: выпадение граней 1, 2, 3, 4, 5, 6. При подбрасывании однородного по плотности правильного двадцатигранника (икосаэдра) выпадение каждой грани в силу симметрии одинаково возможно. Мы имеем случай, когда возможны двадцать равновероятных исходов. Представим себе теперь, что при каждом испытании единственно возможны п несовместимых и равновозможных исходов Е\, i?2,..., Еп. Слово «несовместимый» было введено в науку английским ученым Байесом (1702-1761) и означает, что если наступил какой-нибудь исход Д, то ни один из остальных п - 1 исходов в этом испытании наступить уже не мог. Так, если при бросании игральной кости выпала грань «3», то это означает, что при том же бросании не могла появиться грань «5». Каждый такой исход станем называть элементарным событием. Наряду с элементарными событиями рассматриваются также случайные события. Часто представляет интерес наступление при испытании не какого-то элементарного события, а одного из нескольких определенных элементарных событий. Например, при бросании игральной кости нас может интересовать появление граней с числом очков, ббльшим трех, т. е. появление какого-то из элементарных событий «4», «5», «6». Мы станем говорить в этом случае, что нас интересует случайное событие — выпадение числа очков, ббльшего трех. Вообще, если нас интересует появление какого-то из определенных элементарных событий, например, одного из событий Eix, Ei2,...,Eim, то мы станем говорить, что нас интересует наступление случайного события А, состоящего в выпадении какого-то из т только что указанных элементарных событий. Вероятностью случайного события А называется отношение числа несовместимых и равновозможных элементарных событий, составляющих А (т. е. числа га), к числу всех возможных элементарных событий (т. е. к числу п). Вероятность случайного события А обозначается символом Р(А). Согласно только что данному определению Например, при однократном бросании игральной кости полная группа попарно несовместимых и равновероятных событий состоит из событий Е* Е* Е* Е* Е* Е* Ь\, 2*2, -йЗ, &4, &5-> &6> которые состоят соответственно в выпадении 1,2,3,4, 5,6 очков. Событие, состоящее в выпадении четного числа очков, подразделяется на три частных случая, входящих в состав несовместимых и равновероятных событий. Поэтому вероятность события С равна
26 Глава 1. Случайные события и их вероятности Очевидно также, что в силу принятого определения P(B,-) = g, UK6, Р(Е]+Е2) = - = - ит.д. Рассмотрим теперь бросание двух костей. Если кости правильны, то выпадение каждой из 36 возможных комбинаций числа очков на первой и второй кости можно считать равновероятными. Так, скажем, вероятность выпадения в сумме 12 очков равна 1/36. Выпадение в сумме 11 очков возможно двумя способами: на первой кости 5, а на другой 6, на первой кости 6, а на второй 5. Поэтому вероятность выпадения в сумме одиннадцати очков равна 2/36 = 1/18. Читатель легко проверит, что вероятность выпадения той или иной суммы очков даются следующей таблицей: Таблица 1 Число очков Вероятность 2 1 36 3 2 36 4 3 36 5 4 36 6 5 36 7 6 36 8 5 36 9 4 36 10 3 36 11 2 36 12 1 36 Подсчитаем теперь общее число возможных случайных событий, которое можно образовать из п элементарных. Очевидно, что можно образовать С™ событий, каждое из которых будет содержать по га каких-то элементарных событий (1 ^ га ^ п). При га = п случайное событие всегда происходит, т. е. оно является достоверным. Всего, таким образом, обра- п зовано 5Z Сп = 2П - 1 событий. Добавим теперь ко всем построенным событиям еще одно, которому не соответствует ни одно элементарное событие, т. е. состоящее из пустого множества элементов. Очевидно, что оно никогда не может наступить (поскольку ему не соответствует ни одно элементарное событие). Это случайное событие носит название невозможного события. Таким образом, всех случайных событий в рассмотренном нами случае будет 2П. Ближайшие рассмотрения относятся не только к классическому определению вероятности, но и ко всем дальнейшим обобщениям. Будем считать фиксированным комплекс условий 6 и станем рассматривать некоторую систему S событий А,Б,С..2*, каждое из которых должно при каждом осуществлении комплекса 6 произойти или не произойти^. ' События в дальнейшем обозначаются латинскими прописными буквами Л, 2?, С, £>,#,.... 3* Вместо «произойти» говорят также «появиться», «иметь место» или «наступить».
§ 2. Поле событий. Классическое определение вероятности 27 Между событиями системы S могут существовать известные соотношения, с которыми мы постоянно будем иметь дело и которые поэтому прежде всего изучим. 1) Если при каждом осуществлении комплекса условий 6, при котором происходит событие А, происходит и событие Б, то мы будем говорить, что А влечет за собой*) В, и обозначать это обстоятельство символом С: АСВ или символом Э: BDA. 2) Если А влечет за собой Б и в то же время Б влечет за собой А, т. е. если при каждой реализации комплекса условий 6 события А и Б оба наступают или оба не наступают, то мы будем говорить, что события А и В равносильны и будем обозначать это обстоятельство символом =: А = В. 3) Событие, состоящее в наступлении обоих событий А и Б, будем называть произведением событий А и Б и обозначать АВ. 4) Событие, состоящее в наступлении хотя бы одного из событий А и Б, будем называть суммой событий А и Б и обозначать А + Б. 5) Событие, состоящее в том, что событие А происходит, а событие Б не происходит, будем называть разностью событий А и Б и обозначать Л-Б. 6) Событие, состоящее в том, что событие А не происходит, называется противоположным для А и обозначается символом А. Пусть, например, комплекс условий 6 состоит в том, что внутри квадрата, изображенного на рис. 1, выбирается наудачу точка. Обозначим через А событие «выбранная точка лежит внутри левого круга» и через В событие «выбранная точка лежит внутри правого круга». Тогда события А, А, Б, Б, А + Б, АВ, А- В, В - А, А- В состоят в попадании выбранной точки внутрь областей, заштрихованных на соответствующих фигурах рис. 1. Рассмотрим другой пример. Допустим, что комплекс условий 6 состоит в том, что на стол бросается (один раз) игральная кость. Обозначим через А выпадение на верхней грани кости5) шести очков, через Б — выпадение трех очков, через С — выпадение какого-либо четного числа очков, через D — выпадение какого-либо числа очков, кратного трем. Тогда события А,В,С к D связаны следующими соотношениями: АСС, A CD, BCD, A + B = D, CD = A. ' Вместо А «влечет за собой 2?» говорят также «Л является частным случаем В». 5* В Японии изготовляют теперь кости не только в виде кубиков, но также в виде додекаэдров и икосаэдров.
28 Глава 1. Случайные события и их вероятности АВ А-В А-В Определение суммы и произведения двух событий обобщается на любое число событий: А + В + ...+N обозначает событие, заключающееся в наступлении хотя бы одного из событий А,В,... ,N, a AB...N обозначает событие, заключающее в наступлении всех событий А, В,... 7) Событие называется достоверным, если оно с необходимостью должно произойти (при каждой реализации комплекса условий б). Например, при бросании двух игральных костей достоверно, что сумма очков будет не меньше двух. Событие называется невозможным, если оно заведомо не может произойти (ни при одной реализации комплекса условий 6). Например, при бросании двух игральных костей невозможно появление сумы очков, равной тринадцати. Очевидно, что все достоверные события равносильны между собой. Поэтому законно обозначать все достоверные события одной буквой. Мы
§ 2. Поле событий. Классическое определение вероятности 29 будем употреблять для этого букву Q. Все невозможные события тоже равносильны между собой. Мы будем обозначать любое невозможное событие знаком 0. 8) Два события А и А называются противоположными, если для них одновременно выполняются два соотношения: А + А = Q, АА = 0. Например, если при бросании одной игральной кости С обозначает выпадение четного числа очков, то есть событие, состоящее в выпадении нечетного числа очков. 9) Два события А и В называются несовместимыми, если их совместное появление невозможно, т. е. если АВ = 0. Если А = Б) + В2 + ... + Вп и события Б, попарно несовместимы, т. е. BiBj = 0 при гф$, то говорят, что событие А подразделяется на частные случаи В\,Вг,... ..., Вп. Например, при бросании игральной кости событие С, состоящее в выпадении четного числа очков, подразделяется на частные случаи Е2, E4, Е^, состоящие соответственно в выпадении 2, 4 и 6 очков. События В\,В2,'",Вп образуют полную группу событий, если хотя бы одно из них непременно должно произойти (при каждом осуществлении комплекса 6), т.е. если Б, + В2 + ... + Вп = Q. Особенно существенны для нас в дальнейшем будут полные группы попарно несовместимых событий. Такова, например, при однократном бросании игральной кости система событий Е* Е* Е* Е* ТР Е* Ь\, Л/2, &Ъь &4> &5, &6, состоящая, соответственно, в появлении 1, 2, 3, 4, 5 и 6 очков. 10) В каждой задаче теории вероятностей приходится иметь дело с каким-либо определенным комплексом условий бис какой-либо определенной системой S событий, наступающих или не наступающих после каждой реализации комплекса условий б. Относительно этой системы целесообразно сделать следующие допущения: а) если системе S принадлежат события А и В, то ей принадлежат также события АВ, А + В, А — В; б) система S содержит достоверное и невозможное события.
30 Глава 1. Случайные события и их вероятности Система событий, удовлетворяющая этим допущениям, называется полем событий. Заметим еще в заключение, что во всех рассмотрениях теории вероятностей равносильные между собой события могут заменять друг друга. Поэтому мы условимся в дальнейшем любые два равносильных события считать просто тождественными друг другу. Рассмотрим какую-либо полную систему G попарно несовместимых равновозможных событий (назовем их элементарными событиями): Е\,Е2,... ,Еп, и рассмотрим систему событий 5, состоящую из невозможного события 0, всех событий Е^ системы G и всех событий А, которые могут быть подразделены на частные случаи, входящие в состав системы G. Например, если система G состоит из трех элементарных событий Е\, Е2 и f?3, то в систему S входят события 0, Е\, Е2, Ез, Е\ + Е2, Е2 + Ез, Е\ + Ез, Q = Е\ + Е2 4- Е^. Легко установить, что система S есть поле событий. В самом деле, очевидно, что сумма, разность и произведение событий из S входят в 5; невозможное событие 0 входит в 5 по определению, а достоверное событие Q входит в S так как оно представляется в виде Q = J£, +#2+ ... + #„. В соответствии с приведенным определением (с. 25) каждому событию А, принадлежащему к построенному сейчас полю событий 5, приписывается вполне определенная вероятность где га есть число тех событий J5, исходной группы G, которые являются частными случаями события А. Таким образом, вероятность Р{А) можно рассматривать как функцию от события А, определенную на поле событий S. Функция эта обладает следующими свойствами: 1. Для каждого события А поля S Р(А)^0. 2. Для достоверного события Q Р(П) = 1. 3. Если событие А подразделяется на частные случаи В и С, и все три события А, В и С принадлежат полю S, то Р(А) = Р(Б) + Р(С). Это свойство называется теоремой сложения вероятностей. Свойство 1 очевидно, так как дробь тп/п не может быть отрицательной. Свойство 2 не менее очевидно, так как достоверному событию Q благоприятствуют все п возможных результатов испытания, и поэтому Р(П) = I = 1. П
§ 2. Поле событий. Классическое определение вероятности 31 Докажем свойство 3. Пусть событию В благоприятствуют га', а событию С — га" событий Ei системы G. Так как события В и С по допущению несовместимы, то события Е(, благоприятствующие одному из них, отличны от событий Ej9 благоприятствующих другому. Всего, таким образом, имеется га'+ га" событий Е{, благоприятствующих появлению одного из событий В или С, т. е. благоприятствующих событию В + С = А. Следовательно, га' + га" га' га" . . /ЛЧ Р(А) = = — + — = Р(Б) + Р(С), п п п что и требовалось доказать. Мы ограничимся здесь указанием еще нескольких свойств вероятности. 4. Вероятность события А, противоположного событию А, равна Р(А) = 1 - Р(А). Действительно, так как _ А + А = П, то, согласно уже доказанному свойству 2, Р(Л + Л) = 1, а так как события А и А несовместимы, то по свойству 3 Р(Л + 1) = Р(Л) + Р(1). Два последних равенства доказывают наше предположение. 5. Вероятность невозможного события равна нулю. В самом деле, события Q и 0 несовместимы, поэтому P(Q) + Р(0) = Р(П), откуда следует, что Р(0) = 0. 6. Если событие А влечет за собой событие В, то Р{А)^Р(В). Действительно, событие В может быть представлено как сумма двух событий А и АВ. Отсюда, в силу свойств 3 и 1, получаем: Р(Б) = Р(А + АВ) = Р(А) + Р(АВ) ^ Р(А). 7. Вероятность любого события заключена между нулем и единицей. Из того, что для любого события А имеют место соотношения 0CA + 0 = A = AQcQ, следует, в силу предыдущего свойства, что имеют место неравенства 0 = Р(0) ^ Р(А) ^ P(Q) = 1.
32 Глава 1. Случайные события и их вероятности §3. Примеры Мы рассмотрим теперь несколько примеров вычисления вероятностей событий, пользуясь классическим определением вероятности. Приводимые нами примеры носят исключительно иллюстративный характер и не претендуют на то, чтобы сообщить читателю все основные методы расчета вероятностей. Пример 1. Бросаются три игральные кости. Что вероятнее: получить в сумме выпавших очков И или 12? Эта задача была одной из первичных, на которой формировались понятия и методы теории вероятностей. Утверждают, что с ней связана и следующая легенда: однажды к Галилею (а кто говорит, что к Гюйгенсу) за консультацией обратился ландскнехт. Его интересовал именно предложенный нами вопрос. Ландскнехт оказался мыслящим человеком, склонным к теоретическому и экспериментальному мышлению. Он заявил Галилею, что согласно логике обе эти суммы должны появляться одинаково часто, но опыт учит другому, а именно, что сумма 11 появляется чаще, чем 12. В чем здесь дело? Обоснование ландскнехта на первый взгляд звучит убедительно: числа 11 и 12 оба могут быть разложены на сумму трех положительных слагаемых лишь шестью различными способами, а именно, 11 = 1+5 + 5=1+4 + 6 = 2 + 3 + 6 = 2 + 4 + 5 = 3 + 3 + 5 = 3 + 4 + 4; 12=1 + 5 + 6 = 2 + 4 + 6 = 2 + 5 + 5 = 3 + 4 + 5 = 3 + 3 + 6 = 4 + 4 + 4; отсюда, по его мнению, вытекает равновозможность обоих интересующих нас событий. Однако Галилей возразил ему, сказав, что каждое из этих разложений следует снабдить еще определенным весом и пояснил свою мысль таким рассуждением. Назовем кости «первой», «второй» и «третьей»; тогда разложение 1 + 5 + 5 на самом деле может произойти не одним, а тремя различными способами: 1 + 5 + 5 = 5+1 + 5 = 5 + 5+1, т. е. единица может выпасть на первой, второй или третьей кости. Точно также разложение 1+4 + 6 может произойти следующими шестью различными способами: 1+4 + 6=1 + 6 + 4 = 4+1 + 6 = 4 + 6+1=6+1+4 = 6 + 4+1. Таким образом, 11 в сумме может появиться не шестью, а 27 различными равновозможными способами. Сумма же 12, оказывается, разлагается лишь 25 различными способами. Здесь все дело в том, что разложение 4 + 4 + 4 осуществимо лишь одним способом. Теперь заметим, что общее число всех возможных равновероятных выпадений трех игральных костей равно б3 = 216. Это было правильно посчитано еще в XII веке.
§3. Примеры 33 Обозначим через А и В случайные события, состоящие в выпадении соответственно 11 и 12 очков в сумме. Тогда согласно данному нами классическому определению вероятности, 27 25 Р(А) = — и Р(Б) = -^. v ' 216 v ; 216 В математической статистике показывается, что для уверенного разделения двух вероятностей, отличающихся менее чем на одну сотую, нужно произвести много тысяч испытаний. Пример 2. Из колоды карт (36 карт) наудачу вынимаются три карты. Найти вероятность того, что среди них окажется точно один туз. Решение. Полная группа равновероятных и несовместимых событий в нашей задаче состоит из всевозможных комбинаций по три карты, их число равно Сз6. Число благоприятствующих событий можно подсчитать следующим способом. Один туз мы можем выбрать С\ различными способами, а две другие карты (не туз) можно выбрать С\г различными способами. Так как для каждого определенного туза две остальные карты могут быть выбраны С\г способами, то всего благоприятствующих случаев будет С\ • С]2. Искомая вероятность, таким образом, равна 4 32-31 _ С\-<%2 _ Т'~ГУ _ 31'16 496 Р~~С^~ " 36>35-34 - 5ТТГТ7 - 1785 * °'2778' 1-2-3 т. е. немного больше 0,25. Пример 3. Из колоды карт (36 карт) наудачу вынимают три карты. Найти вероятность того, что среди них окажется хотя бы один туз. Решение. Обозначим интересующее нас событие буквой А: оно может быть представлено в виде суммы трех следующих несовместимых событий: А\ — появление одного туза, А2 — появление двух тузов, Лз — появление трех тузов. Рассуждениями, аналогичными тем, которые мы видели при решении предыдущей задачи, легко установить, что число случаев, благоприятствующих событию А) равно С\ • С\ъ -"- А2 -"- С4 • С32, -"- А, -"- Cl-C°i2. Так как число всевозможных случаев равно С|6, то С] • CL 3 • 16 Р(А2) = ^ = з^*0'0269' 2 Курс теории вероятностей
34 Глава 1. Случайные события и их вероятности В силу теоремы сложения 9(A) = Р(А.) + Р(А2) + Р(А3) = у^щ « 0,3053. Этот пример можно решить и иным методом. Событие А, противоположное А, состоит в том, что среди вынутых карт не окажется ни одного туза. Очевидно, что три не-туза можно вынуть из колоды карт С\г различными способами и, следовательно, -ч С\2 32-31.30 31-8 ЛГЛАЩ Р(А) = ^ = 3^35^ = 3-17Т7"0'6947- Искомая вероятность равна Р{Л) = 1 - Р(1) « 0,3053. Примечание. В обоих примерах выражение «наудачу» означало, что всевозможные комбинации по три карты равновероятны. Пример 4. Рассмотрим теперь пример, который широко используется при проверке качества принимаемой продукции. В математическом отношении он близок к примеру 2. В урне находится N одинаковых по размеру и внешнему виду шаров; среди них М белых и N - М черных. Наудачу вынимают п шаров (без возвращения в урну). Чему равна вероятность того, что среди них окажется га белых? Из условия задачи ясно, что мы предполагаем выполнение неравенств га ^ п и га ^ М, а также n-m^N - М. Общее число всех равновероятных случаев, как легко понять, равно С£. Число благоприятствующих случаев подсчитаем следующим путем: различных способов извлечь га белых шаров имеется С$, а п - га черных — С#~-?м • Таким образом, общее число благоприятных равновозмож- ных случаев равно С$ • С#1^. Отсюда искомая вероятность СТО /п»П-Ш М ^N-M Р = Пример 5. Колоду карт, состоящую из 36 карт, наудачу разделяют на две равные части. Чему равна вероятность, что в обеих частях окажется по равному числу красных и черных карт. Выражение «наудачу» означает, что всевозможные разделения колоды на две части равновероятны. Решение. Нам нужно найти вероятность того, что среди наудачу вынутых из колоды 18 карт 9 будут красными и 9 — черными. Согласно примеру 4, искомая вероятность равна, следовательно, С?8-С^ Q8!)4 Р С* 36!(9!)4'
§3. Примеры 35 Чтобы составить себе представление о величине этой вероятности и при этом не производить утомительных вычислений, мы воспользуемся формулой Стирлинга, согласно которой при п -»• оо имеет место следующее асимптотическое равенство: п\ ~ у/2тгп • пп ехр {-п} . Таким образом, имеем: 18!« 18,8-ехр {-18}л/5ГТ8, 9!«99-ехр {-9} 4/2^9, 36! » 3636 • ехр {-36} л/ЙГ36, и значит, (\/2^~Т8-18,8-ехр {-18})4 ~ \/2F^36.3636-exp {-36}(v^T9-99-exp {-9})4' После несложных преобразований находим, что 2 4 » « . « — и 0,26. VT8^F 15 Естественно возникает вопрос: какое отношение имеют найденные вероятности к реальным явлениям? Чтобы наглядно это ощутить, на одной из лекций был проведен такой эксперимент: студенты принесли несколько колод карт по 36 карт каждая и затем сто раз было произведено разделение колод наудачу на две равные части. В табл. 2 приведены результаты этого эксперимента. В первом столбце указан номер испытания, во втором — число появившихся в одной из полуколод красных карт, в третьем — число случаев деления красных и черных карт пополам среди уже произведенных испытаний и, наконец, в четвертом столбце даны значения частот. Приводимый на рис. 2 график наглядно представляет изменение частоты /х/п в зависимости от числа испытаний. Вначале, когда число опытов невелико, ломаная линия порой значительно уклоняется от прямой у — р « 0,26. Затем с увеличением числа опытов ломаная в общем все ближе и ближе подходит к этой прямой. Пример 6. Имеется п частиц, каждая из которых может находиться с одной и той же вероятностью \/N в каждой из N (N > п) ячеек. Найти вероятность того, что: 1) в определенных п ячейках окажется по одной частице, 2) в каких-то п ячейках окажется по одной частице. Решение. Эта задача играет важную роль в современной статистической физике, и в зависимости от того, как образуется полная группа равновероятных событий, приходят к той или иной физической статистике: Больцмана, Бозе—Эйнштейна, Ферми—Дирака.
36 Глава 1. Случайные события и их вероятности Таблица 2 Номер испытаний 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 Число красных карт 8 9 11 9 11 8 11 9 8 7 12 10 9 13 12 8 11 10 8 11 12 10 10 9 9 14 9 10 10 7 10 7 8 10 9 9 10 10 8 7 9 10 10 9 8 7 12 9 6 7 Число благопр. случаев 0 1 1 2 2 2 2 3 3 3 3 3 4 4 4 4 4 4 4 4 4 4 4 5 6 6 7 7 7 7 7 7 7 7 8 9 9 9 9 9 10 10 10 11 11 11 11 12 12 12 Частота одю 0,50 0,33 0,50 0,40 0,33 0,29 0,37 0,33 0,30 0,27 0,25 0,31 0,29 0,27 0,25 0,23 0,22 0,21 0,20 0,19 0,18 0,17 0,21 0,24 0,23 0,26 0,25 0,24 0,23 0,22 0,22 0,21 0,21 0,23 0,25 0,24 0,24 0,23 0,22 0,24 0,24 0,23 0,25 0,24 0,24 0,23 0,25 0,25 0,24 Номер испытаний 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 Число красных карт 9 8 7 9 7 9 9 11 8 8 8 10 12 9 11 12 11 8 10 8 7 9 10 8 11 8 9 9 5 8 7 10 9 6 10 10 9 7 7 10 8 8 10 8 11 9 9 10 7 7 Число благопр. случаев 13 13 13 14 14 15 16 16 16 16 16 16 16 17 17 17 17 17 17 17 17 18 18 18 18 18 19 20 20 20 20 20 21 21 21 21 22 22 22 22 22 22 22 22 22 23 24 24 24 24 Час- 0,25 0,25 0,25 0,26 0,26 0,27 0,28 0,28 0,27 0,27 0,26 0,26 0,25 0,27 0,26 0,26 0,26 0,25 0,25 0,25 0,24 0,25 0,25 0,24 0,24 0,24 0,25 0,26 0,26 0,25 0,25 0,24 0,25 0,24 0,25 0,24 0,25 0,25 0,25 0,24 0,24 0,24 0,24 0,23 0,23 0,24 0,25 0,25 0,24 0,24
§3. Примеры 37 у = р«0,26 О J 10 20 30 40 50 60 70 80 90 100 п Рис.2 В статистике Больцмана равновероятными считаются любые мыслимые размещения, отличающиеся не только числом, но и индивидуальностью частиц: в каждой ячейке может помещаться любое число частиц от 0 до п. Общее число возможных размещений мы подсчитаем следующим способом: каждая частица может находиться в каждой из N ячеек, следовательно, п частиц можно разметить по ячейкам Nn различными способами. В первом вопросе число благоприятствующих случаев будет, очевидно, п! и, значит, вероятность того, что в определенные п ячеек попадет по одной частице, равна п! Во втором случае число благоприятствующих случаев будет в С1^ раз больше и, значит, вероятность того, что в какие-то п ячеек попадет по одной частице, равна _ CnN • п! _ N\ Р2~ Nn ~~Nn(N-n)\' В статистике Бозе—Эйнштейна считаются тождественными случаи, когда частицы меняются местами между ячейками (важно только, сколько частиц попало в ячейку, но не индивидуальность попавших частиц), и полная группа равновероятных событий состоит из всевозможных размещений п частиц по N ячейкам, причем за одно размещение принимается целый класс больцмановских размещений, отличающихся не числами содержащихся в определенных ячейках частиц, а только самими частицами. Для наглядного представления о различии статистик Больцмана и Бозе— Эйнштейна рассмотрим частный пример: N = 4, п = 2. Всевозможные размещения в этом примере можно записать в виде табл. 3, в которой а и Ь — наименования частиц. В статистике Больцмана все 16 возможностей 1L п 0,5 0,4 0,3 0,2 0,1
38 Глава 1. Случайные события и их вероятности Таблица 3 Случаи Ячейки 1 ab 2 ab 3 ab 4 ab 5 a b 6 a b 7 a b 8 a b 9 a b 10 a b 11 b a 12 b a 13 b a 14 b a 15 b a 16 b a представляют собой различные равновероятностные события, в статистике же Бозе—Эйнштейна случаи 5 и 11, 6 и 12, 7 и 13, 8 и 14, 9 и 15, 10 и 16 попарно отождествляются и мы имеем группу из 10 равновероятных событий. Вычислим теперь общее число равновероятных случаев в статистике Бозе—Эйнштейна. С этой целью заметим, что всевозможные размещения частиц по ячейкам мы можем получить следующим путем: расположим ячейки на прямой вплотную друг к другу, расположим далее рядом одну возле другой на той же прямой наши частицы. Рассмотрим теперь всевозможные перестановки частиц и перегородок между ячейками. Таким образом, как легко сообразить, будут учтены всевозможные заполнения ячеек, отличающихся как порядком расположения частиц в ячейках, так и порядком расположения перегородок. Число этих перестановок равно (N+n-1)! . Среди этих перестановок имеются и тождественные: каждое распределение по ячейкам считается (N - 1)! раз, так как мы различали, какие перегородки были между ячейками, а кроме того, каждое распределение по ячейкам мы снова считали по п\ раз, так как мы учитывали не только число частиц в ячейке, но и то, какие это частицы и в каком порядке они расположены. Таким образом, каждое распределение по ячейкам мы считали n\(N - 1)! раз, отсюда число различных в смысле Бозе—Эйнштейна размещений частиц по ячейкам равно (n + N- 1)! n\(N - 1)! * Таким образом, число равновероятных событий в полной системе событий нами найдено. Теперь мы легко можем ответить на вопросы нашей задачи. В статистике Бозе—Эйнштейна вероятности р\ и pi равны Р\ = Р2 = 1 n\(N - 1)! (n + JV-l)! nl(N-l)\ rm (n + N-l)[ (n + N-1)1' №{N - 1)! (N - n)\(N + n - 1)! n\(N - 1)!
§3. Примеры 39 Рассмотрим, наконец, статистику Ферми—Дирака. Согласно этой статистике, в ячейке может находиться либо одна частица, либо не находится ни одной, индивидуальность частиц уничтожается. Общее число размещений частиц по ячейкам в статистике Ферми- Дирака подсчитать легко: первая частица может быть расположена N различными способами, вторая — только N - 1, третья — (N - 2) и, наконец, п-я — (N - п + 1) различными способами. Но при этом мы за разные способы принимаем способы распределения, отличающиеся только перестановкой частиц по ячейкам. Для того чтобы исключить индивидуальность частиц, мы должны число, полученное указанным образом, еще разделить на п\. Таким образом, п частиц по N ячейкам могут быть расположены -.N(N-l)...(N-n+l)=iwN\_ . п\ (N - п)\п\ различными равновероятными способами. Легко сообразить, что в статистике Ферми—Дирака искомые вероятности равны (N-n)W. Pi = ^j . ft = l. Рассмотренный пример показывает, насколько важно точно определять, какие события считаются в задаче равновероятными. Пример 7. У театральной кассы стоят в очереди 2п человек. Среди них п человек имеют монеты только рублевого достоинства, а остальные — только монеты по 50 копеек. Билет стоит 50 копеек. Каждый покупатель приобретает по одному билету. В начальный момент в кассе нет денег. Чему равна вероятность того, что ни один покупатель не будет ждать сдачу? Эта задача является переформулировкой вопроса, который возник при изучении проблем управления качеством продукции в процессе производства. Всевозможные перестановки покупателей равновероятны. Таким образом, имеется С"п всех возможных равновероятных случаев. Для разыскания числа благоприятствующих случаев прибегнем к следующему геометрическому приему. Рассмотрим плоскость хОу и допустим, что покупатели в порядке очередности располагаются в точках оси абсцисс с координатами 1, 2,..., 2п. В начале координат расположена касса. Припишем каждому лицу, имеющему рубли, значение ординаты, равное +1, а имеющему полтинники — значение -1. Будем теперь суммировать последовательно эти значения слева направо и в каждой целочисленной точке отмечать в виде ординаты полученную сумму (рис. 3). Соединим Уь 0 i / / г~ N ч ч / / \ • \ > \ \ / / N ч / / ч( А \ 2п,2) -у = 1 2п,0)х Рис.3
40 Глава 1. Случайные события и их вероятности теперь получившиеся соседние точки прямолинейными отрезками и начало координат с первой справа из этих точек. Получившуюся ломаную назовем траекторией. Ясно, что она на концах отрезка [0,2п] имеет ординаты, равные 0. Каждой траектории поставлено в соответствие определенное расположение лиц с рублями и полтинниками. Интересующему нас событию благоприятствуют те и только те траектории, которые не поднимаются над осью абсцисс. Вычислим теперь общее число траекторий, достигающих или пересекающих хотя бы раз прямую у = 1. Эти и только эти траектории благоприятствуют противоположному событию, когда хотя бы одному лицу придется ожидать сдачу. Для этой цели построим новую, фиктивную траекторию. До первого достижения прямой у = 1 она совпадает со старой, а от точки достижения этой прямой она является зеркальным отображением старой траектории относительно прямой у = 1 (на рис. 3 — пунктирная ломаная). Каждая новая траектория начинается в точке (0,0) и заканчивается в точке (2п, 2). Отсюда вытекает, что единичных подъемов она имеет на два больше, чем спусков (именно: п + 1 подъем и п - 1 спуск). Отсюда следует, что всех новых траекторий будет С%~{. Значит число событий, благоприятствующих событию нашей задачи, будет Cjn - С%~{ и тем самым искомая вероятность равна р = 1_^ = ,__=_ = _!_. C2nn n + 1 n+1 § 4. Геометрические вероятности Еще в самом начале развития теории вероятностей была замечена недостаточность «классического» определения вероятности, основанного на рассмотрении конечной группы равновероятных событий. Уже тогда частные примеры привели к некоторому видоизменению этого определения и построению понятия вероятности также для случаев, когда мыслимо бесконечное множество исходов. При этом по-прежнему основную роль играло понятие «равновероятности» некоторых событий. Общая задача, которая ставилась и привела к распространению понятия вероятности, может быть сформулирована следующим способом. Пусть имеется, например, на плоскости некоторая область G ив ней содержится другая область д с квадрируемой границей. В область G наудачу бросается точка и спрашивается, чему равна вероятность того, что точка попадет в область д. При этом выражению «точка бросается наудачу в область G» придается следующий смысл: брошенная точка может попасть в любую точку области G, вероятность попасть в какую- либо часть области G пропорциональна мере этой части (длине, площади и т.д.) и не зависит от ее расположения и формы.
§ 4. Геометрические вероятности 41 Таким образом, по определению, вероятность попадания в область д при бросании наудачу точки в область G равна Р = mcsg mesG' Рассмотрим несколько примеров. Пример 1. Задача о встрече. Два лица А и В условились встретиться в определенном месте между 12 часами и часом. Пришедший первым ждет другого в течение 20 минут, после чего уходит. Чему равна вероятность встречи лиц А и Б, если приход каждого из них в течение указанного часа может произойти наудачу и моменты прихода независимы6). Решение. Обозначим моменты прихода лица А через х и лица В через у. Для того чтобы встреча произошла, необходимо и достаточно, чтобы \х-у\^ 20. Станем изображать х и у как декартовы координаты на плоскости; в качестве единицы масштаба выберем минуту. Возможные исходы изобразятся точками квадрата со сторонами 60; благоприятствующие встрече — расположатся в заштрихованной области (рис.4). Искомая вероятность равна7) отношению площади заштрихованной фигуры к площади всего квадрата: 602 - 402 5 Р = 602 Некоторые инженеры-исследователи применяли задачу о встрече к решению следующей проблемы организации производства. Рабочий обслуживает несколько однотипных станков, каждый из которых в случайные моменты времени может потребовать внимания рабочего. Может случиться, что в то время, когда рабочий занят у одного станка, потребовалось его вмешательство у других станков. Требуется найти вероятность этого события, т. е., иными словами, среднюю длительность ожидания станком рабочего (иначе говоря, простой станка). Заметим, однако, что схема задачи о встрече мало пригодна для решения этого производственного вопроса, так как никакого условленного времени, в течение которого станки обязательно требуют к себе внимания рабочего, не существует, а длительность операции рабочего у станка не постоянна. Помимо этой основной причины, нужно 6' То есть момент прихода одного лица не влияет на момент прихода другого. Понятие независимости событий будет подробно рассмотрено в § 9. 7* В § 7 мы увидим, что в силу независимости моментов прихода лиц А и В вероятность того, что лицо А придет в промежуток от х до х+h, а лицо В — в промежуток от у до у+s, равна Л/60- s/60, т.е. пропорциональна площади прямоугольника со сторонами h и s.
42 Глава 1. Случайные события и их вероятности указать на сложность вычисления в задаче о встрече для случая большого числа лиц (станков). А эту задачу нередко нужно решать для большого числа станков (в текстильном производстве, например, некоторые ткачихи брали на обслуживание по несколько десятков станков). Пример 2. Коэффициенты р и q квадратного уравнения х2 + рх + q = О выбираются наудачу в промежутке (0,1). Спрашивается, чему равна вероятность того, что корни будут действительными числами? Чтобы корни квадратного уравнения были действительными числами, необходимо и достаточно выполнение неравенства р2 ^4д. В прямоугольных декартовых координатах (рис. 5) множество всех возможных пар чисел (р, q) задается точками квадрата с вершинами (0,0), (0,1), (1,1), (1,0). Точки же, благоприятствующие нашему событию, лежат под параболой q = p2/4. Таким образом, согласно определению, искомая вероятность равна i / dp 1 12* Рис.5 Задачи, подобные только что рассмотренной, нашли интересные применения в теории чисел и в ряде научных и технических применений. Пример 3. Парадокс Бертрана. Теория геометрических вероятностей неоднократно подвергалась критике за произвольность определения вероятности событий. При этом авторы приходили к убеждению, что для бесконечного числа исходов нельзя дать объективного, не зависящего от способа расчета, определения вероятности. В качестве особенно яркого выразителя этого скептицизма можно привести французского математика прошлого века Жозефа Бертрана. В своем курсе теории вероятностей он привел ряд задач на геометрические вероятности, в которых результат зависел от метода решения. В качестве примера приведем одну из задач, рассмотренных Бертраном. Наудачу берется хорда в круге. Чему равна вероятность того, что ее длина превосходит длину стороны вписанного равностороннего треугольника? Решение 1. По соображениям симметрии можно заранее задать направление хорды. Проведем диаметр, перпендикулярный к этому направлению. Очевидно, что только хорды, пересекающие диаметр в промежутке от четверти до трех четвертей его длины, будут превосходить стороны правильного треугольника. Таким образом, искомая вероятность равна 1/2.
§ 4. Геометрические вероятности 43 Решение 2. По соображениям симметрии можно заранее закрепить один из концов хорды на окружности. Касательная к окружности в этой точке и две стороны правильного треугольника с вершиной в этой точке образуют три угла по 60°. Условию задачи благоприятствуют только хорды, попадающие в средний угол. Таким образом, при этом способе вычисления искомая вероятность оказывается равной 1/3. Решение 3. Чтобы определить положение хорды, достаточно задать ее середину. Чтобы хорда удовлетворяла условию задачи, необходимо, чтобы ее середина находилась внутри круга, концентрического данному, но половинного радиуса. Площадь этого круга равна одной четверти площади данного; таким образом, искомая вероятность равна 1/4. Мы должны теперь выяснить, в чем причина неоднозначности решения нашей задачи. Лежит ли причина в принципиальной невозможности определить вероятность для случаев бесконечного числа возможных исходов или же причина лежит в том, что мы приняли в процессе решения какие-либо недопустимые предпосылки. Дело, как легко усмотреть, заключается в том, что за решение одной и той же задачи, пользуясь тем, что в условии задачи не определено понятие проведения хорды наудачу, выдаются решения трех различных задач. В самом деле, в первом решении вдоль одного из диаметров заставляют катиться круглый цилиндрический стержень (рис. 6 а). Множество всех возможных мест остановки этого стержня есть множество точек отрезка АВ длины, равной диаметру. Равновероятными считаются события, Рис.6 состоящие в том, что остановка произойдет в интервале длины ft, где бы внутри диаметра ни был расположен этот отрезок. Во втором решении стержень, закрепленный на шарнире, расположенном в одной из точек окружности, заставляют совершать колебания размером не более 180° (рис.65). При этом предполагается, что остановка стержня внутри дуги окружности длины ft зависит только от длины дуги, но не от ее положения. Таким образом, равновероятными событиями считаются остановки стержня в любых дугах окружности одинаковой длины. Несогласованность определений вероятности в первом и во втором решениях становится совершенно очевидной после такого простого расчета. Вероятность того, что стержень остановится в промежутке от i до ж, согласно первому решению равна x/D. Вероятность того, что проекция точки пересечения
44 Глава 1. Случайные события и их вероятности стержня с окружностью во втором решении попадает в тот же интервал, как показывают элементарно геометрические подсчеты, равна 1 2х - D 1 arccos —-— при х ^ D/2 1 D D-2x arccos при х ^ D/2. 7Г D Наконец, в третьем решении мы бросаем наудачу точку внутрь круга и спрашиваем себя о вероятности попадания внутрь некоторого меньшего концентрического круга (рис. 6 в). Различие постановок задач во всех трех случаях совершенно очевидно. Пример 4. Задача Бюффона. Плоскость разграфлена параллельными прямыми, отстоящими друг от друга на расстоянии 2а. На плоскости наудачу8\ бросается игла длины 21 (I < а). Найти вероятность того, что игла пересечет какую-нибудь прямую. Решение. Обозначим через х расстояние от центра до ближайшей параллели и через <р — угол, составленный иглой с этой параллелью. Величины х и (р полностью определяют положение иглы. Всевозможные 7Г <£ Рис.7 Рис.8 положения иглы определяются точками прямоугольника со сторонами а и 7Г. Из рис. 7 видно, что для пересечения иглы с параллелью необходимо и достаточно, чтобы х ^ / sin (p. Искомая вероятность в силу сделанных предположений равна отношению площади заштрихованной на рис. 8 области к площади прямоугольника 1 /*, . 21 р= — / I sin ю dip = —. an J а-к 8' Под словами «наудачу» здесь подразумевается следующее: во-первых, центр иглы наудачу падает на отрезок длины 2а, перпендикулярный к проведенным прямым, во- вторых, вероятность того, что угол у?, составленный иглой и проведенными прямыми, будет заключаться между (р\ и <р\ + Ду?, пропорциональна Ду?, и в-третьих, величины х н <р независимы (см. § 7).
§ 4. Геометрические вероятности 45 Заметим, что задача Бюффона является исходным пунктом для решения некоторых проблем теории стрельбы, учитывающих размеры снаряда. Пример 5. На горизонтальную плоскость, разграфленную параллельными пряЫыми, отстоящими друг от друга на расстоянии 2а, наудачу9) брошен выпуклый контур, диаметр которого меньше 2а. Найти вероятность того, что контур пересечет одну из параллельных прямых. Решение. Положим сначала, что выпуклый контур является многоугольником с п сторонами. Пусть его стороны пронумерованы от номера 1 до номера п. Если многоугольник пересекается с какой-либо параллельной прямой, то это пересечение должно произойти по каким-либо двум сторонам. Обозначим через рц = pJf вероятность того, что пересечение произойдет по t-й и j-ft сторонам. Очевидно, что событие А9 состоящее в том, что брошенный многоугольник пересечет одну из параллельных прямых, может быть представлено в виде следующей суммы попарно несовместимых событий: A = (Al2 + An + ... + Ain) + + (А23 + А24 + • • • + А2п) + ... + (Ап-2,п-\ + Ап-2,п) + 4i-1.ii, где через A{j(i < j,i = 1,2,...; j = 1,2,...) обозначено событие, состоящее в пересечении с параллельной прямой t-й и j-ft сторон. По теореме сложения вероятностей р = Р(А) = [Р(А]2) + Р(Л,3) + ... + Р(Л,„)] + + [Р(А2з) + ... + Р(А2п)] + ... + P(A,-i,n) = = (Pl2+Pl3 + ...+Plfi) + (P23+P24 + -..+P2fi) + ...+fti-1,f|. Пользуясь равенством р|<7 = pJf, мы можем записать вероятность р иным способом: Р= j [(P12+P13 + .. .+Pln) + (P21 +P23 + . • -+Pln) + - • . + (Pnl+Pr»2 + . • .+Pfi,fi-l)] • n Но сумма ^УPij, где положено рц = 0, представляет собой не что j=\ иное, как вероятность пересечения г-й стороны многоугольника с одной из параллельных прямых. Если длину t-й стороны обозначить через 2/,, то из задачи Бюффона находим, что £ Pij = Та .7=1 и, следовательно, п £2*< F 2тго ' В этом примере «наулачу» значит, что мы берем какой-либо отрезок, жестко связанный с контуром, и бросаем его «наудачу» в смысле предыдущего примера. Нетрудно показать, что таким образом определенное понятие не зависит от выбора указанного отрезка.
46 Глава 1. Случайные события и их вероятности Если обозначить через 2s периметр многоугольника, то мы найдем, что s 7га Мы видим, таким образом, что вероятность р не зависит ни от числа сторон, ни от величины сторон многоугольника. Отсюда мы заключаем, что найденная формула верна и для любого выпуклого контура, так как мы всегда можем рассматривать этот последний как предел выпуклых многоугольников с безгранично возрастающим числом сторон. §5.0 статистической оценке неизвестной вероятности Классическое определение вероятности при переходе от простейших примеров к рассмотрению сложных задач, в особенности же задач естественнонаучного или технического характера, наталкивается на непреодолимые трудности принципиального порядка. Прежде всего, в большинстве случаев возникает вопрос о возможности нахождения разумного способа выделения «равновозможных случаев». Так, например, из соображений симметрии, на которых основаны наши суждения о равновероятности событий, вывести вероятность распада атома радиоактивного вещества за определенный промежуток времени, или же определить вероятность того, что родившийся ребенок окажется мальчиком, представляется невозможным. В этих случаях еще на заре возникновения теории вероятностей был замечен иной способ приближенной оценки неизвестной вероятности случайного события. Длительные наблюдения над появлением или непоявлением события А при большом числе независимых испытаний, производимых при одном и том же комплексе условий 6, в ряде случаев показывают, что число появлений события А подчиняется устойчивым закономерностям. А именно, если мы через /х обозначим число появлений события А при п независимых испытаниях, то оказывается, что отношение fi/n (частота события А) при достаточно больших п для большинства таких серий наблюдений сохраняет почти постоянную величину, причем большие отклонения наблюдаются тем реже, чем многочисленнее произведенные испытания. Более того, оказывается, что для тех случаев, к которым применимо классическое определение вероятности, это колебание частоты происходит около вероятности события р. Мы увидим впоследствии, что этот эмпирический факт имеет глубокие основания в теореме Бернулли. То, что при большом числе испытаний частота события остается почти постоянной, дает нам возможность расширить круг явлений, для которых мы будем говорить об их вероятности. Представим себе, что относительно события А принципиально возможно проведение неограниченной последовательности не зависимых друг от друга испытаний в неизменных условиях 6. Если в результате достаточно многочисленных наблюдений замечено, что частота события А
§ 5. О статистической оценке неизвестной вероятности 47 ведет себя достаточно правильно и почти всегда колеблется около некоторой, вообще говоря неизвестной, постоянной, то мы скажем, что это событие имеет вероятность. За численное значение этой вероятности может быть приближенно при большом числе п независимых испытаний, производящихся в неизменных условиях 6, принята частота события А. Однако испытания позволяют нам делать заключения и иного характера. Представим себе, что некоторые соображения дают нам основание считать, что вероятность некоторого события А равна р. Пусть далее, при проведении нескольких серий независимых испытаний оказалось, что частоты в подавляющем числе серий значительно отклоняются от величины р. Это обстоятельство дает нам основание высказать сомнение относительно правильности наших априорных суждений и предпринять более детальное исследование тех предпосылок, из которых мы исходили в своих априорных выводах. Так, например, в отношении некоторой игральной кости мы делаем предположения о ее геометрической правильности и однородности материала, из которого она изготовлена. Из этих предварительных предпосылок мы вправе сделать вывод, что при бросании кости вероятность выпадения некоторой грани, например, грани с номером 5, должна быть равна 1/6. Если неоднократные серии достаточно многочисленных испытаний (бросаний) в нашем примере систематически показывают, что частота появления этой грани значительно отличается от 1/6, то мы усомнимся не в существовании определенной вероятности выпадения этой грани, а в наших предпосылках о правильности кости или в правильности организации процесса наших испытаний (бросаний). В качестве иллюстрации почти постоянства частот при больших числах испытаний рассмотрим распределение новорожденных по полу по месяцам. Данные заимствованы из книги Г. Крамера «Математические методы статистики» и представляют собой официальные данные шведской статистики за 1935 г. Таблица 4 Месяц Всех Мальчиков Девочек Частота рождений девочек 1 7280 3743 3537 0,486 2 6957 3550 3407 0,489 3 7883 4017 3866 0,490 4 7884 4173 3711 0,471 5 7892 4117 3775 0,478 6 7609 3944 3665 0,482 7 7585 3964 3621 0,462 8 7393 3797 3596 0,484 9 7203 3712 3491 0,485 10 6903 3512 3391 0,491 11 6552 3392 3160 0,482 12 7132 3761 3371 0,473 За год 88 273 45682 42 591 0,4825! На рис. 9 показано уклонение частоты рождений девочек по месяцам от частоты рождений девочек за год.
48 Глава 1. Случайные события и их вероятности к 0,5 0,4825 П 4 и,ч-| -XX* м ХХХ.. хх х X 1 1 1 1 1 1 1 1 1 1 1 1^ 1 2 3 4 5 6 7 8 9 10 И 12 Рис.9 Заметим, что в случае статистического определения снова имеют место такие свойства вероятности: 1) вероятность достоверного события равна единице; 2) вероятность невозможного события равна нулю; 3) если случайное событие С является суммой конечного числа несовместимых событий А\, А2,..., Ап, имеющих вероятность, то его вероятность существует и равна сумме вероятностей слагаемых P(C) = P(At) + P(A2) + ... + P(An). В заключение мы должны остановиться на весьма распространенной, в особенности среди естествоиспытателей, концепции вероятности, данной Р. Мизесом. Согласно Мизесу, раз частота по мере увеличения числа опытов все меньше и меньше уклоняется от вероятности р, то в пределе должно быть и р = lim —. n-юо П Это равенство Мизес предполагает считать определением понятия вероятности. По его мнению, любое априорное определение обречено на неудачу и лишь данное им эмпирическое определение способно обеспечить интересы естествознания, математики и философии, причем раз классическое определение имеет лишь весьма ограниченное применение, а статистическое определение применимо ко всем имеющим научный интерес случаям, то классическое определение через равновозможность, основанную на симметрии, Мизес предлагает вовсе отбросить. Более того, Мизес считает вообще ненужным выяснение структуры явлений, для которых вероятность является объективной числовой характеристикой, для него достаточно наличия эмпирической устойчивости частоты. Мы не будем останавливаться на деталях теории Мизеса, в частности, на тех ограничениях и условиях, которые он дополнительно накладывает на последовательность испытаний. За подробностями теории мы отошлем читателя к его книге «Вероятность и статистика». В то же время его положения не были безоговорочно приняты наукой. Критические замечания в развернутом виде изложены в статье А.Я.Хинчина,0). 1 * Частотная теория Р. Мизеса и современные идеи теории вероятности // Вопросы философии. 1961. Вып. 1. С. 91-102; Вып. 2. С. 77-89.
§ 6. Аксиоматическое построение теории вероятностей 49 В концепции Мизеса вероятность теряет свой характер объективной числовой характеристики некоторых реальных явлений. Действительно, до производства бесконечного числа испытаний нельзя даже говорить про вероятность того или иного события, а поскольку этого нельзя осуществить, то и вообще мы лишены возможности в каких-либо условиях использовать теорию вероятностей. Следует заметить при этом, что, требуя от частот сходимости к вероятности, Мизес выставляет такое требование, какого не предъявляют ни в одной области естествознания. Ведь в самом деле, никто из нас не откажется от понятия температуры только потому, что мы не можем произвести бесконечного числа измерений и не можем проверить, будут ли результаты этих испытаний стремиться к пределу, если бы мы их все же стали производить. Или не станем же мы говорить, что какой-либо предмет не имеет размеров только потому, что последовательность наших измерений не стремиться к пределу. Более того, следуя за Мизесом, мы вообще не можем говорить о температуре тела или о существовании размеров предмета до тех пор, пока не появится мыслящий субъект, не начнет производить измерения и не убедится в том, что их результаты стремятся к пределу. Как классическое определение вероятности, так и статистическое, были впервые четко сформулированы Я. Бернулли. §6. Аксиоматическое построение теории вероятностей Теория вероятностей долгое время представляла собой еще не сложившуюся математическую науку, в которой основные понятия были недостаточно четко определены. Эта нечеткость приводила нередко к парадоксальным выводам (вспомним парадоксы Бертрана). Естественно, что приложения теории вероятностей к изучению явлений природы были слабо обоснованы и встречали порой резкую и обоснованную критику. Нужно сказать, что эти обстоятельства мало смущали естествоиспытателей и их наивный теоретико-вероятностный подход в различных областях науки приводил к крупным успехам. Развитие естествознания в начале XX столетия предъявило к теории вероятностей повышенные требования. Возникла необходимость в систематическом изучении основных понятий теории вероятностей и выяснении тех условий, при которых возможно использование ее результатов. Вот почему особенно важное значение приобрело формально-логическое обоснование теории вероятностей, ее аксиоматическое построение. При этом в основу теории вероятностей как математической науки должны быть положены некоторые предпосылки, являющиеся обобщением многовекового человеческого опыта. Дальнейшее же ее развитие должно строиться посредством дедукции из этих основных положений без обращения к наглядным представлениям, к выводам «согласно здравому смыслу». Иными словами, теория вероятностей должна строиться из аксиом так же, как любая сформировавшаяся математическая наука — геометрия, абстрактная теория групп, теоретическая механика и т.д.
50 Глава 1. Случайные события и их вероятности Впервые такая точка зрения была высказана и развита в 1917 г. советским математиком С. Н. Берштейном. При этом С. Н. Берштейн исходил из качественного сравнения случайных событий по их большей или меньшей вероятности. Имеется иной подход, предложенный А. Н. Колмогоровым. Этот подход тесно связывает теорию вероятностей с современной метрической теорией функций, а также с теорией множеств. Настоящая книга следует пути, предложенному Колмогоровым. Мы увидим, что аксиоматическое построение основ теории вероятностей отправляется от основных свойств вероятности, подмеченных на примерах классического и статистического определений. Аксиоматическое определение вероятности, таким образом, как частные случаи включает в себя и классическое и статистическое определения и преодолевает недостаточность каждого из них. На этой базе удалось построить логически совершенное здание современной теории вероятностей и в то же время удовлетворить повышенные требования к ней современного естествознания. Отправным пунктом аксиоматики Колмогорова является множество Q, элементы которого называются элементарными событиями. Наряду с Q рассматривается множество # подмножеств элементарных событий. Множество $ называется алгеброй множеств, если выполнены следующие требования: 1) Q 6 #, 0 £ # (0 — пустое множество); 2) из того, что А €*$, следует, что так же А £ #; 3) из того, что A £ # и В £ #, следует, что Аив ед и Апве$. Если дополнительно к перечисленным выполняется еще следующее требование: 4) из того, что Ап £ # (при п = 1, 2,...), вытекает, что иАпе$ и пАпе$, п п то множество 5 называется а-алгеброй. Элементы £ называются случайными событиями. Под операциями над случайными событиями понимаются операции над соответствующими множествами. В результате можно составить словарь переводов с языка теории множеств на язык теории вероятностей, приводимый нами в табл. 5. Теперь мы можем перейти к формулировке аксиом, определяющих вероятность. Аксиома 1. Каждому случайному событию А поставлено в соответствие неотрицательное число Р(А), называемое его вероятностью.
§ 6. Аксиоматическое построение теории вероятностей 51 Таблица 5 Обозначения П ш А, В А + В=AUB АВ = АГ\В А А\В 0 АВ = АГ\В = 0 А = В АСВ Термины теории множеств Множество, пространство Элемент множества Подмножество А, В Объединение (сумма) множеств А и В Пересечение множеств А и В Дополнение множества А Разность множеств А и В Пустое множество Множества А и В не пересекаются (не имеют общих элементов) Множества А и В равны А есть подмножество В теории вероятностей Пространство элементарных событий, достоверное событие Элементарное событие Случайное событие А, В Сумма случайных событий А иВ Произведение событий А иВ Событие, противоположное для А Разность событий А и В Невозможное событие События А и В несовместимы События А и В равносильны Событие А влечет событие В Аксиома 2. P(Q) = 1. Аксиома 3 (аксиома сложения). Если события А\, A2i..., Ап попарно несовместимы, то Р(АХ + А2 + ... + Ап) = Р(А}) + Р(А2) + ... + Р(Ап). Для классического определения вероятности свойства, выраженные аксиомами 2 и 3, не нужно было постулировать, так как эти свойства вероятности были нами доказаны. Из сформулированных аксиом мы выведем несколько важных элементарных следствий. Прежде всего, из очевидного равенства П = 0 + П и аксиомы 3 мы заключаем, что Р(П) = Р(0) + Р(П).
52 Глава 1. Случайные события и их вероятности Таким образом, 1. Вероятность невозможного события равна нулю. 2. Для любого события А Р{А) = \-Р{А)пК 3. Каково бы ни было случайное событие А, 0<СР(Л)<С1. 4. Если событие А влечет за собой событие Б, то ?(А) ^ Р(В). 5. Пусть А и В — два произвольных события. Поскольку в суммах А + В = А + (В - АВ) и В = АВ + (В - АВ) слагаемые являются несовместимыми событиями, то в соответствии с аксиомой 3 Р(А + В) = Р(А) + Р(Б - АВ); Р(В) = Р(АВ) + Р(Б - АВ). Отсюда вытекает теорема сложения для произвольных событий А и В Р(А + В) = Р(А) + Р(Б) - Р(АВ). В силу неотрицательности Р(АВ) отсюда заключаем, что Р(А + В) <С Р(А) + Р(Б). По индукции теперь выводим, что если А]9 А2у..., Ап — произвольные события, то имеет место неравенство Р{А; + А2 + ... + Ап} <С Р(А{) + Р(А2) + ... + Р(Ап). Система аксиом Колмогорова непротиворечива, так как существуют реальные объекты, которые всем этим аксиомам удовлетворяют. Например, если за Q принять произвольное конечное множество с конечным числом элементов Q = {аьй2, • •• ><*«}> за 5 — совокупность всех подмножеств {а,-,, а,2,..., а,,}, 0 ^ i\ ^ г2 ^... ^ is ^ п, 0 ^ s ^ п, то положив P(ai) =Pi,P(fl2) =Р2,..,РЮ=Рп, гдер,,р2,...,Рп — произвольные неотрицательные числа, удовлетворяющие равенству р\ +р2 +... +рп = 1, а Р(а,-,, а,2,..., а,4) = pt| +... +р,в, мы удовлетворим всем аксиомам Колмогорова. Система аксиом Колмогорова неполна: даже для одного и того же множества Q вероятности в множестве 5 мы можем выбирать различными способами. Так, в рассмотренном нами примере с игральной костью мы можем положить или Р(Е{) = Р(Е2) = ... = Р(Е6)=\/6 (1) или Р(Я,) = Р(Я2) = Р(Я3) = 1/4, Р(Е4) = Р(Е5) = Р(Е6)=1/12 (> и т.д. Формулировка этого предложения имеется в трактате Я. Бернулли.
§ 6. Аксиоматическое построение теории вероятностей 53 Неполнота системы аксиом теории вероятностей не является свидетельством их неудачного выбора или недостаточной работы мысли при их создании, а вызвана существом дела: в различных задачах могут встретиться явления, при изучении которых требуется рассматривать одинаковые множества случайных событий, но с различными вероятностями. Например, могут встретиться игральные кости, из которых одна правильная (точный куб с одинаковой плотностью в каждой точке), другая неправильная. В первом случае система вероятностей будет задана системой равенств (1), а во втором, скажем, системой (2). Дальнейшее развитие теории нуждается в дополнительном предположении, которое носит название расширенной аксиомы сложения. Необходимость введения новой аксиомы объясняется тем, что в теории вероятностей постоянно приходится рассматривать события, подразделяющиеся на бесконечное число частных случаев. Расширенная аксиома сложения. Если событие А равносильно наступлению хотя бы одного из попарно несовместимых событий А \, А2,..., Ап,..., то Р(А) = Р(А}) + Р(А2) + ... + Р(Ап) + ... . Заметим, что расширенная аксиома сложения может быть заменена равносильной ей аксиомой непрерывности. Аксиома непрерывности. Если последовательность событий В\,В2,... ... ,Вп,... такова, что каждое последующее влечет за собой предыдущее и произведение всех событий Вп есть невозможное событие, то Р(Вп) -» 0 при п -> оо. Докажем эквивалентность только что сформулированных предложений. 1. Из расширенной аксиомы сложения следует аксиома непрерывности. Действительно, пусть события В\, В2,..., Вп,... таковы, что В{Э В2Э ...ЭВпЭ ... и при любом п ^ 1 П> = 0 (3) Очевидно, что 00 00 вп = 22 BkBk+\ + Yi Bk- к=п к=п Так как события, стоящие в этой сумме, попарно несовместимы, то согласно расширенной аксиоме сложения 00 у 00 р(д.)=Y1 р(ад+0+р( П в* >
54 Глава 1. Случайные события и их вероятности Но в силу условия (3) 00 р/ поэтому (Й **)=«. р(вв) = ^р(вл+1), к=п т. е. Р(Вп) есть остаток сходящегося ряда 00 ^Р(ВЛ+|)=Р(В,). Поэтому Р(Вп) -»• 0 при п -^ оо. 2. Из аксиомы непрерывности следует расширенная аксиома сложения. Пусть события А\, А2, ..., Ап,... попарно несовместимы и 4 = iti + А2 + ... + it„ 4-... . Положим 00 к=п Ясно, что Бп+1 С Вп. Если событие Бп наступило, то наступило какое- нибудь из событий Ai(i ^ п) и, значит, в силу попарной несовместимости событий Ак, события ili+i, j1,-+2,... уже не наступили. Таким образом, события 2?j+i,.Bj+2,... невозможны, и, следовательно, невозможно со- 00 бытие П &к- По аксиоме непрерывности Р(Вп) -> 0 при п -»• оо. Так как к=п А = А1+А2 + ... + Ап+Вп+1, то по обычной аксиоме сложения п оо Р(А) = P(At)+P(A2)+... + P(An)+P(Bn+l) = lim Гр(Л) = У>(А). п->оо ^—' ^—' Мы видим из сказанного, что аксиоматика Колмогорова позволяет строить теорию вероятностей как часть теории меры, а вероятность рассматривать как неотрицательную нормированную аддитивную функцию множества. Вероятностным пространством принято называть тройку символов (П, 5, Р), где П — множество элементарных событий, 5 — а -алгебра подмножеств П, называемых случайными событиями, и Р{А) — вероятность, определенная на (7-алгебре #.
§ 7. Условная вероятность и простейшие основные формулы 55 §7. Условная вероятность и простейшие основные формулы Мы уже говорили, что в основе определения вероятности события лежит некоторая совокупность условий 6. Если никаких ограничений, кроме условий 6, при вычислении вероятности Р(А) не налагается, то такие вероятности называются безусловными. Однако в ряде случаев приходится рассматривать вероятности событий при дополнительном условии, что произошло некоторое событие В. Такие вероятности мы будем называть условными и обозначать символом Р(л4|Б): это означает вероятность события А при условии, что событие В произошло. Строго говоря, безусловные вероятности также являются условными, так как исходным моментом построенной теории было предположение о существовании некоторого неизменного комплекса условий 6. Пример 1. Брошены две игральные кости. Чему равна вероятность того, что сумма выпавших на них очков равна 8 (событие А), если известно, что эта сумма есть четное число (событие В)? Все возможные случаи, которые могут представиться при бросании двух костей, мы запишем в табл. 6, каждая клетка которой содержит запись возможного события: на первом месте в скобках указывается число очков, выпавших на первой кости, на втором месте — число очков, выпавших на второй кости. Таблица 6 (1,1) (1,2) (1,3) (1,4) (1,5) (U6) (2,1) (2,2) (2,3) (2,4) (2,5) (2,6) (3,0 (3,2) (3,3) (3,4) (3,5) (3,6) (4,0 (4,2) (4,3) (4,4) (4,5) (4,6) (5,1) (5,2) (5,3) (5,4) (5,5) (5,6) (6,0 (6,2) (6,3) (6,4) (6,5) (6,6) Общее число возможных случаев — 36, благоприятствующих событию А — 5. Таким образом, безусловная вероятность Р(А) = 5/36. Если событие В произошло, то осуществилась одна из 18 (а не 36) возможностей и, следовательно, условная вероятность равна Р(А\В) = 5/18. Пример 2. Из колоды карт последовательно вынуты две карты. Найти а) безусловную вероятность того, что вторая карта окажется тузом (неизвестно, какая карта была вынута вначале) и б) условную вероятность, что вторая карта будет тузом, если первоначально был вынут туз.
56 Глава 1. Случайные события и их вероятности Обозначим через А событие, состоящее в появлении туза на втором месте, а через В — событие, состоящее в появлении туза на первом месте. Ясно, что имеет место равенство А = АВ + АВ. В силу несовместимости событий АВ и АВ имеем: Р(А) = Р(АВ) + Р(АВ). При вынимании двух карт из колоды в 36 карт могут произойти 36 • 35 (учитывая порядок!) случаев. Из них благоприятствующих событию АВ — 4 • 3 случая, а событию АВ — 32-4 случая. Таким образом, 4-3 32-4 _ ]_ Р( '~ 36-35 + 36-35 ~ 9' Если первая карта есть туз, то в колоде осталось 35 карт и среди них только три туза. Следовательно, Р(А\В) = 3/35. Общее решение задачи нахождения условной вероятности для классического определения вероятности не представляет труда. В самом деле, пусть из п единственно возможных, несовместимых и равновероятных событий А], А2,..., Ап событию А благоприятствует га событий —"— В —"— к — "— -"- АВ -"- г -"- (понятно, что г ^ к, г ^ га). Если событие В произошло, то это означает, что наступило одно из событий Aj, благоприятствующих В. При этом условии событию А благоприятствуют г и только г событий Aj, благоприятствующих АВ. Таким образом, г r/п Р(АВ) ?{т =к = 1фг = W 0) Точно так же, если Р(4) > 0, то Понятно, что если В (соответственно j4) есть невозможное событие, то равенство (1) (соответственно (I7)) теряет смысл. Заметим, что рассуждения, проведенные нами в примерах 1 и 2, не являются доказательствами, а представляют только мотивировки определений, данных равенствами (1) и (1;). При Р(4)Р(Б) > 0 каждое из равенств (1), (1;) эквивалентно так называемой теореме умножения, согласно которой Р(АВ) = Р(А)Р(В\А) = Р(В)Р(А\В), (2)
§ 7. Условная вероятность и простейшие основные формулы 57 т. е. вероятность произведения двух событий равна произведению вероятностей одного из этих событий на условную вероятность другого при условии, что первое произошло. Теорема умножения применима и в том случае, когда одно из событий А или В есть невозможное событие, так как в этом случае вместе с Р(А) = 0 имеют место равенства Р(А\В) = 0 и Р(АВ) = 0. Говорят, что событие А независимо от события Б, если имеет место равенство Р(А\В) = Р(А), (3) т.е. если наступление события В не изменяет вероятности события А пК Если событие А независимо от Б, то в силу (2) имеет место равенство Р(А)Р(В\А) = Р(В)Р(А). Отсюда при Р(А) > 0 находим, что Р(В\А) = Р(Б), (4) т.е. событие В также независимо от А. Таким образом, свойство независимости событий взаимно. Для независимых событий теорема умножения принимает особенно простой вид, а именно, если события А и В независимы, то Р(АВ) = Р(А) • Р(Б). Если независимость событий А и В определить посредством равенства Р(АВ) = Р(А)Р(В), то это определение верно всегда, в том числе и тогда, когда Р(А) = 0 или Р(Б) = 0. Понятие независимости событий играет значительную роль в теории вероятностей и в ее приложениях. В частности, большая часть результатов, изложенных в настоящей книге, получена в предположении независимости тех или иных рассматриваемых событий. В практических вопросах для определения независимости данных событий редко обращаются к проверке выполнения для них равенств (3) и (4). Обычно для этого пользуются интуитивными соображениями, основанными на опыте. Так, например, ясно, что выпадение герба на одной монете не изменяет вероятности появления герба (решки) на другой монете, если только эти моменты во время бросания не связаны между собой (например, жестко не скреплены). Точно так же рождение мальчика у одной матери не изменяет вероятности появления мальчика (девочки) у другой матери. Эти события независимые. Мы обобщим теперь понятие независимости двух событий на совокупность нескольких событий. ' Понятия условной вероятности и независимости, а также формулировка теоремы умножения даны А. Муавром в 1718 г.
58 Глава 1. Случайные события и их вероятности События Б|,Б2,...,Бв называются независимыми в совокупности, если для любого события Вр из их числа и произвольных Б,,, Б,2,..., Б,р из их же числа и отличных от Бр (i„ / р и 1 ^ п ^ г) события Вр и Б,, Б,2 ... Bir взаимно независимы. В силу предыдущего, это определение эквивалентно следующему: при любых 1 ^ z'i <t2<...<ir$or(Ur$e) Р(Б,,Б,2... Bir) = Р(Б,,)Р(Б,2)... Р(Б,р). Заметим, что для независимости в совокупности нескольких событий недостаточно их попарной независимости. В этом можно убедиться на следующем простом примере. Представим себе, что грани тетраэдра окрашены: 1-я — в красный цвет (4), 2-я — в зеленый (Б), 3-я — в синий (С) и 4-я — во все эти три цвета (ABC). Легко видеть, что вероятность грани, на которую упадет тетраэдр при бросании, в своей окраске иметь красный цвет равна 1/2: граней четыре и две из них имеют в окраске красный цвет. Таким образом, Р(А) = 1/2. Точно так же можно посчитать, что Р(В) = Р(С) = Р(А\В) = Р(В\С) = Р(С\А) = Р(В\А) = Р(С\В) = = Р{А\С) = 1/2. События Л, Б, С, таким образом, попарно независимы. Однако, если нам известно, что осуществились события Б и С, то заведомо осуществилось и событие А, т. е. Р(4|БС) = 1. Таким образом, события А, В, С в совокупности зависимы. Формула (1'), которая в случае классического определения была нами выведена из определения условной вероятности, в случае аксиоматического определения вероятности будет взята нами в качестве определения. Таким образом, в общем случае при Р(А) > 0 по определению (В случае Р(А) = 0 условная вероятность Р(В\А) остается неопределенной.) Это позволяет нам перенести автоматически на общее понятие вероятности все определения и результаты настоящего параграфа. Предположим теперь, что событие Б может осуществиться с одним и только с одним из п несовместимых событий А\,А2,...9АП. Иными словами, положим, что В = J2 В At, (5) 1=1
§ 7. Условная вероятность и простейшие основные формулы 59 где события ВА{ и BAj с разными индексами i и j несовместимы. По теореме сложения вероятностей имеем: п P(B) = J2P(BAi). Использовав теорему умножения, находим, что п Р(В) = £ Р№Р(ВШ. 1=1 Это равенство носит название формулы полной вероятности13^ и играет основную роль во всей дальнейшей теории. В качестве иллюстрации рассмотрим два примера. Пример 3. Имеется пять урн: 2 урны состава А\ — по два белых шара и одному черному, 1 урна состава А2 — по 10 черных шаров, 2 урны состава А^ — по 3 белых шара и одному черному. Наудачу выбирается урна и из нее наудачу вынимается шар. Чему равна вероятность, что вынутый шар белый (событие Б)? Решение. Так как вынутый шар может быть только из урны 1-го, 2-го или 3-го состава, то В = АхВ + А2В + АгВ. По формуле полной вероятности находим, что 9(B) = Р(А,)Р(В|А,) + Р(А2)Р(В\А2) + Р(А3)Р(В|Аз). Но ясно, что P(jii) = |, P(A2) = |, р(^з) = ^, Р(В\А{) = 1, Р{В\А2) = О, Р(В\А3) = \. Таким образом, /«ч 2 2 Х Л 2 3 17 Р(Б) = + - • 0 + = —. V ; 5 3 5 5 4 30 Пример 4. Известно, что вероятность поступления к вызовов на телефонную станцию за промежуток времени длительности t равна Pt(k) (А; = 0,1,2,...). ,3) Формула полной вероятности широко использовалась математиками начала XVIII века, но впервые была сформулирована как основное предложение теории вероятностей П.Лапласом лишь в конце XVIII века.
60 Глава 1. Случайные события и их вероятности Считая, что появления какого-либо числа вызовов за два соседних промежутка времени являются событиями независимыми, найти вероятность поступления s вызовов за промежуток времени длительности It. Решение. Обозначим через А\b+t событие, состоящее в поступлении к вызовов за время от Ь до b + t. Очевидно, что мы имеем следующее равенство: A,2t = AytKlt + • .. + AqjK2Ь которое означает, что событие А% 2t можно рассматривать как сумму s+ 1 несовместимых событий, состоящих в том, что за первый промежуток времени длительности t поступает i вызовов, а за следующий промежуток той же продолжительности поступает s - г вызовов (t = 0,1,2,... ,s). По теореме сложения вероятностей s РКа) = £р(4Х~а)- 1=0 По теореме умножения вероятностей для независимых событий р«.^)=р(4.)р№). Таким образом, если положить P2t(s) = P(Aa0,2t), ТО s P2t(s) = J2Pt(*)-Pt(s-i)- (6) 1=0 Впоследствии мы увидим, что при некоторых весьма общих условиях W = ^- exp {-at} (к = 0,1,2...), (7) где a — некоторая константа. Из формулы (6) мы находим, что « / ч v^ (at)sQxp {-2at} . ,.. г „ яЛ ^ 1 ы*) = £ ;,!(8Л)! = «ехр {~2at}E щпр i=0 v ' f=0 v 7 Но Поэтому f^i!(s-i)! s! f-f i\(s - i)\ зГ ' s! i=0 (2a*)'exp {-2a*} P2t(s) = - (s = 0,1, 2,...). s\ Таким образом, если для промежутка времени длительности t имеет место формула (7), то для промежутков времени, в два раза больших, и, как
§ 7. Условная вероятность и простейшие основные формулы 61 легко убедиться, для любых кратных t промежутков времени характер формулы для вероятности сохраняется. Мы в состоянии теперь вывести важные формулы Байеса или, как иногда говорят, вероятности гипотез. Пусть по-прежнему имеет место равенство (5). Требуется найти вероятность события А{, если известно, что В произошло. Согласно теореме умножения имеем: Р(А(В) = P(B)P(At\B) = Р(4)Р(В|4). Отсюда _ Р(А()Р(В\А<) p(i4'|B)-—Plij—' используя формулу полной вероятности, находим, что гни- :шнвш. Е р(Л)р(б|^) j=\ Полученные нами формулы носят название формул Байеса НК Общая схема применения этих формул к решению практических задач такова. Пусть событие В может протекать в различных условиях, относительно характера которых может быть сделано п гипотез: А\,А2,...,АП. По тем или иным причинам нам известны вероятности P(j4,) этих гипотез до испытания. Известно также, что гипотеза А{ сообщает событию В вероятность P(B\Ai). Произведен опыт, в котором событие В наступило. Это должно вызвать переоценку вероятностей гипотез Ai — формулы Байеса количественно решают этот вопрос. В артиллерийской практике производится так называемая пристрелка, имеющая своей целью уточнить наши знания относительно условий стрельбы (например, правильность прицела). В теории пристрелки широко используется формула Байеса. Мы ограничимся приведением чисто схематического примера исключительно ради иллюстрации характера задач, решаемых этой формулой. Пример 5. Имеются пять урн следующего состава: 2 урны (состава А\) по 2 белых и 3 черных шара, 2 урны (состава А2) — 1 белый и 4 черных шара, 1 урна (состава Аз) — 4 белых и 1 черный шар. Из одной наудачу выбранной урны взят шар. Он оказался белым (событие Б). Чему равна после опыта вероятность (апостериорная вероятность) того, что шар вынут из урны третьего состава? 'Т. Байес приведенных формул не выводил, он ограничился записью формулы (1) настоящего параграфа. Приведенные формулы были выписаны лишь П.Лапласом в конце XVIII века.
62 Глава 1. Случайные события и их вероятности Решение. Согласно предположению р(а,)4 Р(£И,) = \, р(^4 Р(В\А2) = 1, Согласно формуле Байеса имеем: о( 4.im — Р(А3)Р(В\А3) РШ = \; P(B|A,) = j. P(A,)P(B|it,) + Р(Л2)Р(Я|А2) + P(Aj)P(B|A3) 1 4 5'5 4 _2 2 2 12 14 ю 1 1 5 5 5 5 5 5 Р(А,|Д) = |, Р(А2|В) = 7- Точно так же находим: В) = , ..._„_, 5' v " ' 5 §8. Примеры Мы приведем несколько более сложных примеров на использование изложенной теории. Пример 7,5\ Два игрока А и В продолжают некоторую игру до полного разорения одного из них. Капитал первого равняется а руб., капитал второго — Ь руб. Вероятность выигрыша каждой партии для игрока А равна р, а для игрока В равна q; p + q = 1 (ничьи отсутствуют). В каждой партии выигрыш одного игрока (и, значит, проигрыш другого) равняется 1 рублю. Найти вероятность разорения каждого из игроков (результаты отдельных партий предполагаются независимыми). Решение. Обозначим через рп вероятность разорения игрока А9 когда он имеет п руб. Очевидно, что искомая вероятность есть ра и что рв+& = 0, ро=1, (1) поскольку в первом случае игрок А уже сосредоточил в своих руках весь капитал, а во втором он уже ничего не имеет. ' Мы сохраняем для этой задачи «о разорении игрока» ее классическую формулировку, но возможны и иные формулировки, например: материальная частица находится на прямой в точке О и каждую секунду подвергается случайному толчку, в результате которого передвигается на 1 см вправо с вероятностью р или на 1 см влево с вероятностью q — 1 — р. Чему равна вероятность того, что материальная частица окажется правее точки с координатой b (b > 0), прежде чем она попадет в положение, расположенное левее точки с координатой а (а <0> а и b — целые числа)? Задача о разорении игрока была предложена и впервые изучена X. Гюйгенсом. Мы предполагаем, что вероятность события «разорение игрока» существует.
§8. Примеры 63 Если игрок А имел п руб. перед некоторой партией, то его разорение может осуществиться двумя различными способами: или он очередную партию выиграет, а всю игру проиграет, или он проиграет и партию и игру. По формуле полной вероятности поэтому Рп = p-Pn+i +q-pn-\. Относительно рп мы получили уравнение в конечных разностях; легко видеть, что его можно записать в следующем виде: q(Pn -рп-\)= p(Pn+i - Рп). (2) Рассмотрим сначала решение этого уравнения при р = q = 1/2. При этом допущении Р„+1 -рп=Рп- Рп-\ = • • • = Р\ - Ро = С, где с — постоянная. Отсюда находим, что Рп = Ро + пс. ПОСКОЛЬКУ р0 = 1 И ра+ь = О, ТО п Рп = 1 а + Ь Таким образом, вероятность разорения игрока А равняется а Ь Ра= 1 " а + Ъ а + Ъ Подобным же путем найдем, что в случае р = 1/2 вероятность разорения игрока В равна а В общем случае при р Ф q из (2) находим, что п п ?пП(р*-р*-')=р"П(р*+'-р*)- к=\ к=\ После сокращений и учета соотношений (1) находим, что pn+, -pn = (g/p)n(Pi-l). Рассмотрим разность ра+ь - Рп \ очевидно, что Ра+Ъ-Рп- 2^ (Р*+|-Р*)= 2-r wW (Pl-U = (Pl-1) 7—/^ * ПОСКОЛЬКУ ра+ь = О, ТО м/р)п-ша+ь Pn = (l-Pl)- l-q/p
64 Глава 1. Случайные события и их вероятности а так как р0 = 1 > то , /, п,Ш°-Ша+ь 1 = °-Pl) 1-9/P ■ Исключив из двух последних равенств величину р\, находим, что _ (g/p)«+> - (g/p)" Отсюда вероятность разорения игрока А qa+b _ qapb { _ (^ Ра = д«+& _ р«+& 1 - (p/q)a+b' Подобным путем находим, что вероятность разорения игрока В при р Ф q равна i-(g/p)' 9s i-(«/p)e+6' Из этих формул мы можем сделать следующие выводы: если капитал одного из игроков, например Б, несравненно больше капитала игрока А (так что практически Ь можно считать бесконечно большим по сравнению с а), а игроки одинаково искусны, то разорение В практически невозможно. Вывод будет совсем иной, если А играет лучше, чем Б, и, значит, р > q. Считая Ь ~ оо, находим, что ft ~ 1 - (q/p)a и Pa ~ (q/p)a- Отсюда мы делаем тот вывод, что умелый игрок даже с малым капиталом может иметь меньше шансов на разорение, чем игрок с большим капиталом, но менее умелый. К задаче о разорении игрока сводится решение некоторых задач физики и техники. Пример 2. Найти вероятность того, что станок, работающий в момент £о, не остановится до момента to + t, если известно, что 1) эта вероятность зависит только от величины промежутка времени («о, *о +1), 2) вероятность того, что станок остановится за промежуток времени Д£, пропорциональна Д£ с точностью до бесконечно малых высших порядков16) относительно Д£. ,6' В дальнейшем для записи того факта, что некоторая величина а бесконечно мала сравнительно с величиной /3, мы будем пользоваться записью а — оЦЗ). Если же отношение а/Р ограничено по абсолютной величине, то будем писать а = Оф).
§8. Примеры 65 Решение. Обозначим вероятность через p(t). Вероятность того, что станок остановится за промежуток времени At, равна 1 - p(At) = aAt + o(At), где а — некоторая постоянная. Определим вероятность того, что станок, работавший в момент £о, не остановится до момента t0 + t + At. Для осуществления этого события необходимо, чтобы станок не остановился за периоды времени длины t и At; в силу теоремы умножения, таким образом, p(t + At) = p(t) • p(At) = p(t)(\ - aAt - o(At)). Отсюда p(t + At)-p{t) — = -ap(t) - 0(1). (3) Теперь перейдем к пределу, положив At -> 0; из того, что существует предел правой части равенства (3), вытекает, что существует также предел левой части. В результате находим, что Решение этого уравнения есть функция p(t) = Сехр{-а£}, где С — постоянная. Эта постоянная находится из того очевидного условия, что р(0) = 1. Таким образом, p(t) = ехр{-а£}. Первое условие налагает на режим работы станка большие ограничения, однако существуют производства, где оно выполняется с большой степенью точности. В качестве примера можно привести работу автоматического ткацкого станка. Заметим, что к рассмотренной задаче сводится много других вопросов, например, вопрос о распределении вероятностей длины свободного пути молекулы в кинетической теории газов. Пример 3. При составлении таблиц смертности часто исходят из таких допущений: 1) вероятность того, что некоторое лицо умрет в возрасте от t до t + At равна p(t, t + At) = a(t)At + o(At), где a(t) — неотрицательная, непрерывная функция; 2) считается, что смерть данного лица (или его выживание) за рассматриваемый промежуток (£1,^2) возраста не зависит от того, что было до момента t\\ 3) вероятность смерти в момент рождения равна нулю. 3 Курс теории вероятностей
66 Глава 1. Случайные события и их вероятности Исходя из высказанных предположений, найти вероятность смерти лица А до того, как оно достигнет возраста t. Решение. Обозначим через n(t) вероятность того, что лицо А доживет до возраста t, и вычислим n(t + At). Очевидно, что из допущений, принятых в задаче, вытекает равенство тг(* + АО = тг(0тг(* + At; 0, где n(t + At; t) обозначает вероятность дожить до возраста t + At, если лицо А уже дожило до возраста t. В соответствии с первым и вторым допущениями тг(* + At; t) = 1 - p(t, t + At) = 1 - a(t)At - o(At); поэтому тг(* + At) = тг(0[1 - a(t)At - o(At)]. Отсюда находим, что 7r(t) удовлетворяет следующему дифференциальному уравнению: d-^ = -a(tHt). Решением этого уравнения при учете третьего условия задачи будет функция 7г(£) = ехр < - / a(z) dz >. о Вероятность умереть прежде, чем будет достигнут возраст t, таким образом, равна t 1 - тг(£) = 1 - ехр о При составлении таблиц смертности для взрослого населения нередко пользуются формулой Макегама, согласно которой a(t) = а + /3ехр{7*}> постоянные а,/3,7 — положительны17). При выводе этой формулы исходили из допущения, что взрослый человек может умереть от причин, не зависящих от возраста, и причин, зависящих от возраста, причем вероятность смерти растет с увеличением возраста в геометрической прогрессии. При таком дополнительном предположении *(*) = ехр < -at (ехр {jt} - 1) >. ' Их значение определяется условиями, в которых находится группа лиц, подлежащих изучению, и прежде всего социальными условиями.
§8. Примеры 67 Пример 4. В современной ядерной физике для измерения интенсивности источника частиц используются счетчики Гейгера. Частица, попавшая в счетчик, вызывает в нем разряд, длящийся время г, в протяжение которого счетчик не регистрирует частицы, попадающие в счетчик. Найти вероятность того, что счетчик сосчитает все частицы, попавшие в него за время t, если выполняются следующие условия: 1) вероятность того, что за промежуток времени длительности t в счетчик попадут к частиц, не зависит от того, сколько частиц попало в счетчик до начала этого промежутка; 2) вероятность того, что за промежуток времени от £0 до to +t в счетчик попадет к частиц, задается формулой,8) (ot)*exp{-of} Pk(h, t0 + t) = , где а — положительная постоянная; 3) г — постоянная величина. Решение. Обозначим через A(t) — событие, состоящее в том, что все попавшие за время t в счетчик частицы были сосчитаны; через Bk(t) — событие, состоящее в том, что за время t в счетчик попало к частиц. В силу первого условия задачи при t^r P{A(t+At)} = P{A(t)}P{B0(At)}+P{A(t-r)}P{Bo(r)}P{Bl(At)}+o(At)i а при O^t^r P{A(t + At)} = P{A(t)}P{B0(At)} + P{B0(t)} + Р{В|(Д«)} + o(At). Обозначим для краткости записи n(t) = P{A(t)}; тогда на основании второго и третьего условий задачи при 0 ^ < ^ г n(t + At) = 7г(£) exp {-aAt} + ехр {-aAt}aAt exp {-at} + o(At) и при t^r n(t + АО = 7г(£) exp {-aAt} + n(t - т) ехр {-aAt}aAt ехр {-ат} + o(At). Путем перехода к пределу при At -»• 0 находим, что при 0 ^ < ^ г имеет место равенство ^ = -отг(0 + аехР{-о<}, (4) at а при t^r — равенство dn(t) dt = -a[n(t) - n(t - г) ехр {-ат}]. (5) ,8' Позднее мы выясним, почему в этом примере и в примере 3 предыдущего параграфа мы считали, что (а*)* ехр {-а*} Рк = fti '
68 Глава 1. Случайные события и их вероятности Из уравнения (4) находим, что при O^t^r n(t) = exp {-at}(c + at). Из условия тг(0) = 1 определяем постоянную с. Окончательно при 0 ^ £ ^ г тг(0 = ехр{-а*}(1 + а0. (6) При т ^ £ ^ 2т вероятность n(t) определяется из уравнения ^ = -а[тг(0 - тг(* - г) ехр {-ат}] = at = -а[7г(0 - ехр {-a(t - т)}(1 + a(t - г)) ехр {-ат}] = = -а[тг(0 - ехр {-a(t)}(\ + a(t - г))]. Решение этого уравнения дает нам: тг(0 = ехр {-ат}1С1 +at+ ^ ). Постоянное С\ может быть найдено из того, что согласно (6) 7г(т) = ехр {-ат}(1 + ат). Таким образом, с\ = 1 и для г ^ £ ^ 2т а2(*-т)2"> n(t) = ехр{-а£} \ + at + 2! Методом полной индукции можно доказать, что для (п - \)т ^t ^ пт имеет место равенство тг(0 = ехр {-at} 2^ ^ . Л=0 Упражнения А, В, С — случайные события. 1. Каков смысл равенств а) АВС = А\ б) А + В + С = А? 2. Упростить выражения а) (А + В)(В + С)\ б) (Л + Б)(Л + Б);_ в) (Л + Б)(4 + Б)(1 + Б).
Упражнения 69 3. Доказать равенства а) ТБ = А + В; б) А + В = АВ; в) Ах +А2 + ... + An = АХА2...АП\ г) А{А2...АП = Л, + А2 + ... +Ап. 4. Четырехтомное сочинение расположено на полке в случайном порядке. Чему равна вероятность того, что тома стоят в должном порядке справа налево или слева направо? 5. Числа 1, 2, 3, 4, 5 написаны на пяти карточках. Наудачу последовательно вынимаются три карточки, и вынутые таким образом цифры ставятся слева направо. Чему равна вероятность того, что полученное таким образом трехзначное число окажется четным? 6. В партии, состоящей из N изделий, имеются М бракованных. Наудачу выбираются п изделий из этой партии (n < N). Чему равна вероятность того, что среди них окажутся га бракованных (га ^ М)? 7. Технический контроль проверяет изделия в партии, состоящей из га изделий первого сорта и п изделий второго сорта. Проверка первых Ь изделий, выбранных из партии наудачу, показала, что все они второго сорта (6 < п). Чему равна вероятность того, что среди следующих двух наудачу выбранных из числа непроверенных изделий по меньшей мере одно окажется также второго сорта? 8. Пользуясь теоретико-вероятностными соображениями, доказать тождество N-n (N-n)(N-n- 1) (N-n)...2-[ N 1 + ;\r-i + (i\r-i)(i\r-2) +",+ (i\r-i)...(n+i)n "~7T Указание. Из урны, содержащей N шаров и среди них п белых, наудачу вынимаются шары без возвращения. Найти вероятность того, что рано или поздно натолкнутся на белый шар. 9. Из ящика, содержащего га белых и п черных шаров (га > п), вынимают наудачу один шар за другим. Чему равна вероятность того, что наступит момент, когда число вынутых черных шаров будет равно числу вынутых белых? 10. Некто написал п адресатам письма, в каждый конверт вложил по одному письму и затем наудачу написал на каждом конверте один из п адресов. Чему равна вероятность того, что хотя бы одно письмо попало по назначению? 11. В урне имеется п билетов с номерами от 1 до п. Билеты вынимаются наудачу по одному (без возращения). Чему равна вероятность того, что хотя бы при одном вынимании номер вынутого билета совпадает с номером произведенного испытания? 12. Из урны, содержащей п белых и п черных шаров, наудачу вынимается четное число шаров (все различные способы вынуть четное число шаров, независимо от их числа, считаются равновероятными). Найти вероятность того, что среди вынутых шаров окажется одинаковое число черных и белых. 13. Задача кавалера де Мере. Что вероятнее: при бросании четырех игральных костей хотя бы на одной получить 1 или при 24 бросаниях двух костей хотя бы раз получить две единицы?
70 Глава 1. Случайные события и их вероятности 14. На отрезок (0, о) наудачу брошены три точки. Найти вероятность того, что из отрезков, равных расстояниям от точки 0 до точек падения, можно составить треугольник. 15. Стержень длины / разломан в двух наудачу выбранных точках. Чему равна вероятность того, что из полученных отрезков можно составить треугольник? 16. На отрезок АВ длины о наудачу бросается точка. На отрезок ВС длины Ь также наудачу бросается точка. Чему равна вероятность того, что из отрезков: 1) от точки А до первой брошенной точки, 2) между двумя брошенными точками, 3) от второй брошенной точки до точки С можно составить треугольник? 17. В сфере радиуса R случайно и независимо друг от друга разбросано N точек. а) Чему равна вероятность того, что расстояние от центра до ближайшей точки будет не менее г? б) К чему стремится вероятность, найденная в вопросе а), если R -> оо N 4 ло и - -> -.А? Примечание. Задача заимствована из звездной астрономии: в окрестности Солнца А « 0,0063, если R измерено в парсеках. 18. События А\, Аъ ..., Ап независимы; Р(Ак) = рк. Найти вероятность а) появления хотя бы одного из этих событий, б) непоявления всех этих событий, в) появления точно одного (безразлично какого) события. 19. Доказать, что если события А и В несовместимы, P(j4) > 0 и Р(В) > 0, то события А и В зависимы. 20. Пусть Ль Л2,..., Ап — случайные события. Доказать формулу п п р{1>} = Х><4>- £ р(4А) + + J2 P(AiAjAk)-... + (-l)n-,P(AtAi...A„). Посредством этой формулы решить задачи 10 и П. 21. Вероятность того, что молекула, испытавшая в момент t = 0 столкновение с другой молекулой и не имевшая других столкновений до момента t, испытывает столкновение в промежуток времени между t и t -f- Д£, равна XAt -f- o(At). Найти вероятность того, что время свободного пробега (т. е. время между двумя соседними столкновениями) будет больше t. 22. Считая, что при размножении бактерий делением (на две бактерии) вероятность бактерии разделиться за промежуток времени At равна aAt -f- o(At) и не зависит от числа предшествующих делений, а также от числа имеющихся бактерий, найти вероятность того, что если в момент 0 была 1 бактерия, то в момент t окажется г бактерий.
Глава 2 Последовательность независимых испытаний § 9. Вводные замечания Проведение различного рода испытаний и экспериментов является непременным условием развития науки и прогресса прикладных областей деятельности. Прежде чем внести в регистр новый сорт пшеницы, необходимо произвести многочисленные испытания, которые должны дать убедительные данные о тех или иных преимуществах нового сорта по сравнению с прежними: повышенная урожайность, устойчивость к погодным условиям, более короткие сроки вегетации, устойчивость к заболеваниям и пр. Перед тем как ввести в массовое производство новый тип телевизора (вычислительной машины, станка, самолета и т.д.) производятся представительные испытания на его безотказность в работе, простоту наладки, приспособленность к ремонту, долговечность. Новые методы преподавания и измененное содержание обучения также требуют длительных и представительных наблюдений и экспериментов, которые могли бы продемонстрировать их преимущества. То же самое можно сказать и о проблемах медицины, экономики, организации производства, социальных исследований. Все новое, прежде чем стать достоянием практики, должно быть предварительно тщательно проверено и подтверждено испытаниями, экспериментами и наблюдениями. Приходится сталкиваться и с другой ситуацией, когда производятся систематические наблюдения за явлениями, происходящими независимо от исследователя. Так, для примера, метеорологи производят наблюдения за числом облачных дней, температурой воздуха в определенные часы суток, его влажностью и пр. Точно так же организатор производства наблюдает за производительностью труда при различных формах его организации. В научной и практической деятельности постоянно приходится проводить многократно повторяющиеся испытания в сходных условиях. Как правило, при этом результаты предшествующих испытаний никак не сказываются на последующих. Очень важен простейший тип таких испытаний, когда в каждом из испытаний некоторое событие А может появиться с одной и той же вероятностью р, и эта вероятность остается одной и той же, независимо от результатов предшествующих или последующих испытаний. Этот тип испытаний был впервые исследован знаменитым швейцарским ученым Якобом Бернулли (1654-1705)
72 Глава 2. Последовательность независимых испытаний в произведении «Ars conjectandi» (Искусство предположений), изданном после смерти автора в 1713 г., и потому получил наименование схемы Бернулли. Подробное исследование таких последовательностей испытаний заслуживает внимания как в силу исключительного их значения в теории вероятностей и в приложениях, так и в силу выявившейся в процессе развития теории вероятностей возможности обобщения тех закономерностей, которые впервые были открыты при изучении схемы последовательных независимых испытаний. Многие факты, подмеченные на схеме Бернулли, впоследствии служили путеводной нитью при изучении более сложных схем. Сделанное замечание относится как к прошлому, так и к современному развитию теории вероятностей. Мы убедимся в этом на примерах закона больших чисел и теоремы Муавра—Лапласа. Рассмотрим теперь следующий вопрос: что следует понимать в схеме Бернулли под элементарным событием? Очевидно, что это последовательность наступлений и ненаступлений интересующего нас события А в последовательных испытаниях. Сопоставим наступлению события А единицу, а ненаступлению — нуль. Тогда элементарным событием для п испытаний будет последовательность из п нулей и единиц. Например, если п = 3, то все возможные элементарные события записываются следующими тройками названных нами символов: (0,0,0), (0,0,1), (0,1,0), (1,0,0), (0,1,1), (1,1,0), (1,0,1), (1,1,1). Смысл каждой из написанных троек чисел 0 и 1 ясен. Первая из перечисленных троек означает, что во всех трех испытаниях событие А не наступило. Вторая тройка означает, что в первых двух испытаниях событие А не наступило, а в третьем — произошло. Легко понять, что множество всех элементарных событий при п испытаниях состоит из 2П элементов. Теперь мы должны ввести вероятностную меру на множестве элементарных событий. Это делается однозначно. Действительно, вероятность наступления события А в испытании с номером к равна р, а его ненаступления — q = 1 - р. Наступление или ненаступление события А в испытаниях с различными номерами для схемы Бернулли независимы. Значит, в силу теоремы умножения вероятностей, вероятность того, что событие А наступит в га определенных испытаниях (например, в испытаниях с номерами s\,S2,...9 sm), а при остальных п - га не наступит, равна pmqn~m. Эта вероятность не зависит от того, как расположены номера 5], «2,... ,5Ш. Простейшая задача, относящаяся к схеме Бернулли, состоит в определении вероятности Рп(га) того, что в п испытаниях событие А произойдет га раз (0 ^ га ^ п). Мы только что нашли, что вероятность того, что событие А наступит в испытаниях с определенными га номерами, а в остальных не наступит, равна pmqn~m. По теореме сложения искомая вероятность равна сумме только что вычисленных вероятностей для всех различных способов размещения га появлений события А и п - га непоявлений среди п испытаний. Число таких способов известно из теории сочетаний, оно ™ п- равно С% = -— и, следовательно, га!(п - га)!
§ 9. Вводные замечания 73 Рп(т) = Ср"\Гт (m = 0,l,2,...,n). (1) Полученная формула носит наименование формулы Бернулли. Легко заметить, что вероятность Рп(т) равна коэффициенту при хт в разложении бинома (q+px)n по степеням х. В силу этого свойства совокупность вероятностей Рп{гп) называют биномиальным законом распределения вероятностей. Лишь немного изменив проведенные рассуждения, легко обобщить полученный результат. А именно, если в каждом испытании может произойти одно и только одно из к событий А\9 А2,..., А^, испытания независимы и в каждом из них событие Аъ происходит с вероятностью pk, то вероятность того, что в п независимых испытаниях появятся гп\ событий Л|, m2 событий А2, ..., га* событий А^, равна Pn(mum2,...,mk) = f m ,P?P? -РТ- 0') гп\\гп2\... га*! Легко также убедиться в том, что эта вероятность является коэффициентом при х™*х™2 ...ж™* в разложении полинома (р\Х\ + р2х2 + ... + р*ж*)п по степеням х\, х2,..., ж*. Естественно, что вероятности (1;) называются полиномиальным распределением. Полиномиальные распределения находят применения в естествознании, экономических задачах, инженерном деле. Так как все возможные несовместимые между собой исходы испытаний состоят в появлении события А 0 раз, 1 раз, 2 раза, ..., п раз, то ясно, что п 5>„(го)=1. Это соотношение может быть выведено и без учета теоретико-вероятностных соображений, поскольку по формуле бинома Ньютона п 5>n(m) = (p + <?)" = ln=:l. m=0 Имея в виду постановку общих задач, относящихся к схеме независимых испытаний, рассмотрим теперь числовые примеры. Встречающиеся в них расчеты мы не станем доводить до окончательного числового результата, поскольку эти подсчеты лучше оставить до того момента, когда будут подготовлены удобные и достаточно точные методы для их осуществления. Пример 1. Вероятность изделию некоторого производства оказаться бракованным равна 0,005. Чему равна вероятность того, что из 10 000 наудачу взятых изделий бракованных изделий окажется а) равно 40, б) не более 70? В нашем примере п = 10 000, р = 0,005, поэтому по формуле (1) находим: а) Рюооо(40) = С/0°000 • 0,9959960 • 0,00540.
74 Глава 2. Последовательность независимых испытаний Вероятность того, что число бракованных изделий окажется не большим 70, равна сумме вероятностей числу бракованных изделий оказаться равным 0, 1, 2,..., 70. Таким образом, 70 70 б) Р{р <С 70} = £ Pn(m) = £ CfSooo • 0,995,000°-"1 • 0,005я1. ш=0 ш=0 Пример 2. Имеются два сосуда А и Б, каждый объемом в 1 дм3. В каждом из них содержится по 2,7 • 1022 молекул газа. Эти сосуды приведены в соприкосновение так, что между ними происходит свободный обмен молекулами, но нет общения с внешней средой. Чему равна вероятность того, что по истечении некоторого времени в одном из сосудов число молекул будет отличаться от числа молекул в другом по меньшей мере на одну десятимиллиардную часть? Для каждой молекулы вероятность оказаться в определенном сосуде равна половине. Таким образом, как бы производится 5,4 • 1022 испытаний, для каждого из которых вероятность попасть в сосуд А равна 0,5. Пусть /х — число молекул, попавших в сосуд А, и, следовательно 5,4 • 1022 - /х есть число молекул, попавших в сосуд В. Нам нужно определить вероятность того, что |/,-(5,4.10и-/,)|^М^ = 5,4.10'2. Иначе говоря, нужно найти вероятность Р = Р{|//-2,7-1022|^2,7-1012}. Согласно теореме сложения, Р = 5^Рп(га), где сумма распространена на те значения га, для которых |га - 2,7 • 1022| ^ 2,7 • 1012. Рассмотренные примеры показывают, что при решении реальных задач постоянно возникают задачи, требующие приближенного вычис- t ления сумм ^2 Рп(га) для заданных s и t при достаточно больших п. Точно так же необходимы приближенные формулы для вычисления вероятностей Рп(тп) при больших значениях тип или же при малых га, но больших п. Эти задачи будут решены нами в ближайших параграфах. Сейчас же мы обратимся к установлению некоторых элементарных фактов, относящихся к изучению поведения Рп(га) как функции га. Для 0 ^ га < п, как легко подсчитать, Рп(га+ 1) _ п - га р Р„(га) ~ га + 1 q ' Отсюда следует, что Рп(га+1)>Рп(га), если (п - т)р > (га 4- 1)д, т. е. если га <пр- q\ Pn(ra+l) = Pn(ra),
§ 10. Локальная предельная теорема 75 если га = np - q и, наконец, Рп(га+1)<Рп(га) если m> np- q. Мы видим, что вероятность Pn(m) с увеличением га сначала возрастает, затем достигает максимума и при дальнейшем росте га убывает. При этом, если np-q является целым числом, то максимальное значение вероятность Рп(га) принимает для двух значений га, именно для га0 = np - q и тп'0 = пр - q + 1 = np + р. Если же np - g не является целым числом, то максимального значения вероятность Pn(rn) достигает при га = га0, равном наименьшему целому числу, большему га0. Число га0 называют вероятнейшим значением /х. Мы видели, что если np-q есть целое число, то /х имеет два вероятнейших значения: га0 и га'0 = гао + 1. Отметим, что если пр - q < 0, то Рп(0)>Р„(1)>...>Р„(п), а если пр - q = 0, то Pn(0) = Pn(l)>Pn(2)>...>Pn(n). В дальнейшем мы увидим, что при больших значениях п все вероятности Рп(га) становятся близкими к нулю, но только для га, близких к вероятнейшему значению га0, вероятности Рп(га) сколько-нибудь заметно отличаются от нуля. Этот факт впоследствии будет доказан нами, а сейчас проиллюстрируем сказанное числовым примером. Пример 3. Пусть п = 50, р = 1/3. Вероятнейших значений два: га0 = np - g = 16 и га0+1 = 17. Значения вероятностей Рп(га) с точностью до четвертого десятичного знака представлены в табл. 7. Таблица 7 га <5 5 6 7 8 9 10 Рп(т) 0,0000 0,0001 0,0004 0,0012 0,0033 0,0077 0,0157 т ^~ 12 13 14 15 16 17 Рп(т) 0,0287 0,0470 0,0679 0,0879 0,1077 0,1178 0,1178 m ^~" 19 20 21 22 23 24 Рп(т) 0,1080 0,0910 0,0704 0,0503 0,0332 0,0202 0,0113 т 25 26 27 28 29 30 >30 Рп(т) 0,0059 0,0028 0,0012 0,0005 0,0002 0,0001 0,0000 §10. Локальная предельная теорема При рассмотрении числовых примеров предыдущего параграфа было замечено, что при больших значениях п и га вычисление вероятностей Рп(га) превращается в технически сложную задачу. Это обстоятельство было отмечено в ряде работ математиков начала XVIH века, посвященных демографическим проблемам. Возникла необходимость
76 Глава 2. Последовательность независимых испытаний ь в асимптотичеких формулах как для Рп(га), так и для YI Рп(™)> Эта m—a задача была исчерпывающе решена Абрахамом де Муавром (1667-1754), французским математиком, жившим в Англии. Позднее неоднократно две замечательные его теоремы, к формулировке и доказательству которых мы и перейдем, находили применения и широкие обобщения. Первая из них получила наименование локальной предельной теоремы. Локальная теорема Муавра1). Если вероятность наступления некоторого события в п независимых испытаниях постоянна и равна р (О < р < 1), то вероятность Рп(гп) того, что в этих испытаниях событие А наступит ровно т раз, удовлетворяет при п -> оо соотношению VnpqPn(m): -^ exp j--жЧ-> 1 (1) 1_ равномерно для всех га, для которых т-пр х = хтп = —— (2) y/npq находится в каком-либо конечном интервале. Доказательство. Приводимое нами доказательство опирается на известную из курса математического анализа формулу Стирлинга s\ = V2nsss exp {-s} exp {0S} , в которой остаточный показатель 9S удовлетворяет неравенству "•"<тЬ (2'> Заметим, что равенство (2) может быть записано в виде га = пр + Xy/npq. Отсюда следует, что п — га = nq — Xy/npq. Последние равенства показывают, что если х остается в каком-либо ограниченном отрезке, то числа га и п - га возрастают до бесконечности вместе с п. После этого замечания мы можем использовать формулу Стирлинга. Ее применение дает нам pn(m) = —тт-—-ттР q ra!(n — га)! я» / _ \ п-гп 1 л/2тг у т(п - га) \га / \n-ra/ 1' Эту теорему сейчас принято называть локальной теоремой Муавра—Лапласа, но восстанавливая историческую справедливость, назовем ее теоремой Муавра (см. с. 402).
§ 10. Локальная предельная теорема 11 где 0 — 9п - #т ~" вп-т < 7^ ( 1 1 ) • 12\n m n-mj Отсюда мы видим, что, каков бы ни был отрезок а^ж^Ь, величина в равномерно относительно х в этом отрезке стремится к нулю при п -»• оо. Следовательно, множитель ехр {-0} при том же условии равномерно стремится к единице. Рассмотрим теперь величину = -{пр + ж^/йрв) In П + жД ) - (ng - sv'Sp?) In M - жД J. В условиях теоремы величины А — и А — при достаточно боль- у пр у nq ших п могут быть сделаны как угодно малыми, потому можно воспользоваться разложением логарифма в степенной ряд. Ограничившись двумя первыми членами, находим b(i+xJ±)=xJ±**i+o(4fi). \ V пр / V пр 2 пр \п3'2/ 1пЛ /Z) = _xjr_4*+0r V V М / У nq 2 nq \ 1 П3/2,Г Ж2 / 1 \ Несложные подсчеты показывают, что \т\Ап = - — + 0{ —7= 1 и рав- 2 Vv^/ номерно относительно п в любом конечном отрезке х An: exp|-yl->l (п->оо). / ^ Далее, Jnpq • ч / —; -> 1 равномерно в каждом конечном v у m(n- га) отрезке х. Приведенные подсчеты доказывают теорему. По существу теми же подсчетами можно доказать аналогичную локальную теорему и для полиномиального распределения. Локальная теорема. Если вероятности р\,Р2,... ,Р* появления соответственно событий А\ , ^2 ,..., А£ в s-m испытании не зависят от номера испытания и отличны от 0 и от 1 (0 < р, < 1, i = 1,2, ...,&), то вероятность Pn(m\,rri2,... , га*) того, «//wo я/ш п независимых испытаниях события A) (г = 1, 2,..., &), появятся
78 Глава 2. Последовательность независимых испытаний rrti раз (ш\ + га2 + ... 4- тк = п), удовлетворяет соотношению ехр {~2?* Ч \Лг^Рп(га,,га2,...,т*): , ' ' ч! (п -» оо) равномерно для всех Ш{, (i = 1, 2,..., к), для которых ж, = * y/nPiQi находятся в произвольных конечных интервалах а, ^ж, ^ &i, я (ft = I -Pi • л л Из равенства 5Z га* = п вытекает соотношение 5Z x%y/nVi4% — 0> i=i *=1 которое позволяет одно из ж, выразить через остальные. Заметим вдо- k бавок, что YlPi = 1- При к = 2 из этой теоремы, как частный случай, 1=1 получается теорема Муавра. Пример 1. В примере 1 предыдущего параграфа нам нужно было определить Рп(т) при п = 10 000, га = 40, р = 0,005. По только что доказанной теореме имеем: Рп(т) > ехр <-- (ш~~^\ I у/ШЙ У\ 2 V y/npq J J Для нашего примера га- пр y/npq = у/\Ъ 000 -0,005 -0,995 = х/49,75 « 7,05, ——£- « -1,42. v/npg Следовательно, rw ч * Г '.«М Функция ^ж)=тЬехрН} табулирована; краткая таблица значений этой функции приведена в конце книги. По этой таблице находим, что Рп(т) ~ ^р = 0,00206. Точные подсчеты без использования теоремы Муавра дают нам Р„(т)~ 0,00197. Для иллюстрации характера приближений, даваемых теоремой Муавра, а так же для геометрического пояснения проделанных при ее доказательстве аналитических преобразований, мы рассмотрим численный пример.
§ 10. Локальная предельная теорема 79 х = Пусть вероятность р равна 0,2. В табл. 8-11 собраны значения га, 771 — Пр , вероятностей Рп(га), величин y/npqPn(m), а также функции ехр И} с точностью до четвертого десятичного знака соответственно для числа испытаний п = 4, 25, 100, 400. На рис. 10 a ординаты изображают значения вероятностей Рп(га) при различных целочисленных значениях абсциссы га. По рисунку видно, что с увеличением п величины Рп(га) равномерно убывают. Для того, чтобы на рисунке точки [га, Pn(m)\ уже для рассматриваемых значений п не слились с осью абсцисс, мы выберем резко различные масштабы по осям координат. Рассмотрение вместо абсцисс га и ординат Pn(m) абсцисс хп = 771 — Пр = ——ZT- и ординат уп(тп) = y/npqPn(m) означает 1) перенос начала координат в точку (пр, 0), находящуюся вблизи от максимальной ординаты Рп(га), 2) увеличение единицы масштаба по оси абсцисс в y/npq раз (иными словами, сжатие графика по оси абсцисс в y/npq раз), 3) уменьшение единицы масштаба в y/npq раз (иными словами, растяжение графика по оси ординат в y/npq раз). На рис. \0б,в,г изображены кривая у = (р(х) и преобразованные только что описанным способом точки [га, Рп(тп,)], т. е. точки [хп, уп(ш)\. Мы видим, что уже при п = 25 точки [хп, уп(тп)] сливаются на графике п = 4 Таблица 8 га Рп(т) X y/npqPn(m) Ф) 0 0,4096 -1,00 0,3277 0,2420 1 0,4096 0,2500 0,3277 0,3867 2 0,1536 1,5000 0,1229 0,1295 3 0,0256 2,7500 0,0205 0,0091 4 0,0016 4,0000 0,0013 0,0001 п = 25 Таблица 9 га 0 1 2 3 4 5 6 7 X -2,5 -2,0 -1,5 -1,0 -0,5 0,0 0,5 1,0 Рп(т) 0,0037 0,0236 0,0708 0,1358 0,1867 0,1960 0,1633 0,1108 y/npqPn(m) 0,0075 0,0472 0,1417 0,2715 0,3734 0,3920 0,3267 0,2217 Ф) 0,0175 0,0540 0,1295 0,2420 0,3521 0,3989 0,3521 0,2420 га 1 8 9 10 11 12 13 14 >14 X 1,5 2,0 2,5 3,0 3,5 4,0 4,5 >4,5 Рп(т) 0,0623 0,0294 0,0118 0,0040 0,0012 0,0003 0,0000 0,0000 y/npqPn(m) 0,1247 0,0589 0,0236 0,0080 0,0023 0,0006 0,0000 0,0000 Ф) 0,1295 0,0540 0,0175 0,0044 0,0009 0,0001 0,0000 0,0000
оо о 1 о о О О о о -U ЧО оо о и> V© оо <-* о U) V© 00 \о -J чо 1 о го 4/1 о о -U V© ^1 о U) v© •о. Ui о и> V© ^/1 •о. 104 и> о 8 о о о о оо о о о 4/1 -U о о о -U 4^ ^1 оо 1 о К) 4/1 о о о -U оо "-4 о и> V© V© о и> оо ON •о. 103 го оо -J <-Л о о о о V© о о о -J ^/1 о о о £ "-4 •о. 1 о U) -J ^/1 о о -U •>4 о и> "-J ON On о U) "*>! \о 102 го -J ел о о о о и> о о о <-л о о о v© *~* "-4 ON 1 о ^/1 о о о 1? -U -J 4/1 1 о ON го 4/1 о о 4^ ^j ч© о U» 4/1 оо о о и> ел го -~ 101 го ON го ЧУ1 о о о оо о о -U го о о го ^1 о и> U) -J о и> го оо го 100 ю Ч/1 о о о о о го -U о о V© го о о "-J 4/1 ^1 4^ 1 о "-4 чЛ о о о U) оо и% о U) о оо о Ui о *-* V© v© го U) "-4 ел о о о и> го о о го чл чл о о го U» оо "-4 Ui 1 о оо ^1 чл о о и> 4^ V© о го -J оо V© о го -J го *— V© оо ю го ел о о о о -U ю о о и> U> ел о о и> •>4 "-4 ю 1 о о о о о и> о о го -U оо U) о го 4^ го о V© ^1 го го чл о 8 чл 4^ о о -U Ui Ui о о 4^ •о. "-4 ~* 1 го чл о о го "-4 о ю "-J чл о го \о V© ON го о о о о о о On V© о о чл чл Ui о о чл 4^ о "-4 о 1 го чл о о о го и> 4^ о to— оо *0. о ■—* оо го •>4 v© чл оо -J чл о о о оо -о. о о On V© ON о о ON оо 4> ON V© 1 u> "-4 чл о о V© оо о to» чл оо u> о •—* чл ел о « "-J чл о о о о оо о о оо ON чл о о оо ON го ON оо J_ чл о о о о 2 о to» u> On о to» го v© ч/l v© u> ON ro ЧЛ о о Ui ro о to» о ЧЛ v© о о ON чЛ on ^i ^ ON Ю ЧЛ о о u> 4^ о to» о "-J чл о to» о ON чЛ v© ro ЧЛ о о о о On о о №» ю "-4 V© о го V© ел ON ON 1 ^1 IS* о о о о оо о о оо ON го о о оо а\ го V© *"* Ui -о. ty» о о V© о о to» V* го U» о ty» ty» о ON ty» J^ оо ^1 IS* о о о оо V© о о ON -о. V© о о ON оо -U V© о го ty» о о о ю го и> о to» -J оо оо о оо го ON ON -U 1 ro о о о о о о Os ON о о <-л го ty» о о ty» -U о оо V© го СГ» о о ю ^у» V© о го о *о. о о го V© ON u> 1 ro ro ty» о о о IS* о о о U) V© V© о о -U ^1 оо оо 8 о о о го V© ty» о го и> ON го о го -U го о ON го 1 го го ел о о о о и> -J о о го V© оо о о и> "-4 оо -J о оо ^1 ^у» о о и> и> го о го ON ty» ON о ro "-4 ro *— ON 1 ro u> ->l IS* о о о ro "-4 о о ro оо о о го и> оо оо ON о ^1 ty» о о о Ui ON оо о го % -£» о Ui о —* ON о 1 го ty» о о о о о V© о о ty» ON о о "-4 ty» оо ty» о ON го ty» о о 4^ о го о U» го ^у» о U» го оо го ел V© 1 го ON го ty» о о о -U о о о 4^ о о го >о. оо -U о LH 8 о о 4^ и> го о Ui 4^ ^ V© о и> ^у» го *-* ^у» оо 1 ->| ^у» о о о о о sO о о о -J ON о о о V© оо и> о и> -J чЛ о о 4^ ^ оо о и> ON ON ON о u> "-4 v© чЛ ->J 1 ro оо "-4 чЛ о о чЛ ON 1 о о о О О 1 О ON о о о чЛ о о о £ оо го о го и% о о о о 4^ о о о OJ 4^ о о 2 ■U | оо ~~* о го чЛ о о -U -U | ^4 оо о Ui оо го оо о и> оо ON "-4 V© го о и> V© ел ON о U) V© чЛ "-4 3 ы ^ '3' i| •^1 а^ (т) ^ А Гз" н ^з 3 \% <5| а^ (т) *^ н OV©00--J0N^4^U)rOto- о4000 1 1 1 1 1 1 1 1 1 1 1 1 1 1 о о о о -- -- -- j— ro ro jo jo u> о 1о Ъ» Vj о "го Ъ» Vj b w 1л Vi b ОчлОС^ОчлОчлОчлОчлО р р р р р р р р р р р р р 1 о о о о о Ъ> о о о о "о о о v©v©4©^JONJ>U>rOto— ОООО voooooou»oow-wo\w-o Uito- \©0000to-CAON-«>IV©4ik4^ON р р р р р р р р р о р р р *w ы w ы ы - '- Ь о о о о о 4©v©ON~ чЛЧ©и>ООчЛГО — ОО vJtOU»^^K)Ji.ON — vlW^tO rOU»ON4>U>U>^-U»0^y»4^v©U» а> а> а> g а> а> а> о р р pop ^» -u» Lo ~u> То "to— "to— о О О О О О Ч©00ч/»О4Ь00ГО00ч/»и>-— ОО ОООлГО — ГОГО\©0\4^—*^\©4^ u>u>u>rororororororororo ГО-- OvOOOvJON^-UOJNJ- y» jo jo jo jo j— -- -- ^ p p p О "-^ 1л "ro o "^ "ел "ro >* "^ "ел "ro ОчлОСлОчлОчл'—'члосл о о о p p о о p о p p p о "о "о "о "о "о "о "о "о "о "о "о OOOO-WU*.UnI00\O to— rOl/lOO-£b~ —-U>^jrOJ>J> OWOIOOO- sJO\VOsIO\OON p p p p p p p p p p p p "о "о о "о о "о "— "►— "ro "ro u* Lj UsJ00to-^s)O\m\OVOOSW 1 p p p p p p p p p p p p о о о b b b - "и. ij w w Ij OOto— и>чЛООГ0004>ОчЛОО 4>Ч©<*4--J>ON\©rOrOto— rOON ^toLftvlOWLftONO-h-Nj 3 ] H n ^ Гз] H 3, ^ s
§10. Локальная предельная теорема 81 w 0,40 0,30 0,20 0,10 ol \ - 71 = 4 - г 4*71 = 25 - * #х • #«п = 10СГ% \ X %* ***• Г ~ 10 20 30 п = 400 ■ » 65 75 85 95 m 3 п = 4 -2 <р(х)> ЪА. */о,з / 0,2 0,1 -1 0 4(m) к\ 1 б с^^л_ 2 f(x)\yn(m) од] п = 25 xn(m) п = 100 +*лЛ*-**\ 3 -2 ¥>(*)' ОД /0,3 Л 0,2 0,1 1 -1 0 Wm) • i г i****i 2 —► Рис.10
82 Глава 2. Последовательность независимых испытаний с соответствующими точками кривой у — <р(х). Это совпадение становится еще лучше при больших чем 25 значениях п. Чтобы получить наглядное представление о том, в какой мере можно пользоваться асимптотической формулой Муавра при конечных п2\ т.е. заменять биномиальный закон при вычислении вероятностей Pn(m) функцией у = <р(х)9 приведем пример. Для простоты рассмотрим случай р = q = 1/2 и возьмем лишь те п, для которых возможно значение хптп — 1; такими могут быть, например, п — 25, 100, 400, 1 156. Именно для них xnm — 1 при m = 15, 55, 210, 595. Положим для краткости Рп(га) = Рп и ^ ехр при p = q= 1/2 и xnm = 1. y/2nnpq ■{-¥}-«■ Таблица 12 п 25 100 400 1156 Рп 0,09742 0,04847 0,024207 0,014236 Qn 0,09679 0,04839 0,024194 0,014234 Pn-Qn 0,00063 0,00008 0,000013 0,000002 PnlQn 1,0065 1,0030 1,0004 1,0001 Согласно локальной теореме Муавра—Лапласа, отношение Pn/Qn должно стремиться к единице, когда п -»• оо. Результаты вычислений при названных выше значениях п приведены в табл. 12. §11. Интегральная предельная теорема Только что выведенную локальную предельную теорему мы используем для вывода другого предельного соотношения теории вероятностей — интегральной предельной теоремы. Изложение начнем с простейшего частного случая этой теоремы — интегральной теоремы Муавра—Лапласа. Интегральная теорема Муавра—Лапласа. Если \х есть число наступлений событий в п независимых испытаниях, в каждом из которых вероятность этого события равна р, причем 0 < р < 1, то равномерно относительно а и Ь (—оо ^ а < Ь ^ +оо) при п —> оо имеет место соотношение ь р\а^^^г <ь\ -» -7= / ехр \~\ dz. \ VWQ ) у/2^ J I 2 J ' Очень точные оценки остаточного члена даны в работе С. Н. Берштейна «Возврат к вопросу о точности предельной формулы Лапласа» (Собрание сочинений С. Н. Бернштейна. Т. IV. М.: Наука, 1964. С. 396-408).
§11. Интегральная предельная теорема 83 Доказательство. Введем для краткости письма обозначение Pn(a,b) = ?\a^^-^<b\. I у/пм J Эта вероятность, очевидно, равна сумме ^ZPn{ni), распространенной на те значения га, для которых a ^ xm < b, где по-прежнему обозначено га — пр y/npq Определим теперь функцию у — Пп(х) следующим образом: у = Пп(х) = { ДЛЯ X < Xq = ~ ДЛЯ X ^ Хп + пр и s/npq 1 1 +ng npg y/npq [y/npqPn(m) для жш^ж<жш+1 (га = 0,1,... ,n). Очевидно, что вероятность Рп(т) равна площади, ограниченной кривой у = Пп(ж), осью ОХ и ординатами в точках х = хт и ж = жш+1, т. е. Рп(т) = у/ЩРп(т)(хт+\ - хт) = J Un(x) dx. Хт Отсюда следует, что искомая вероятность Pn{a, Ь) равна площади, заключенной между кривой у = Пп(ж), осью ОХ и ординатами в точках Хт и Хт, где га и га определяются посредством неравенств a<xm^a + 1 frvpq b<xm<b + 1 y/npq Таким образом, ХШ О ХШ *т Pn(a9 b)= Un(x) dx = Un(x) dx + Yln(x) dx - Un(x) dx. Так как максимальное значение вероятности Рп(тп) приходится на значение га0 = [(п + 1)р], то максимальное значение Пп(х) приходится на интервал Л ^ га0 - пр ^ га0 4- 1 - пр 2 0< ——=7- ^х < —=— ^ y/npq y/npq y/npq В этом интервале действует локальная теорема Муавра, и мы можем поэтому заключить, что при всех достаточно больших значениях п max Un(x) < 2—= max exp V27T Н}-£
84 Глава 2. Последовательность независимых испытаний Отсюда мы прежде всего выводим, что 1Хщ Хт | Хщ Хт / nn(x)dx- / Un(x)dx ^ / maxY\n(x)dx+ / maxUn(x)dx< <J-(-b + xm+Xrn-a)^2^ nnpq и что, следовательно, lim pn = 0. n-юо Таким образом, Рп(о>, b) только на величину бесконечно малую отличается ъ от f Пп(х) dx. a Мы предположим сначала, что а и b — конечные числа. При этом предположении согласно локальной теореме при а ^ хт < b Пп(хт) = -= ехр {-^}[1 + <*п(хт)1 где an(xm) -> 0 при п -> оо равномерно относительно хт. Очевидно, что и при промежуточных значениях аргумента П„(ж) = -^=ехр< -у И1+а„(ж)], причем lim max an(x) = 0. Действительно, при любом т в интервале n-юо a^.x<b хт^х < жш+|, имеем: Пп(х) = Пп(хт) = -= ехр I -у |[1 + ап(ж)], где an(x) = ехр |^^|[ап(Жш) + 1] - 1. Так как х2 - aj ^ ,„, , , „ тах(|о|,|Ь|) 2 y/nPQ ТО ЯСНО, ЧТО lim max an(x) = 0. Собрав вместе найденные оценки, получаем, что Pn(a, b) = -= / ехр I -у | dx + Д„,
§11. Интегральная предельная теорема 85 где Так как ь Rn = -= / ехр | - — >an(x) dx + р„. a \Rn\ ^ max \an(x)\ • -= / exp \ - — \ dx + pn, a^x<b V27T J I 2 J то из сказанного ясно, что lim Rn = 0. n-юо В сделанном нами по ходу доказательства частном предположении теорема доказана. Нам остается освободиться от этого ограничения. С этой целью прежде всего заметим, что vb/expHb=i- Поэтому для любого € > 0 можно выбрать столь большое А, что -А тЬ/ехрН}^=^/ехрН}^<г -оо А Выберем далее, в соответствии с доказанным, столь большое п, что при -А ^ а <Ь < А будет: p"(a'b)-^Iexp{-i}dz\<£4- a ' Тогда очевидно, что Рп(-А, А)>\- е/2, Р(-оо, -А) + Р(Л, +оо) = 1 - Р(-А, А) < е/2. Теперь докажем, что при любых а и Ь (-оо ^ a < Ь ^ +оо) будет: \Pn{a'b)~7^f*xp{~l}dz\<e' a чем, очевидно, и закончится доказательство теоремы Муавра—Лапласа. Для этого надо разобрать отдельно различные случаи расположения на прямой точек а и Ь относительно интервала (-А,А). Разберем, например, случай a ^ -A, b^ А (остальные представим читателю).
86 Глава 2. Последовательность независимых испытаний В этом случае ь = /ехр{4}^=^(/-ь/-ь/ехр{4}^). a -A A Pn(a, Ъ) = Pn(a, -А) + Рп(-А, А) + РП(А9 Ь). Поэтому + Рп(о'ь)-^/ехр{"т}^Н1Рп(а'"А)"^/ехр{-т}^|+ а ' а А Ь ^Р„(-оо,-А)+ у/2ж /«р{-т} dz+ Р„(-,М)- л/2тг /«р{-т} <fc +P„(j4,+oo) + V^F 00 /ехр{4} е е е е dZ<2 + 4 + 8 + r£- Мы перейдем теперь к формулировке интефальной предельной теоремы в общем случае схемы последовательности независимых испытаний. Пусть по-прежнему /г,- (г = 1, 2,..., к) означает число появлений событий А* (з=1,2,...,п)вп последовательных испытаниях. В зависимости от случая /х, могут принимать лишь значения 0, 1, 2,..., п, причем так как в каждом испытании возможны к исходов и эти исходы несовместимы, то должно иметь место равенство Мз(ОДЗ) /х, +/х2+ ...+/** = п. (I) М2(0Д0) М, (3,0,0) Рис.11 Станем теперь на величины \1\,\1г, ..., /Ак смотреть как на прямоугольные координаты точки в fc-мерном евклидовом пространстве. При этом результаты п испытаний изобразятся точкой с целочисленными координатами, не меньшими нуля и не большими п; будем
§11. Интегральная предельная теорема 87 в дальнейшем называть такие точки целочисленными. Равенство (1) показывает, что результаты испытаний изобразятся не произвольными целочисленными точками в гиперкубе 0 ^ //, ^ n (t = 1, 2,..., к), а лишь теми из них, которые находятся в гиперплоскости (1). На рис. 11 изображено положение возможных результатов испытаний в гиперплоскости (1) для случая п = 3, к = 3. Произведем преобразования координат по формулам *, = ^= (i=l,2,...,*; ft = 1-й). Уравнение гиперплоскости (1) в новых координатах перепишется в следующем виде: к ^xi%/nJHq~i = 0. (2) i=\ Точки гиперплоскости (2), в которые перешли целочисленные точки гиперплоскости (1), условимся также называть «целочисленными». Обозначим через Pn(G) вероятность того, что в результате п испытаний числа /х, (t = 1,2,..., к) появлений каждого из возможных исходов /х, - npi окажутся такими, что точка с координатами Х{ = попадет внутрь области G. Тогда имеет место следующая Теорема. Если в схеме последовательности независимых испытаний в каждом из испытаний возможны к исходов, причем вероятность каждого из исходов не зависит от номера испытания и отлична от О и от 1, то какова бы ни была область G гиперплоскости (2), для которой (к — 1) -мерный объем ее границы равен нулю, равномерно относительно G при п —> оо, имеет место соотношение РАС) N glg2---gfc I ехр J 2 ^qiX4 dv' где dv означает элемент объема области G и интеграл распространяется на область G. Доказательство и по идее и по осуществлению является почти полной копией рассуждений, проведенных при доказательстве интегральной теоремы Муавра—Лапласа. Замечание. Только что сформулированной теореме мы придали форму, в которой все переменные х\,Х2,...9хп играют одинаковую роль. В интегральной теореме Муавра—Лапласа мы, однако, предпочли проводить рассуждения, нарушив однородность переменных Х\ п Хг, только с переменными х = Х\. Геометрически это означало, что мы рассматриваем не сами результаты испытаний (целочисленные точки
88 Глава 2. Последовательность независимых испытаний на прямой х\ + х2 = 0), а их проекции на ось ОХ. Подобным же образом мы можем, нарушив однородность и в общем случае, рассмотреть интегрирование не по области G, а по ее проекции G1 на какую-либо координатную гиперплоскость, скажем на плоскость ж* = 0. Элемент объема dv' в гиперплоскости ж* = 0 связан с элементом объема dv гиперплоскости (2) соотношением dv = dv cos <p, где <р — угол между указанными гиперплоскостями. Легко подсчитать, что cos <р = —^ В координатной гиперплоскости элемент объема dv' = dx\dx2-..dXk-\, поэтому имеет место равенство G = \l^^ j еАЛ^А^--йХк^ Q, \ 1 J В подинтегральной функции мы должны произвести замену Хк на его выражение через Х\, #2, • • •, #*-i • 1 *"' В результате этой замены мы имеем: к-\ / ч 2 1=1 1=1 V FAf/ 1<1<7<Л-1 ™ PjQj Рк = Q(xl,X2,...,Xk-l). (3) Интегральная предельная теорема может быть, таким образом, сформулирована иначе, а именно: В условиях интегральной предельной теоремы при п -> оо P(G) -» у l^vifclf* ' / ехР { - 2^Жь Ж2'"" 'ж*"1) Г*1 '"' dXk~x (4) Понятно, что интегральная теорема Муавра—Лапласа является частным случаем только что доказанной теоремы: она легко может быть получена из формулы (4). Для этого достаточно заметить, что в схеме Бернулли к = 2, р = р\, q = P2= 1 -р.
§ 12. Применения интегральной теоремы Муавра—Лапласа 89 При к = 3 формула (4) принимает следующий вид: p{g) ~* V(lfe/exp Hg(*"x2)}dxidx2> где Рз = 1 ~Р\ -Ръ Х\Х2 = Рз Q(xi,x2) = 9l Л + ^Ля? + q2 (l + g) а£ + 2^ V V 0102 / = М2 Рз Простой подсчет показывает, что РЗ = 1 -Pi -ft = 2102 -PlP2, поэтому 1 _ tZl£± \ V ^1^2 / §12. Применения интегральной теоремы Муавра—Лапласа В качестве первого приложения интегральной теоремы Муавра—Лапласа мы оценим вероятность неравенства 5-' <е, где € > О — постоянное. Имеем р{|^.р|<Л = р{_е/^<^<£/^} 11 л | J I V Р0 \/^М V PQ ) в силу интегральной теоремы Муавра—Лапласа lim р\ \--Р \<Л = "7= / ехР^ -^r\dz=: L Итак, каково бы ни было постоянное е > О, вероятность неравенства < £ стремится к единице. Обнаруженный нами факт впервые найден Я. Бернулли; он носит название закона больших чисел или теоремы Бернулли. Теорема Бернулли и ее многочисленные обобщения являются одними из важнейших теорем теории вероятностей. Через них именно теория соприкасается с практикой, именно в них заложен фундамент успехов применения теории
90 Глава 2. Последовательность независимых испытаний вероятностей к различным проблемам естествознания и техники. Об этом будет подробнее сказано в главе, посвященной закону больших чисел; там же мы дадим доказательство теоремы Бернулли более простым методом, отличным как от только что изложенного, так и от употребленного Я. Бернулли. Мы рассмотрим теперь типичные задачи, приводящие к теореме Муавра—Лапласа. Производится п независимых испытаний, при каждом из которых вероятность наступления события А равна р. I. Спрашивается, чему равна вероятность того, что частота наступления события А отклонится от вероятности р не более чем на а? Эта вероятность равна р( " " pU <*\ = p\-axf^ ^ ^==? ^ axf^ ) « {\п | J { У pq y/npq V Р9 ) ay/n/pq ay/n/pq 1 f / x2\w 2 f / х2\л ~ —^= / exp <-—> dx= —== I exp < --— > ax. -ay/n/pq ° II. Какое наименьшее число испытаний нужно произвести для того, чтобы с вероятностью, не меньшей /?, частота отклонялась от вероятности не больше чем на а. Нам нужно определить п из неравенства II" I J ZP. Вероятность, фигурирующую в левой части неравенства, мы заменяем приближенно по теореме Муавра—Лапласа интегралом. Для определения п в результате получается неравенство ay/n/pq 2 -j= J «pj-i.}*»/». III. При данной вероятности (3 и числе испытаний п требуется определить границу возможных изменении зная р и п, нужно найти а, для которого р\. Иными словами, п I Применение интегральной теоремы Муавра—Лапласа дает нам для определения а уравнение ay/n/pq % I -р{-у}^ = ^
§ 12. Применения интегральной теоремы Муавра—Лапласа 91 Численное решение всех рассмотренных нами задач требует умения вычислять значения интеграла Ф(х) = 1 \/2тг /ехр{4} dz (о при любых значениях х и решать обратную задачу — по величине интеграла Ф(х) вычислять соответствующее значение аргумента х. Для этих расчетов требуются специальные таблицы, так как интеграл (1) при О < х < оо в конечном виде через элементарные функции не выражается. Такие таблицы составлены и приводятся в конце настоящей книги. Рис. 12 дает наглядное представление о функции Ф(х). При помощи таблицы значений функции Ф(х) можно вычислять по формуле J(a, b) = = Ф(Ь) - Ф(а) также значение интеграла J(a,b) = 1 7^ /ехрН} 1 dz. »♦ "=2 _У >^у = Ф(х) 0 j х у=-2 Таблица функции Ф(х) составлена только для положительных х\ для отрицательных х функция Ф(х) определяется из равенства Ф(-х) = -Ф(х). Мы теперь в состоянии довести до конца Рис-12 решение примера 2 § 9. Пример 1. В примере 2 § 9 нам нужно было найти вероятность где сумма распространена на те значения т, для которых |т-2,7-1022|^2,7.1012, при условии, что общее число испытаний п = 5,4 • 1022 и р = 1/2. Так как = р№ -пр\ > 2,7- 1012 /npg v/5,4- tO22 -1/4 в силу теоремы Муавра—Лапласа м b - "Pi y/npq ^ 2,33 - 10 }• _2_ 00 / ехрН} dx. 2,33-10 Так как Iexp{-j}dx<lIxexp{-Y}dx = lQxp{-l}'
92 Глава 2. Последовательность независимых испытаний то Р < -t=J ехр {-2,7 • 100} < 10",0°. %/2^105 Х ' О том, как мала эта вероятность, можно судить по следующему сравнению. Предположим, что шар радиуса 6 000 км наполнен белым песком, в который попала одна черная песчинка. Объем песчинки равен 1 мм3. Наудачу из всей этой массы песчинок берется одна; чему равна вероятность того, что она будет черного цвета? Легко посчитать, что объем шара радиуса 6 000 км немногим меньше 1030 мм3 и, следовательно, вероятность извлечь черную песчинку немногим больше Ю-30. Пример 2. В примере 1 § 9 нам нужно было найти вероятность того, что число бракованных изделий окажется не больше семидесяти, если вероятность для каждого изделия быть бракованным равна р = 0,005 и число изделий равно 10 000. По только что доказанной теореме эта вероятность равна Г 50 a - пр 20 1 2,84 -р{-7да<л»<М4}";7к/-{-тЬ- -7,09 = Ф(2,84) - Ф(-7,09) = Ф(2,84) + Ф(7,09) = 0,9975. Значения функции Ф(х) при х = 7,09 в таблицах нет, мы заменили его половиной, совершив при этом ошибку, меньшую 10"10. Естественно, что в примерах настоящего и предыдущего параграфов, равно как и в любых других задачах, относящихся к определению вероятностей Pn(m) при каких-либо конечных значениях га и п по асимптотическим формулам Муавра—Лапласа требуется оценка совершаемой при такой замене ошибки. В течение очень долгого времени теоремы Муавра—Лапласа применялись к решению подобного рода задач без сколько-нибудь удовлетворительной оценки остаточного члена. Создалась чисто эмпирическая уверенность, что при п порядка нескольких сотен или еще большем, а также при р, не слишком близких к 0 или 1, употребление теорем Муавра—Лапласа приводит к удовлетворительным результатам. В настоящее время существуют достаточно хорошие оценки погрешностей, совершаемых при пользовании асимптотической формулой Муавра—Лапласа3). Мы остановимся еще на обобщении теоремы Бернулли на случай общей схемы последовательности независимых испытаний. Пусть в каждом испытании возможны к исходов, вероятность каждого из них соответственно равна р\,р2,..., ри и fi\, //2, • • • > А** — числа появлений каждого См., например, цитированную на с. 82 работу С. Н. Бернштейна.
§ 13. Теорема Пуассона 93 исхода в последовательности п независимых испытаний. Определим вероятность одновременного осуществления неравенств \Р\ п -Pi <€\, V>2 Р2 п <е2,..., п <ек, (2) т. е. неравенств V Р\Ч\ V Р2^2 V Р*9* Последнее из этих неравенств, собственно, является следствием предыдущих, так как согласно (2) § 11 первые к - 1 из неравенств (2) дают оценку к-\ , , *-1 \хк\ = -Ё^^Ёа/1^- Ы V РкЯк I —^ V РкЯк (3) Согласно (4) § 11 вероятность первых к-1 неравенств (2) (а следовательно, также неравенства (3)) имеет своим пределом при п -»• оо интеграл §13. Теорема Пуассона Мы видели при доказательстве локальной теоремы Муавра, что асимптотическое представление вероятности Pn(m) посредством функ- \ ( х2\ ции —^=ехр<-—> действует тем хуже, чем больше вероятность р у/гИ отличается от половины, т. е. чем меньшие значения р или q приходится рассматривать, и это представление отказывается служить при р = О, q = 1, а также при р = 1, q = 0. Однако значительный круг задач связан с необходимостью вычисления вероятностей Рп(га) именно при малых значениях р4К Для того чтобы в этом случае теорема Муавра дала результат с незначительной ошибкой, необходимо, чтобы число п испытаний было очень велико. Возникает, таким образом, задача разыскания асимптотической формулы, специально приспособленной для случая малых р. Такая формула была найдена Пуассоном. Рассмотрим последовательность серий Е2\, Ец, Ец, Еы, Ем, Еп\» Д*2> Д»з» ..., Еп ' Или также при малых значениях qy но очевидно, что задачи разыскания асимптотических формул для Рп(тп) при малых значениях р или q сводятся одна к другой.
94 Глава 2. Последовательность независимых испытаний в которой события одной серии взаимно независимы между собой и имеют каждое вероятность р„, зависящую только от номера серии. Через /хп обозначается число фактически появившихся событий n-й серии. Теорема Пуассона. Если рп -» 0 при п -» оо, то P(fin =т)~ — exp {-an} -» О, га! (о где ап = прп. Доказательство. Очевидно, что ад=р{^т}=ОГ(.-РлГ^(^(.-^"т= тп\\ п) (l-^-Y (2) Пусть га фиксировано. Выберем произвольно е > 0. Тогда можно выбрать Б = Б(е) столь большим, чтобы при a ^ В было га! ехр {-И 4 Рассмотрим сначала те номера п, для которых ап ^ В. Для этих п, по неравенству 1 - х < ехр {-ж}, 0 ^ ж ^ 1: дя* Г п — га 1 £ ат ^(^К-^ехр^ а"Кл ПРИ п^2т> -^ехр{-ап}< га! ^ п ) 2 га! Поэтому для указанных п \Рп(гп) - -^ ехр {-ап} га! < ^ + ^ = £• 2 2 Рассмотрим теперь те номера п, для которых ап ^ В. Так как постоянном га lim < ( 1 ) - ехр{-ап} > = 0 при а„^5и при п-+оо t \ Я / J V лД пУ "Д п ) lim П-ЮО (-;) = 1, то в силу формулы (2) при п ^ щ(е) Рп(гп)- -^-ехр{-ап} га! <е, что и требовалось доказать.
§ 13. Теорема Пуассона 95 Заметим, что теорема Пуассона имеет место и в том случае, когда вероятность события В в каждом испытании равна нулю. В этом случае ап = 0. Обозначим ат Р(т)= — ехр{-а}. т\ Полученное распределение вероятностей носит название закона Пуассона. Легко посчитать, что величины Р(т) удовлетворяют равенству Y2P(m) — 1- Изучим поведение Р(т) как функции га. С этой целью т рассмотрим отношение Р(т) _ а Р{т- 1) ~ га' Мы видим, что если га > а, то Р(т) < Р(т - 1), если же га < а, то Р(т) > Р(т - 1), если, наконец, га = а, то Р(т) = Р(т - 1). Отсюда мы выводим, что величина Р(т) возрастает при увеличении га от О до то = [а], и при дальнейшем увеличении т убывает. Если а — целое число, то Р(т) имеет два максимальных значения: при т0 = а и при т'0 = а - 1. Приведем примеры. Пример 1. Вероятность попадания в цель при каждом выстреле равна 0,001. Найти вероятность попадания в цель двумя и более пулями, если число выстрелов равно 5 0005). Считая каждый выстрел за испытание и попадание в цель — за событие, мы можем для вычисления вероятности P(/xn ^ 2) воспользоваться теоремой Пуассона. В рассматриваемом примере ап = пр = 0,001-5 000 = 5. Искомая вероятность равна 00 P{fin > 2} = 53 Рп(т) = 1 - Р„(0) - Р„(1). ш=2 По теореме Пуассона Рп(0)«ехр{-5}, Рп(1)«5ехр {-5}. Поэтому Hl*n > 2} « 1 - 6 ехр {-5} « 0,9596. ' В Великой Отечественной войне реальное осуществление условий нашей задачи имело место при обстреливании самолета из пехотного оружия. Пулей самолет может быть подбит лишь при попадании в немногие уязвимые места — летчик, мотор, бензобак и пр. Вероятность попадания в эти уязвимые места отдельным выстрелом весьма мала, но, как правило, по самолету вело огонь целое подразделение, и общее количество выстрелов, выпущенных по самолету, было значительным. В результате вероятность попадания хотя бы одной или двумя пулями имела заметную величину. Это обстоятельство было подмечено и чисто практически.
96 Глава 2. Последовательность независимых испытаний Максимальное значение вероятность Pn{rn) принимает при га = 4 и га = 5. Эти вероятности равны с точностью до четвертого десятичного знака Р(4) = Р(5)« 0,1751. Вычисления по точной формуле дают с точностью до четвертого знака р5^(О) = 0,0071, Р5ооо(1) = 0,0354 и, следовательно, Р{^„ ^ 2} = 0,9575. Ошибка от использования асимптотической формулы меньше 0,25 % вычисляемой величины. Пример 2. На прядильной фабрике работница обслуживает по несколько сотен веретен, каждое из которых прядет свой моток пряжи. При вращении веретена пряжа из-за неравномерности натяжения, неровно™ и других причин в моменты времени, зависящие от случая, рвется. Для производства важно знать, как часто могут происходить обрывы при тех или иных условиях работы (сорт пряжи, скорость веретен и т.д.). Считая, что работница обслуживает 800 веретен и вероятность обрыва пряжи на каждом из веретен в течение некоторого промежутка времени г равна 0,005, найти наиболее вероятное число обрывов и вероятность того, что в течение промежутка времени г произойдет не более 10 обрывов. Так как ап=пр = 0,005 • 800 = 4, то наиболее вероятных чисел обрывов за промежуток времени г будет два: 3 и 4. Их вероятности Р8оо(3) = Р8оо(4) = <4> • 0,0054 • 0,995796. По формуле Пуассона имеем: Р8оо(3) = Р8оо(4) « |- ехр {-4} = Ц • ехр {-4} = 0,1954. Точное значение Psoo(3) = Р8оо(4) = 0,1945. Вероятность того, что число обрывов за промежуток времени г будет не более 10, равна 10 оо Р{/*п ^ Ю} = J2 р**(т) = 1 - J2 рш(ш). m=0 m=ll В силу теоремы Пуассона 4"» Psoo(m) « — ехр {-4} (га = 0,1,2,...), га! поэтому ^ 4Ш Р{/^Ю}=1-£^ехР{-4}. ш=11
§13. Теорема Пуассона 97 Но ~ 4т /4" 412 4|3\ 412-14 S ^ехРЬ4» (TTT + T2! + T3!jeXp{-4}=:Ti!l9eXP{-4} = 0'00276- ш= 11 х ' С другой стороны, °°л 4Ш 4П 412 £ _ ехр {-4} < — ехр {-4} + — ехр {-4} + го=И 413 + ехр {-4} — 1 + Т4 + (ъУ + ~ 412 • 24 у^ ехр {-4} = 0,00284. Таким образом, 0,99716 <С P{fin ^ 10} <С 0,99724. Подобно тому, как и при использовании локальной теоремы Муавра, возникает вопрос об оценке совершаемой ошибки при замене точной формулы для вычисления Рп(га) на асимптотическую формулу Пуассона 6>. Из равенства ад,.(.-Ь)".-р{.ы(.-Ь)}. = expj-n]T-f -^J I = ехр{-ап}(1-Лп), где «■—Ч-gJ®'}- мы легко можем найти эту оценку для случая га = 0. В самом деле, так как при любом положительном х 0 < 1 - ехр {-х} < х, то каковы бы ни были ап и п, *=2 Так как ^*w ^2«2+3^fcU; - (-2) «n Qn = _a^ ^ 3n-an < a2n 2n2 з Л a ^\ 6n2 n- an 2n(n - an)' 6* Эта задача подробно исследована в статье Ю. В. Прохорова «Асимптотическое поведение биномиального распределения» (УМН. 1953. Т. 8. С. 135-142). 4 Курс теории вероятностей
98 Глава 2. Последовательность независимых испытаний то о<дп< fl" 2(n - an) Из того, что Rn неотрицательно, мы заключаем, что при замене Рп(0) на exp {-an} мы несколько увеличиваем вероятность Рп(0). §14. Иллюстрация схемы независимых испытаний В качестве иллюстрации использования предыдущих результатов для целей естествознания мы рассмотрим весьма схематически проблему случайных блужданий частицы на прямой линии. Эта задача может рассматриваться как прообраз реальных физических задач теории диффузии, броуновского движения и пр. Представим себе, что в определенные моменты времени частица, находящаяся в начальный момент в положении х = О, испытывает случайные толчки, в результате которых она получает смещение вправо или влево на единицу масштаба. Таким образом, в каждый из этих моментов частица с вероятностью 1/2 смещается на единицу вправо или с такой же вероятностью — на единицу влево. В результате п толчков частица переместится на расстояние \i. Ясно, что в этой задаче мы имеем дело со схемой Бернулли в чистом виде. Отсюда следует, что при каждых п и га мы можем вычислить вероятность того, что \i = га; а именно с(т+п)/2(Л ^ е(,ли _n^m^n? Р{/х = га} = О, если |га| > п. При больших значениях п, как это следует из локальной теоремы Муавра, р{м = т}*7^ехр{"^}- (1) На полученную формулу мы сможем смотреть следующим образом. Пусть в начальный момент имелось большое число частиц, имеющих координату х = 0. Все эти частицы независимо друг от друга начинают перемещаться по прямой под влиянием случайных толчков. Тогда после п толчков доля частиц, переместившихся на расстояние га, дается формулой (1). Понятно, что мы рассматриваем идеализированные условия движения частиц и реальные молекулы движутся при гораздо более сложных условиях, однако полученный результат дает правильную качественную картину явления. В физике приходится рассматривать более сложные примеры случайных блужданий. Мы ограничимся столь же схематическим рассмотрением влияния 1) отражающей стенки, 2) поглощающей частицы стенки. Представим себе, что на расстоянии s единиц вправо от точки х — 0 имеется отражающая стенка, так что частица, попавшая в какой-либо
§ 14. Иллюстрация схемы независимых испытаний 99 момент времени на эту стенку, при следующем толчке с вероятностью единица выбивается в том же направлении, откуда она пришла. Для наглядности станем изображать положение частицы на плоскости (х, t). Путь частицы изобразится при этом в виде ломаной линии. При каждом толчке частица передвигается на единицу «вверх» и на единицу вправо или влево (каждый раз, когда х < s, с вероятностью половина). Если же х = s, то при очередном толчке частица сдвигается на единицу влево. Для подсчета вероятности Р{/х = га} поступим следующим образом: мысленно откинем стенку и разрешим частице двигаться свободно, как если бы не было стенки. На рис. 13 показаны такие идеализированные пути, приводящие в точки А и А', симметрично расположенные относительно стенки. Ясно, что для того, чтобы реальная частица, двигаясь с отражениями, достигла точки А, необходимо и достаточно, чтобы частица, двигающая в идеализированной обстановке (без отражающей стенки), достигла либо точки А, либо точки А'. Но вероятность попасть в точку А в идеализированной обстановке, очевидно, равна Р{/х = га} = tk 0 V) У 1 А У V \ Г II m II 1 1Г /< / 5 • \' X Рис.13 П! (^).(^ - га\ ;G)" Точно так же вероятность попасть в точку А' равна (абсцисса точки А' равна 25 - га) Р{/х = 25 - га} = п! / п- га\ /n + ra \ (s+— К—-) ^0)" Искомая вероятность, следовательно, равна Pn(ra; s) = Р{/х = га} + Р{/х = 2s - га}. Если воспользоваться локальной предельной теоремой Муавра, то находим, что Pn(m;5) ~ тЫехр{-^}+ехр {^^}У Это известная формула из теории броуновского движения. Она приобретает более симметричный вид, если начало координат поместить в точке х — s и, следовательно, перейти к новой координате z по формуле
100 Глава 2. Последовательность независимых испытаний z = х - s. В результате этой замены получим, что Л(,.*)-ВД + ч.).^{-р{-й±^}+вр{^}}. Мы перейдем теперь к рассмотрению третьей схематической задачи, когда на пути частицы поставлена в точке х = s поглощающая перегородка. Частица, попавшая на перегородку, в дальнейшем движении участия уже не принимает. Очевидно, что в этом примере вероятность попасть в точку х = га (га < s) после п толчков будет меньше, чем Рп(га) (т.е. меньше вероятности попадания в эту точку без поглощающей стенки); обозначим искомую вероятность символом Pn(ra; s). Для подсчета вероятности Pn(m;s) снова мысленно уберем поглощающую стенку и предоставим тем самым частице свободно двигаться по прямой. Частица, попавшая в некоторый момент времени в положение х = 5, оказывается в последующие моменты времени справа и слева от прямой х = s с одной и той же вероятностью. Точно так же после попадания на прямую х = s частица с одной и той же вероятностью 1 может попасть как в точку Л(га, п), так и в точку A' (2s - га, п). Но в точку А' частица может А] попасть, только попав предварительно в поло- / жение х = s, поэтому для всякого пути, веду- / щего в точку А', имеется путь, симметричный / относительно прямой х = s и ведущий в точку А; точно так же для всякого запрещенного в действительном движении пути, приводящем в точку А, существует симметричный относи- ' тельно прямой х = s путь, приводящий в точку Рис.14 А' (рис. 14). При этом заметим, что мы рассматриваем симметрию путей, только начиная с момента попадания на прямую х = 5. Проведенные рассуждения показывают нам, что из путей, приводящих в точку А в идеализированном движении, мы должны отбросить при подсчете числа благоприятствующих случаев в реальном движении ровно столько, сколько путей ведет в точку А'. Отсюда, очевидно, следует, что Pn(ra; s) = Р{/х = га} - Р{/х -2s- га}. В силу локальной теоремы Муавра—Лапласа имеем: Упражнения 1. Рабочий обслуживает 12 однотипных станков. Вероятность того, что станок потребует к себе внимания рабочего в течение промежутка времени длительности г равна 1/3. Чему равна вероятность того, что
Упражнения 101 а) за время г 4 станка потребуют к себе внимания рабочего; б) число требований к рабочему со стороны станков за время г будет между 3 и 6 (включая границы)? 2. В некотором семействе имеется 10 детей. Считая вероятности рождения мальчика и девочки равными 1/2, найти вероятность того, что в семействе а) 5 мальчиков и 5 девочек; б) число мальчиков заключается между 3 и 8. 3. В обществе, состоящем из 4 человек, дни рождения трех приходятся на один месяц, а четвертого — на один из остальных одиннадцати. Считая вероятность рождения в течение каждого из месяцев для каждого лица равной 1/12, найти вероятность того, что а) указанные три лица родились в январе, а четвертое лицо в октябре; б) три лица родились в каком-то одном месяце, а четвертое в каком-то из остальных одиннадцати. 4. При 14 400 бросаниях монеты герб выпал 7 428 раз. Как вероятно столь большое или большее уклонение числа выпадений герба от пр, если монета симметрична (т.е. вероятность выпадения герба в каждом испытании равна 1/2)? 5. К электросети подключено п приборов, каждый мощностью а киловатт и потребляет в данный момент энергию с вероятностью р. Найти вероятность того, что потребляемая в данный момент мощность а) окажется меньше чем nap; б) превзойдет тар (г > 0) при условии, что пр велико. 6. В одном из учебных заведений обучаются 730 студентов. Вероятность того, что день рождения наудачу взятого по списку студента приходится на определенный день года, равна 1/365 для каждого из 365 дней. Найти а) наиболее вероятное число студентов, родившихся 1 января. б) вероятность того, что найдутся три студента, имеющие один и тот же день рождения. 7. Известно, что вероятность выпуска сверла повышенной хрупкости (брак) равна 0,02. Сверла укладываются в коробки по 100 штук. Чему равна вероятность того, что а) в коробке не окажется бракованных сверл; б) число бракованных сверл окажется не более 3; в) сколько нужно класть в коробку сверл, чтобы с вероятностью, не меньшей 0,9, в ней было не менее 100 исправных? Указание. Воспользоваться распределением Пуассона. 8. В страховом обществе застраховано 10000 лиц одного возраста и одной социальной группы. Вероятность смерти в течение года для каждого лица равна 0,006. Каждый застрахованный вносит 1 января 12 руб. страховых и в случае смерти его родственники получают от общества 1000 руб. Чему равна вероятность того, что а) общество потерпит убытки; б) получит прибыль, не меньшую 40000, 60000, 80000 руб.?
102 Глава 2. Последовательность независимых испытаний 9. Доказать теорему: если Р и Р' — вероятности наиболее вероятного числа появлений события А в п и п 4- 1 независимых испытаниях (в каждом из испытаний P(j4) =р), то Р' ^ Р. Равенство исключается, если (п+ 1)р — не целое число. 10. В схеме Бернулли р = 1/2. Доказать, что: если z = Л/>/п (0 ^ z < +оо). 11. Доказать, что при npg ^ 25 -Pn(m) = > ехр 4 -—■ НИ , . + А, где m~nP lAi ^ 0,15 + 0,25|р-д| Г 3 \ 12. Произведено п независимых испытаний. Вероятность появления события А в t-м испытании равна р,; Рп(*и) — вероятность m-кратного появления события А в п испытаниях. Доказать, что а)рм>Щ> >_£М_. а> Ш)^ЩГ)^---^Рп(п-\)' б) Pn(m) сначала возрастает, а затем убывает (если только Рп(0) или Рп(п) сами не являются максимальными). оо { г2Л 13. Доказать, что при х > 0 функция / ехр <-—> dz удовлетворяет нера- ехр | --ж2 \^ I ехр | --z2 \dz ^ - ехр < --х2 >. венствам 1+ж2 14. Задача Банаха. Некий математик носит с собой две коробки спичек. Каждый раз, когда он хочет достать спичку, он выбирает наугад одну из коробок. Найти вероятность того, что когда математик вынет пустую коробку, в другой коробке окажется г спичек (г = 0, 1,2, ...,n; n — число спичек, бывших первоначально в каждой из коробок). 15. К линии электропередачи подключено п механизмов. Вероятность того, что механизм, потребляющий энергию в момент времени t, прекратит ее потребление до момента t + At, равна a At 4- o(At). Если в момент t механизм не потребляет энергии, то вероятность того, что он станет ее потреблять до момента t + At равна /3At + o(At) независимо от работы других механизмов. Составить дифференциальные уравнения, которым удовлетворяют вероятности PT(t) того, что в момент t энергию потребляют г механизмов. Примечание. Легко указать конкретные осуществления условий этой задачи: движение трамваев, электросварка, потребление энергии станками с автоматическим выключением и пр.
Упражнения 103 16. Один рабочий обслуживает п однотипных станков-автоматов. Если в момент t станок работает, то вероятность того, что он потребует обслуживания до момента t 4- At, равна a At + o(At). Если в момент t рабочий обслуживает какой-нибудь станок, то вероятность того, что он закончит обслуживание до момента t 4- At, равна /3At 4- o(At). Составить дифференциальные уравнения, которым удовлетворяют вероятности Pr(t) того, что в момент t работают п — г станков, один обслуживается и г - 1 ожидают очереди на обслуживание (Po(t) — вероятность того, что все станки работают). Примечание. Нетрудно аналогичным путем составить дифференциальные уравнения для более сложной задачи, когда N станков обслуживает бригада из к рабочих. Для практических целей важно сравнить экономичность той и другой системы организации труда. С этой целью следует изучить установившийся режим, т.е. рассмотреть вероятности Pr(t) при t -> оо. Оказывается, работа бригады, обслуживающей кп станков выгоднее как в смысле лучшего использования рабочего времени станка, так и рабочего времени рабочего, чем обслуживание одним рабочим п станков.
Глава 3 Цепи Маркова §15. Определение цепи Маркова Непосредственным обобщением схемы независимых испытаний является схема так называемых цепей Маркова, впервые систематически изученная известным русским математиком А. А. Марковым. Мы ограничимся изложением элементов его теории. Представим себе, что производится последовательность испытаний, в каждом из которых может осуществиться одно и только одно из к несовместимых событий Л, , А2 ,..., а£ (верхний индекс, как и в предыдущей главе, означает номер испытания). Мы скажем, что последовательность испытаний образует цепь Маркова, точнее, простую цепь Маркова, если условная вероятность в (s + \)-м испытании (s = 1, 2, 3,...) осуществиться событию Af (i = 1,2,..., к) зависит только от того, какое событие произошло при s-м испытании и не изменяется от добавочных сведений о том, какие события происходили в более ранних испытаниях. Часто при изложении теории цепей Маркова придерживаются иной терминологии и говорят о некоторой системе S, которая в каждый момент времени может находиться в одном из состояний А\, А2,..., Аь и меняет свое состояние только в моменты t\9t2,...,tn9... Для цепей Маркова вероятность перейти в какое-либо состояние А{ (i = 1,2,..., к) в момент ts зависит только от А{ и того, в каком состоянии система находилась в момент t (ts-\ < t < ts), и не изменяется от того, что становятся известными ее состояния в более ранние моменты. Для иллюстации рассмотрим два схематических примера. Пример 1. Представим себе, что частица, находящаяся на прямой, движется по этой прямой под влиянием случайных толчков, происходящих в моменты *1,*2»*з»--- Частица может находиться в точках с целочисленными координатами а,а+ 1, а + 2,..., Ь; в точках а и Ь находятся отражающие стенки. Каждый толчок перемещает частицу вправо с вероятностью р и влево с вероятностью q = 1 - р, если только частица не находится у стенки. Если же частица находится у стенки, то любой толчок переводит ее на единицу внутрь промежутка между стенками. Мы видим, что приведенный пример блуждания частицы представляет собой типичную цепь Маркова. Точно так же можно было бы рассмотреть случай, когда частица прилипает к одной из стенок или к обеим из них. Пример 2. В модели Бора атома водорода электрон может находиться на одной из допустимых орбит. Обозначим через А{ событие, состоящее
§ 16. Матрица перехода 105 в том, что электрон находится на t-й орбите. Предположим далее, что изменение состояния атома может наступать только в моменты t\, tj, h,... (в действительности, эти моменты представляют собой случайные величины). Вероятность перехода с t-й орбиты на j-ю в момент ts зависит только от t и j (разность j - г зависит от количества энергии, на которую изменился заряд атома в момент ts) и не зависит от того, на каких орбитах находился электрон в прошлом. Последний пример представляет собой цепь Маркова с бесконечным (правда, только в принципе) числом состояний; этот пример был бы несравненно ближе к реальной обстановке, если бы моменты перехода нашей системы в новое состояние могли меняться непрерывно. §16. Матрица перехода Мы ограничимся далее изложением простейших фактов для однородных цепей Маркова, в которых условная вероятность появления события Aj' в (s + 1)-м испытании при условии, что в 5-м испытании (з) осуществилось событие j4; ', не зависит от номера испытания. Мы назовем эту вероятность вероятностью перехода и обозначим буквой pij; в этом обозначении первый индекс всегда будет обозначать результат предшествующего испытания, а второй индекс указывает, в какое состояние перейдет система в последующий момент времени. Полная вероятностная картина возможных изменений, осуществляющихся при переходе от одного испытания непосредственно к следующему, задается матрицей (р\\ Рп ••• Р\к\ , P2I Р22 • • • Р2к 7Ti = \Р*1 Рк2 • • • Ркк) составленной из вероятностей перехода, которую мы будем называть матрицей перехода. Отметим, каким условиям должны удовлетворять элементы этой матрицы. Прежде всего, они, как вероятности, должны быть неотрицательными числами, т. е. при всех t и j O^Pij^L (s) Далее из того, что при переходе из состояний j4; в 5-м испытании система обязательно переходит в одно и только в одно из состояний Af в (s + 1)-м испытании, вытекает равенство * J2Pij = I (t = l,2,...,fc).
106 Глава 3. Цепи Маркова Таким образом, сумма элементов в каждой строке матрицы перехода равна единице. Наша первая задача в теории цепей Маркова состоит в определении вероятности перехода из состояния А] в 5-м испытании в состояние А* через п испытаний. Обозначим эту вероятность знаком Pij(n). Рассмотрим какое-нибудь промежуточное испытание с номером s + га. В этом испытании осуществится какое-то одно из возможных событий Ars (1 ^ г ^ к). Вероятность такого перехода, согласно с только что введенными обозначениями, равна J^r(m). Вероятность же перехода из состояния Аг в состояние Ajn' равна Prj(n - га). По формуле полной вероятности г=1 Обозначим через жп матрицу перехода через п испытаний /Pii(n)Pi2(n) ...Pi*(n)> Я"п = I \Pkl(n)Pk2(n)...Pkk(n); Согласно (1) между матрицами 7г5 с различными индексами существует соотношение Кп = Я"ш ' Кп-т (0 < ГП < П). В частности, при п = 2 находим, что 7Г2 = 7Г| • 7Г] = 7Г|; при п = 3 7Гз = 7Г| • 7Г2 = 7Г2 • 7Г| = 7Г]; и вообще при любом п Отметим частный случай формулы (1): при га = 1 к г=1 В качестве упражнения предлагается читателю написать матрицу перехода для первого примера предыдущего параграфа. § 17. Теорема о предельных вероятностях Теорема. Если при некотором s > 0 все элементы матрицы перехода ns положительны, то существуют такие постоянные числа pj (j = 1,2, ..., к), что независимо от индекса г имеют место равенства lim Pij(n)=pj.
§ 17. Теорема о предельных вероятностях 107 Доказательство. Идея доказательств этой теоремы весьма проста: сначала устанавливается, что наибольшая из вероятностей Pij(n) с ростом п не может возрастать, а наименьшая не может убывать; далее показывается, что максимум разности Pij(n) - Рц(п) (t, I = 1, 2,..., к) стремиться к нулю, когда п -»• оо. Этим доказательство теоремы, очевидно, завершается. Действительно, в силу известной теоремы о пределе монотонной последовательности мы заключаем из первых двух указанных свойств вероятностей Pij(n), что существуют lim ™$ир*Жп)=Рз n-юо \ф^.к И lim max Рц(п) = рр<. А так как в силу третьего из указанных свойств lim max |P0(n) - P0(n)| = 0, TO Pj = Pj = Pj- Мы перейдем теперь к осуществлению намеченного плана. Заметим прежде всего, что при п > 1 имеет место неравенство к к Это неравенство имеет место при каждом г, в частности при том, при котором Pijin) = min Ри(п). Таким образом, min ja -(ц) ^ min Р{,{п - 1). Подобным же путем легко обнаружить, что max Рц(п) ^ max Рц(п - 1). Мы можем считать, что n > s, и поэтому имеем право записать по формуле (1) § 16, что к Pij(n) = J2p^sypn(n^s)' г=1 Рассмотрим разность к к Pij(n) - Ри(п) = J^ Pir(S) • Prj(n ~ S) ~ J2 Plr(S) • Prj(n " S) = r=\ r=l A; = Y^[Pir(s)-P,r(s)}Prj(n-s). (1) Г=1
108 Глава 3. Цепи Маркова Обозначим положительные разности Pir(s) - Pir(s) символом /3%, а неположительные разности — /?2 . Так как к к £><г(5) = £>,(*) = 1, Г=1 г=1 ТО £ [pir(s) - ад] = £ /#> - £ /#> = о. (г) (г) (2) г=1 Из этого равенства заключаем, что *« = £/#> = £/#>. (г) (г) Так как по предложению при всех гиг (г, г = 1,2,3,..., к) Pir(s) > 0, то (г) г=1 Таким образом, Пусть (КЛ|7 < 1. Л = max Л#. Так как число возможных исходов конечно, то наряду с величинами Л,/ величина Л удовлетворяет неравенствам (КЛ<1. (3) Из (1) находим, что при любых i и I (t, I = 1, 2,..., к) \Рц(п)-Ри(п)\ = \^2^)Prj(n-s)-^2^)Prj(n-s) (г) (г) (г) " ^ (г) !<г<* < ft| max Prj(n - s) - min Prj{n - «) | < ft max |PtJ(n - a) - fl,-(n - s)| l^r^A; l^r^A» i^t,/^A» и, следовательно, также max \Pij(n) - P0(n)| ^ h max \Р^(п - s) - Jfy(n - *)|. Применив это неравенство — раз, найдем, что _ max<fc |Р,(п) - Р,(п)| < *•-/•!, max Jp, (n - £] .) - Р, („- [j] .) |.
Упражнения 109 Так как всегда |Рг/(га) - P/j(ra)| ^ 1, то ясно, что max |Р;>)-Р0(п)|О|п/в1. При п -> оо также оо, поэтому в силу (3) отсюда следует, что lim max |j>7(n) - P0(n)| = 0. Из доказанного заключаем также, что Ел-1- j=\ Действительно, EPj = lim Y)Ptj(n) = lim 1 = 1. Таким образом, на величины pj можно смотреть как на вероятности появления исхода Aj при n-м испытании, когда п велико. Физический смысл доказанной теоремы ясен: вероятность системе находиться в состоянии Aj практически не зависит от того, в каком состоянии она находилась в далеком прошлом. Только что обнаруженная теорема была впервые доказана творцом теории цепных зависимостей А. А. Марковым; она явилась первым строго доказанным результатом среди так называемых эргодических теорем, играющих важную роль в современной физике и инженерном деле. Упражнения 1. Вероятности перехода даются матрицей Л/2 1/3 1/б\ 7Г, = 1/2 1/3 1/6 1/2 1/3 1/6 Чему равно число состояний? Найти вероятности перехода из состояния в состояние за два шага. 2. Электрон может находиться на одной из счетного множества орбит в зависимости от наличной энергии. Переход с t-й орбиты на ^'-ю происходит за одну секунду с вероятностью с, ехр {—a\i - j\}. Найти: а) вероятности перехода за две секунды, б) постоянные с,.
110 Глава 3. Цепи Маркова 3. Вероятности перехода даются матрицей / 0 1/2 1/2\ 7Г, = 1/2 0 1/2 1/2 1/2 0 Применима ли в данном случае эргодическая теорема Маркова? Если да, то найти предельные вероятности.
Глава 4 Случайные величины и функции распределения §18. Основные свойства функций распределения Одним из основных понятий теории вероятностей является понятие случайной величины. Прежде чем переходить к формальному его определению, мы остановимся на рассмотрении примеров. Число космических частиц, попадающих на определенный участок земной поверхности в течение промежутка времени определенной длины, подвержено значительным колебаниям в зависимости от многих случайных обстоятельств. Число вызовов, поступивших от абонентов на телефонную станцию в течение определенного промежутка времени, не остается постоянным, а подвержено значительным случайным колебаниям. Размер уклонения точки падения снаряда от центра цели определяется большим количеством разнообразных причин, носящих случайный характер. В результате в теории стрельбы вынуждены считаться с явлением рассеивания снарядов около центра цели как со случайным явлением и рассматривать указанные уклонения как случайные величины. Скорость молекулы газа не остается неизменной, а меняется в зависимости от столкновения с другими молекулами. Этих столкновений очень много даже в течение короткого промежутка времени. Зная скорость молекулы в данный момент, нельзя с полной определенностью указать ее значение, скажем, через 0,01 или 0,001 секунды. Изменение скорости молекулы носит случайный характер. Приведенные примеры показывают с достаточной определенностью, что со случайными величинами приходится иметь дело в самых разнообразных областях науки и техники. Возникает естественная и притом весьма важная задача создания методов изучения случайных величин. Несмотря на всю разнородность конкретного содержания приведенных нами примеров, все они с точки зрения математики представляют одну и ту же картину. А именно, в каждом примере мы имеем дело с величиной, так или иначе характеризующей исследуемое явление. Каждая из этих величин под влиянием случайных обстоятельств способна принимать различные значения. Заранее предсказать, какое значение примет эта величина, нельзя, так как оно меняется случайным образом от испытания к испытанию.
112 Глава 4. Случайные величины и функции распределения Таким образом, для того чтобы знать случайную величину, прежде всего необходимо знать те значения, которые она может принимать. Однако одного перечня значений случайной величины еще недостаточно, чтобы по ним можно было делать какие-либо существенные выводы. Действительно, если в третьем примере рассмотреть газ при разных температурах, то возможные значения скоростей молекул останутся теми же самыми, тогда как состояния газа будут различны. Таким образом, для задания случайной величины необходимо знать не только, какие значения может она принимать, но и как часто, т. е. с какой вероятностью она принимает эти значения. Разнообразие случайных величин весьма велико. Число принимаемых ими значений может быть конечным, счетным или несчетным; значения могут быть расположены дискретно или заполнять интервалы сплошь или же не заполнять интервалы, но располагаться всюду плотно. Для того чтобы задавать вероятности значений случайных величин, столь различных по своей природе, и притом задавать их одним и тем же способом, в теории вероятностей вводят понятие функции распределения случайной величины. Пусть £ — случайная величина и х — произвольное действительное число. Вероятность того, что £ примет значение, меньшее, чем ж, называется функцией распределения вероятностей случайной величины £: F(x) = Р{£ < *}• Условимся в дальнейшем, как правило, случайные величины обозначать греческими буквами, а принимаемые ими значения — строчными латинскими. Резюмируем сказанное: случайной величиной называется величина, значения которой зависят от случая и для которой определена функция распределения вероятностей 1\ Рассмотрим примеры функций распределения. Пример 1. Обозначим через /х число появлений события А в последовательности п независимых испытаний, в каждое из которых вероятность его появления постоянна и равна р. В зависимости от случая /х может принимать все целочисленные значения от 0 до п включительно. Согласно результатам главы 2 Рп(т) = Р{,х = щ} = C™pmqn-m. Само собой разумеется, что этими словами мы не дали математического определения новому понятию, а только описали то общее представление, которое складывается у человека, знакомящегося с реальными примерами случайных величин. На с. 114 дано формализованное определение случайной величины.
§ 18. Основные свойства функций распределения 113 Функция распределения величины /х определяется следующим способом: О для х ^ О, F(x) = { ^2pn(k) для 0<ж^п, к<х 1 для х > п. Функция распределения представляет собой ступенчатую линию со скачками в точках х = 0,1, 2,..., п; скачок в точке х = к равен Рп(к). Пример 2. Пусть случайная величина £ принимает значения 0,1, 2,... с вероятностями Апехр{-А} , Рп = Р{£ = п} = ^—i (п = 0,1,2,...), где А > 0 — постоянная. Функция распределения величины £ представляет собой как бы лестницу с бесконечным числом ступенек, со скачками во всех неотрицательных целочисленных точках. Величина скачка в точке х = п равна рп; при х ^ 0 имеем F(x) = 0. Про случайную величину, рассмотренную в настоящем примере, говорят, что она распределена по закону Пуассона. Пример 3. Мы скажем, что случайная величина нормально распределена, если ее функция распределения имеет вид Ф(Х) = С jexp{-{-^?-}dz, -00 где С > 0, а > 0, а — постоянные. Впоследствии мы установим связь между постоянными а и С и выясним теоретико-вероятностный смысл параметров а и а. Нормально распределенные случайные величины играют особо важную роль в теории вероятностей и ее приложениях, в дальнейшем у нас будет много поводов убедиться в этом. Заметим, что если в двух первых рассмотренных нами примерах случайные величины могли принимать только конечное или счетное множество значений {дискретные величины), то случайные величины, распределенные по нормальному закону, могут принимать значения из любого интервала. Действительно, как мы увидим ниже, вероятность нормально распределенной случайной величине принять значение, заключающееся в интервале х\ ^ £ < хг, равна Ф(х2) - Ф(х,) = с/ехр j-£^£ j dz ХХ и, следовательно, при любых Х\ и Х2 (х\ Ф Xj) положительна. После сделанных нами замечаний интуитивного характера можно перейти и к изложению принятого теперь строго формального определения случайной величины.
114 Глава 4. Случайные величины и функции распределения В соответствии с общим аксиоматическим понятием случайного события, мы будем исходить из множества элементарных событий П. Каждому элементарному событию ш поставим в соответствие некоторое число Z = /И- Мы скажем, что £ есть случайная величина, если функция f(u) измерима относительно введенной в рассматриваемом множестве Q вероятности. Иначе говоря, мы требуем, чтобы для каждого измеримого по Борелю множества А% значений £ множество Аи тех о;, для которых f(uj) С А% принадлежало множеству F случайных событий и, следовательно, для него была бы определена вероятность Р{£ С А,:} = Р{АЫ}. В частности, если множество А% совпадает с полупрямой £ < х, то вероятность Р{АЫ) есть функция переменного х P{t<x} = P{Au} = F(x)9 которую мы назвали функцией распределения случайной величины £. Пример 4. Рассмотрим последовательность п независимых испытаний, в каждом из которых вероятность появления события А постоянна и равна р. В этом примере элементарные события состоят из последовательностей появлений и непоявлений события А в п испытаниях. Так, одним из элементарных событий будет появление события А в каждом из испытаний. Всего, как нетрудно подсчитать, будет 2П элементарных событий. Определим функцию /х = f(u) от элементарного события ш так: она равна числу появления события А в элементарном событии ш. Согласно результатам главы 2 р{/* = Щ = pn(k) = cknPk <Г*. Измеримость функции /х = f(u) в поле вероятностей непосредственно очевидна. Отсюда, согласно определению, заключаем, что /х есть случайная величина. Пример 5. Произведены три наблюдения за положением молекулы, двигающейся по прямой линии. Множество элементарных событий состоит из точек трехмерного евклидового пространства Д3. Множество случайных событий F состоит из всевозможных борелевских множеств пространства Д3. Для каждого случайного события А определим вероятность Р{А} посредством равенства Р{А} = I I /ехр< -y^[(x\-af + {x2-a)2 + {x2-af] ?dx\dx2dx3. (aVbr)-
§ 18. Основные свойства функций распределения 115 Рассмотрим теперь функцию £ = f(u) элементарного события, определенную посредством равенства £= -(ж, + х2 + х3). Эта функция измерима относительно введенной нами вероятности, поэтому £ является случайной величиной. Для нее функция распределения равна F(x) = Р{£ <х} = 1 III exp I -— Y^(xk - о)1 \ dxx dx2 dx3 = 1 /Ч^Ь С только что развитой точки зрения действия над случайными величинами сводятся к известным операциями над функциями. Так, если ^ и & являются случайными величинами, т. е. измеримыми относительно введенной вероятности функциями £| = /.И> 6 = ЛИ, то любая борелевская функция от них также является случайной величиной. Для примера < = *!+& измерима относительно введенной вероятности и потому является случайной величиной. Позднее мы разовьем только что сделанное замечание и получим ряд важных для применений результатов. В частности, мы выведем формулы для функции распределения суммы и частного двух случайных величин по распределению слагаемых. При помощи функции распределения случайной величины £ можно определить вероятность неравенства Х\ ^ £ < х2 при любых Х\ и х2. В самом деле, если через А обозначить событие, состоящее в том, что £ примет значение, меньшее чем х2, через В — событие, состоящее в том, что £ < х\, и, наконец, через С — событие Х\ ^ £ < х2, то, очевидно, имеет место следующее равенство: А = В + С. Так как события В и С несовместимы, то Р(А) = Р(Б) + Р(С). Но Р(А) = F(x2), Р(В) = F(x{), Р(С) = Р{я, ^ £ < х2}9
116 Глава 4. Случайные величины и функции распределения поэтому P{x]^t<x2} = F(x2)-F(xl). (1) Так как, по определению, вероятность есть неотрицательное число, то из равенства (1) следует, что при любых х\ и х2 (х2 > х\) имеет место неравенство F(x2)^F(xl)9 т. е. что функция распределения любой случайной величины есть неубывающая функция. Очевидно, далее, что функция распределения F(x) при любом х удовлетворяет неравенству 0^F(x)^l. (2) Мы скажем, что функция распределения F(x) имеет при х = х0 скачок, если F(xQ + 0) - F(xQ - 0) = Со > 0. Функция распределения может иметь не более чем счетное множество скачков. В самом деле, скачков размера, большего 1/2, функция распределения может иметь не более одного; скачков размера от одной четвертой до половины (1/4 < Со ^ 1/2) — не более трех. Вообще скачков размером от 1/2п до 1/2п~1 может быть не более чем 2п - 1. Совершенно ясно, что мы можем пронумеровать все скачки, расположив их по величине, начиная с больших значений и повторяя равные значения столько раз, сколько скачков этой величины имеет функция F(x). Установим еще несколько общих свойств функций распределения. Определим F(-oo) и F(+oo) равенствами F(-oo) = lim F(-n), F(+oo) = lim F(+ri) n-t+oo п-юо и докажем, что F(-oo) = 0, F(+oo) = 1. Действительно, так как неравенство £ < +оо достоверно, то Р{£ < +оо} = 1. Обозначим через Q* событие, состоящее в том, что к - 1 ^ £ < к. Так как событие £ < +оо эквивалентно сумме событий Q*, то на основании расширенной аксиомы сложения 00 Р{£ < +оо} = £ P{Qk}. к=-оо Следовательно, при п -> оо Е р«?*}= Е [F(k)-F{k-l)] = F(n)-F(-n)->l. к=\-п к=]-п
§ 19. Непрерывные и дискретные распределения 117 Отсюда, принимая во внимание неравенства (2), заключаем, что при п -> оо F(-n)->0, F(+n)-M. Функция распределения непрерывна слева. Выберем какую-нибудь возрастающую последовательность хо < Х\ < < хг < ... < хп < ..., сходящуюся к х. Обозначим через Ап событие {хп ^ £ < х}. Тогда ясно, что Л, С Aj при г > j, и произведение всех событий Ап есть невозможное событие. По аксиоме непрерывности должно быть lim P(An)= lim {F(x)-F(xn)\ = F(x)- lim F(xn) = F(x)-F(x-0) = 0, П-400 П-+00 П-ЮО что и требовалось доказать. Точно так же можно доказать, что Мы увидим, таким образом, что каждая функция распределения является неубывающей, непрерывной слева и удовлетворяющей условиям F(-oo) = 0 и F(+oo) = 1 функцией. Верно и обратное: каждая функция, удовлетворяющая перечисленным условиям, может рассматриваться как функция распределения некоторой случайной величины. Заметим, что в то время как каждая случайная величина однозначно определяет свою функцию распределения, существует сколько угодно различных случайных величин, имеющих одну и ту же функцию распределения. Так, если £ принимает два значения -1 и +1, каждое с вероятностью 1/2 и г/ = -£, то ясно, что всегда £ отлично от г/. Тем не менее обе эти случайные величины имеют одну и ту же функцию распределения I 0 при х^-1, F(x)= < 1/2 при -1 <х^ 1, I 1 при х > 1. §19. Непрерывные и дискретные распределения Иногда поведение случайной величины характеризуют не заданием ее функции распределения, а каким-либо иным способом. Всякая такая характеристика носит название закона распределения случайной величины, если только по определенным правилам можно получить из нее функцию распределения. Так, законом распределения будет функция интервала Р{х\, xi}, представляющая собой вероятность неравенства Х\ ^£ < Xi. Действительно, зная Р{х\, Хг}, мы можем найти функцию распределения по формуле F(x) = Р{-оо, х). Мы уже знаем, что и по F(x) можно найти для любых х\ к Хг функцию Р{х\,х2}: Р{х\,х2} -F(x2) - F(X]).
118 Глава 4. Случайные величины и функции распределения Часто в качестве закона распределения полезно брать функцию множества Р{Е}, определенную для всех борелевских множеств и представляющую собой вероятность того, что случайная величина £ примет значение, принадлежащее множеству Е. Вероятность Р{Е}, в силу расширенной аксиомы сложения, есть вполне аддитивная функция множества, т. е. для любого множества Е, представляющего собой сумму конечного или счетного числа непересекающихся множеств Е^: Р{Е} = "£Р{Ек}. Из всевозможных случайных величин мы выделим прежде всего те, которые могут принимать только конечное или счетное множество значений. Такие величины мы будем называть дискретными. Для полной вероятностной характеристики дискретной случайной величины £, принимающей с положительными вероятностями значения х\, Xi, #з, • • •> достаточно знать вероятности рк = Р{£ = х^} 2К Очевидно, что по совокупности вероятностей рь можно определить функцию распределения F(x) посредством равенства в котором суммирование распространяется на все те индексы, для которых хк < х. Функция распределения любой дискретной величины разрывна, возрастает скачками при тех значениях ж, которые являются возможными значениями £. Величина скачков функции F(x) в точке ж, как мы выяснили ранее, равна разности F(x + 0) - F(x). Если два возможных значения величины £ разделены интервалом, в котором других возможных значений £ нет, то в этом интервале функция распределения F(x) постоянна. Если возможных значений £ конечное число, например п, то функция распределения F(x) представляет собой ступенчатую кривую сп+1 интервалом постоянтсва. Если же возможных значений £ имеется счетное множество, то это последнее может быть и всюду плотным, так что интервалов постоянства у функции распределения дискретной случайной величины может и не быть. Пусть для примера возможными значениями £ будут все рациональные числа и только они. Пусть эти числа занумерованы каким-нибудь способом: ri,r2,... и вероятности Р{£ = гь} = Рк определены посредством равенства р* = 1/2*. В нашем примере все рациональные точки являются точками разрыва функции распределения. В качестве другого важного класса случайных величин мы выделим те из них, для которых существует неотрицательная функция р(х)9 удовлетворяющая при любых х равенству х F(x) = f p(z)dz. -00 ' Эти и только эти значения я* мы назовем возможными значениями дискретной случайной величины £.
§ 19. Непрерывные и дискретные распределения 119 Случайные величины, обладающие этим свойством, называются непрерывными', функция р(х) называется плотностью распределения вероятностей. Отметим, что плотность распределения вероятностей обладает следующими свойствами: 1. р(х)>0. 2. При любых Х\ и х2 удовлетворяет равенству х2 Р{ж, ^ £ < х2} = J p(x) dx. В частности, если р(х) непрерывна в точке ж, то с точностью до бесконечно малых высших порядков Р{х ^ £ < х + dx} = p(x) dx. 3. J p(x)dx = 1. Величины, распределенные по нормальному или равномерному закону3^, дают нам примеры непрерывных случайных величин. Пример. Рассмотрим ближе нормальный закон распределения. Для него плотность распределения вероятностей равна р(*) = С.ехр{-^^}. Постоянная С определяется, исходя из свойства 3. Действительно, 1. сЫ-^Ь х — а Заменой переменных = z это равенство приводится к виду Са JeKpl-j\dz=l. Интеграл, стоящий в левой части этого равенства, известен под именем интеграла Пуассона, причем у2' f exp j-yJcfc = V2?. Таким образом, находим, что 1 С = ау/Ъг и, значит, для нормального распределения \2' , , 1 Г (х-а)2\ 3* Так называется закон с функцией распределения, линейно изменяющейся от 0 до 1 в некотором интервале (а, Ь) и равной нулю левее точки а и единице правее Ь.
120 Глава 4. Случайные величины и функции распределения р(х)к 0,81 Рис.15 Функция р(х) достигает максимума при х = а, имеет точки перегиба при х = a±a; ось абсцисс служит для нее асимптотой при х -> ±оо. Для иллюстрации влияния параметра а на форму графика плотности нормального распределения мы приводим на рис. 15 графики р(х) при а = 0 и 1) а2 = 1/4, 2) а2 = 1, 3) <т2 = 4. Мы видим, что чем меньше значение а, тем кривая р(х) имеет большее значение максимума и падает круче. Это означает, в частности, что вероятность попасть в интервал (-а, а) больше для той случайной величины, распределенной по нормальному закону (с параметром а = 0), для которой величина а меньше. Мы, следовательно, может считать а характеристикой разбросанности значений величины £. При а ф 0 кривые плотностей имеют ту же форму, но сдвинуты вправо (а > 0) или влево (а < 0) в зависимости от знака параметра а. Помимо дискретных и непрерывных случайных величин, существуют, разумеется, и другие случайные величины. Кроме величин, которые ведут себя в одних интервалах как непрерывные, а в других как дискретные, имеются величины, не являющиеся ни в одном интервале ни дискретными, ни непрерывными. К таким случайным величинам относятся, например, все те, функции распределения которых непрерывны, но при этом возрастают только на множестве лебеговской меры нуль. В качестве примера такой случайной величины приведем величину, имеющую функцией распределения известную кривую Кантора. Напомним построение этой кривой. Величина £ принимает только значения между нулем и единицей. Следовательно, ее функция распределения удовлетворяет равенствам F(x) = 0 при х^0, F(x)=\ при х>\. Внутри интервала (0,1) £ принимает значения только в первой и последней его третях, в каждой с вероятностью 1/2. Таким образом, F(x)= 1/2 при 1/3 < х ^2/3.
§ 20. Многомерные функции распределения 121 В интервалах (0,1/3) и (2/3,1) £ снова может принимать значения только в первой и последней трети каждого из них, в каждой с вероятностью 1/4. Этим определяются значения F(x) еще в двух интервалах: F(z)=l/4 при 1/9 < х <С2/9, F(s) = 3/4 при 7/9 <ж^ 8/9. Далее в каждом из оставшихся интервалов повторяется то же построение и этот процесс продолжается до бесконечности. В результате функция F(x) оказывается определенной на счетном множестве интервалов, являющихся интервалами смежности некоторого нигде не плотного совершенного множества меры нуль. На этом множестве доопределяем функцию F(x) по непрерывности. Величина £ с таким образом определенной функцией распределения не дискретна, так как ее функция распределения непрерывна, но в то же время £ не непрерывна, так как ее функция распределения не является интегралом от своей производной. Все введенные нами определения переносятся легко на случай условных вероятностей. Так, например, функцию F(x\B) = Р{£ < х\В} мы будем называть условной функцией распределения случайной величины £ при условии В. Очевидно, что F(x\B) обладает всеми свойствами обычной функции распределения. § 20. Многомерные функции распределения Для дальнейшего нам необходимо не только понятие случайной величины, но и понятие случайного вектора или, как часто говорят, многомерной случайной величины. Рассмотрим вероятностное пространство {Q, #, Р}, на котором определены п случайных величин *i = /iH. 6 = ЛИ, .... 6. = ЛИ (функции fi(u) измеримы). Вектор (6,6,---»£п) называется случай- ным вектором или n-мерной случайной величиной. Пусть (6,6, • • •»6») ~~ случайный вектор. Обозначим через {6 < х\9 6 < #2, ••• > &» < х*} множество тех элементарных событий и, для которых одновременно выполняются все неравенства f\(u)<x]9 /2И<ж2, •••> /пИ<ж„. Поскольку это событие является произведением событий {/*(<*;) < хь} (1 ^ к ^ п), оно принадлежит множеству J, т. е. {6 <хи 6<*2, ..., 6» <»»}€?. Таким образом, при любом наборе чисел Ж|,ж2, ••• ,^п определена вероятность F(xux29...,xn) = Р{6 < хи 6 < Ъ9 ••, 6» < «„}. Эта функция п аргументов называется n-мерной функцией распределения случайного вектора (6,6, • • •, 6»)-
122 Глава 4. Случайные величины и функции распределения В дальнейшем мы прибегнем к геометрической иллюстрации и станем рассматривать величины £ь£2,...,£п как координаты точек п-мерного евклидового пространства. Очевидно, что положение точки (£i, £2, • • • > £п) зависит от случая и что функция F(x\, х2,..., хп) при такой интерпретации дает вероятность попадания точки (£ь£2,... ,£п) в п-мерный параллелепипед ^ < х\, £2 < #2» ..., £п < хп с ребрами, параллельными осями координат. С помощью функции распределения легко вычислить вероятность того, что точка (£ь £2, • • •»6») окажется внутри параллелепипеда 0|-^& <&i («' = 1,2,...,п), где а, и 6, — произвольные постоянные. Нетрудно подсчитать, что Р{й! $£, < Ь|,в2^6 < b2,...4an^£n < Ьп} = п = F(bl,b2,...,bn)-^pl + ^ptJT... + (-l)ni;,(ai,a2,...,an), (1) t=l i<j где через Pij...k обозначено значение функции F(cu c2,... ,с„) при с, = а,-, С; = а;-,..., с* = а* и при остальных с5 равных 6S. Мы предоставляем доказательство этой формулы читателю. Заметим, в частности, что F(x\,... ,ж*_1, +оо,ж*+|,... ,жп) дает нам вероятность того, что будет выполнена следующая система неравенств: Так как по расширенной аксиоме сложения вероятностей ^ Р{6 <Жь...,&-1 <«л-i,6+i <^*+1»---»6<жп} = = X) p{6<«i.---»6-i<«*-i.e^6<*+U6+i<«*+i---.6i<a?n} = = ^(я?|>...,ЖЛ-1>+00,ЖЛ+1,...,Жп), то F(xi,..., xfc_i, +oo, xk+\,..., жп) является функцией распределения (п - 1)-мерной случайной величины (£ь... ,&-i>&+i>... ,6)- Продолжив этот процесс далее, мы можем определить fc-мерные функции распределения любой группы из к величин £,,, &2,..., &к по формуле Fk{xix,xi2,..., xih) = Р{6, < «i 6* < xik] = F(c,, c2,..., Cn), где cs — xs, если 5 = ir (1 ^r^fc) и cs = +oo в иных случаях. В частности, функция распределения случайной величины & равна FA;(a;) = F(c,,c2,...,crl), где все Сг (г ^ fc) равны +оо, а с* = х. Подобно тому как поведение одномерной случайной величины можно характеризовать не только посредством функции распределения, но и другими способами, многомерные случайные величины могут быть определены, скажем, посредством неотрицательной вполне аддитивной функции множества Ф{Е}, определенной для борелевских множеств п-мерного
§20. Многомерные функции распределения 123 пространства. Эту функцию мы определим как вероятность попадания точки (£i,...,£n) на множество Е. Этот способ вероятностной характеристики n-мерной случайной величины следует признать наиболее естественным и с точки зрения теоретической наиболее удачным. Рассмотрим примеры. Пример 1. Случайный вектор (£ь..., £п) называется равномерно распределенным в параллелепипеде а, ^ £, < 6, (1 ^ г ^ п), если вероятность попадания точки (£i, & • • •,£п) в любую внутреннюю область указанного параллелепипеда пропорциональна ее объему и вероятность попадания внутрь параллелепипеда является достоверным событием. Функция распределения искомой величины имеет вид F{xx,...,xn)= < 0, если Х{ ^ а, хотя бы при одном t, ПС{i- di \ X{, если а, ^ ж,- ^ ft,-, , где ai = < k t_, °i ~ at { h, если Х{ > ft,-. Пример 2. Двумерная случайная величина (£i,&) распределена нормально, если для нее функция распределения равна Х\ Х2 F(x\ ,x2) = C I exp {-Q(x, у)} dx dy9 -00 -00 где Q(x, у) — положительно определенная квадратичная форма. Известно, что положительно определенная квадратичная форма от х и у может быть записана в виде (х-а)2 (х-а)(у-Ь) (у - ft)2 «(*. У) = Чтг- - г~ 7^ L + 2А2 АВ 2В2 ' где А и В — положительные числа, а г, а и 6 — вещественные числа, причем г подчиняется условию -1 < г < -Н. Легко видеть, что при г2 ^ 1 каждая из случайных величин £| и & подчинена одномерному закону. Действительно, X, Fl(xl) = P{tl<xl} = F(xu+oo) = CJ J exp{-Q(x9y)}dxdy = -00 -00 Так как Ы-Н^-^ГЬ-*^
124 Глава 4. Случайные величины и функции распределения то F,(x,) = BCV^ f ехр{-^Г^0- г*) }dx- (2) -00 Постоянная С может быть выражена через А, В и г. Эту зависимость можно найти из условия F\ (+оо) = 1. Имеем: 1 = BCVbi f ехр {-(Ж~в) (1 _ Г2Л dx = АВСу/Ъс Г Г г2Л 2АВСж = -7гг7гУехрГТГ = 7Г^- Отсюда 2тгАВ ' Если г2 ^ 1, то мы положим А = (7, \Л - Г2, Б = <72\/1-Г2. В этих новых обозначениях двумерный нормальный закон принимает такой вид: Х\ Х2 F{XuXl) = 2*wVT=?f /exp{-2(rhfx -00 -00 r(x-g!,2r(,-.)(i,-t) + (jL-g11 L *| *l*2 ^2 J J Теоретико-вероятностный смысл входящих в эту формулу параметров будет выяснен в следующей главе. Подобно тому как это было сделано в одномерном случае, для многомерных функций распределения можно установить ряд свойств. Мы приведем их формулировки, предоставив читателю их доказательства. Функция распределения 1) есть неубывающая функция по каждому аргументу, 2) непрерывна слева по каждому аргументу, 3) удовлетворяет соотношениям F(+oo, +оо,... ,+оо) = 1, lim F(x\,x2,..., xn) = 0 (l^fc^n) 1*-+-00 при произвольных значениях остальных аргументов. В одномерном случае мы видим, что перечисленные свойства необходимы и достаточны, чтобы функция F(x) была функцией распределения некоторой случайной величины. В многомерном случае, оказывается, этих свойств уже недостаточно. Для того чтобы функция F{xu... ,жп) была функцией распределения, помимо перечисленных трех свойств, нужно добавить еще следующее:
§20. Многомерные функции распределения 125 4) при любых а, и 6,- (t = 1, 2,..., п) выражение (1) не отрицательно. Что это требование может быть не выполнено, несмотря на наличие у функции F(x\,... ,хп) свойств 1)-3), показывает следующий пример. Пусть _, ч ] 0, если х ^ 0, или х + у ^ 1, или у ^ 0, * (ж> У) = \ , I 1 в остальной части плоскости. Эта функция удовлетворяет требованиям 1)-3), но для нее F(l9 1) - F(l, 1/2) - F(l/2,1) + F(l/2,1/2) = -1, (3) и, следовательно, четвертое требование не выполнено. Функция F(x, у) не может быть функцией распределения, так как разность (3) согласно соотношению (1) равна вероятности попадания точки (£i,&) в прямоугольник l/2^^i < 1, 1/2 ^£2 < 1. Если существует такая функция р(жь#2, ••• ,#п)> что при любых х\,Х2,...9хп имеет место равенство Х\ Х2 Хп F(xi,x2,..., хп) = / / • • / Р(*\> Ъ, ...,zn)dzn... dz2 dzu -00 -00 -00 то эта функция называется плотностью распределения вероятностей случайного вектора (£i, £2,...,&»)• Легко видеть, что плотность распределения обладает следующими свойствами: 1) p(zi,z2,...,Zn)^0. 2) Вероятность попадания точки (£ь£2,... ,£п) в какую-нибудь область G равна / ... / p(x\,x2,...,xn)dxn...dxl. В частности, если функция (х\,Х2,... ,хп) непрерывна в точке (х\,...,хп), то вероятность попадания точки (^, £2, • • •, £п) в параллелепипед хк ^ & < ж* + dxjk (А; = 1,2,..., п) с точностью до бесконечно малых высших порядков равна р(х\, ж2,..., хп) dxx dx2... dxn. Пример 3. В качестве примера n-мерной случайной величины, имеющей плотность, приведем величину, равномерно распределенную в п-мерной области G. Если через V обозначим n-мерный объем области G, то плотность распределения будет равна p(z,,z2,...,sn) = j ' если (х\9хг9...,хп) i G, если (xux29...9xn) £ G.
126 Глава 4. Случайные величины и функции распределения Пример 4. Плотность двумерного нормального закона дается формулой Р(х> У) = /==* х 1 2(1 - Г2) L *? *1*2 ^2 J J Заметим, что плотность нормального распределения сохраняет постоянное значение на эллипсах 2 2Г + 2 = Л ' (4) (7f (7,(72 (TJ где Л — постоянная; на этом основании эллипсы (4) носят название эллипсов равных вероятностей. Найдем вероятность попадания точки (£i,&) внутрь эллипса (4). По определению плотности Р(Х) = JJp(x,y)dxdy, (5) С(Х) где через G(X) обозначена область, ограниченная эллипсом (4). Для вычисления этого интеграла введем полярные координаты: х - а = р cos 0, у - Ь = р sin 0. Интеграл (5) при этом принимает вид 2тгЛ/з л/1-г2 Р(Л) = 1—= [ [ exp -£s2pdpdO, 27r(7i(72Vl -Г2 J J 2 где для краткости обозначено 1 1-г Интегрирование по р дает: cos2 в cos в sin 0 sin2 0 —у- - 2г + —— 0| 0*102 0*2 J 1 - exp Р(А) = I 2(1 -г2)/ >d0 i^VT^T2 У 52' 27Г(7](72У 1 - 1 О Интегрирование по 0 можно выполнить по правилам интегрирования тригонометрических функций, но в этом нет необходимости, так как оно автоматически производится с помощью вероятностных соображений. Действительно, 2тг Р(+0О)=1=—и_/з
§20. Многомерные функции распределения 127 Отсюда Г dO > \ — — 2lt(T\(T2V\ - Г2 о и, стало быть, P(A>=1-eXP{-2(T^)}- Нормальное распределение играет исключительно большую роль в различных прикладных вопросах. Распределение многих практически важных случайных величин оказывается подчиненным нормальному закону распределения. Так, например, огромная практика артиллерийских стрельб, произведенная в различных условиях, показала, что рассеивание снарядов на плоскости при стрельбе из одного орудия на определенном прицеле подчиняется нормальному закону. В главе 8 мы увидим, что эта «универсальность» нормального закона объясняется тем, что всякая случайная величина, являющаяся суммой очень большого числа независимых случайных величин, каждая из которых оказывает лишь незначительное влияние на сумму, распределена почти по нормальному закону. Важнейшее понятие теории вероятностей — независимость событий — сохраняет свое значение и для случайных величин. В соответствии с определением независимости событий мы скажем, что случайные величины £|, £2> • • •, in независимы, если для любой группы £,,, £,-2,..., £,Л этих величин имеет место равенство Р{&, < *•, > & < *i2. • • • > iik < хч) = Pfe. < *•'.М&2 < *<2) • • • р{& < **Л при произвольных ж,-,, ж,-2,..., X{k и любом к (1 ^ к ^ п). В частности, для произвольных х\9 ж2,..., жп выполняется равенство P{£l <XU 6<S2, ..., in<Xn} = Ht\ <«l}P{6<«2}...Pttn<»n} или в терминах функции распределения F(xu х2, .. •, xn) = JPj(x])F2(x2)... Fn(xn), где Fk(xk) означает функцию распределения величины &. Легко видеть, что верно и обратное предложение: если функция распределения F(x\, ж2,..., жп) системы случайных величин £i, £2,..., £п имеет вид F(a:i, ж2,..., xn) = Fx{xx)F2{x2)... Fn(xn), где функции -Р*(ж*) удовлетворяет соотношениям Л(+оо)=1 (fc=l,2,...,n), то величины £i, £2,..., £п независимы и функции F\ (x\), F2(x2),..., ^п(жп) являются их функциями распределения. Проверку этого предложения мы предоставляем читателю.
128 Глава 4. Случайные величины и функции распределения Пример 5. Рассмотрим n-мерную случайную величину, компоненты которой £i,&> •••>&! являются взаимно независимыми случайными величинами, распределенными по нормальным законам -оо В рассматриваемом примере функция распределения равна F(xux2,...,xn) = (27гр/2 fjV J exp j-^J^ } dz. Если независимые случайные величины £i,&,...,£п имеют плотности распределения р\{х\),pi{xi),... ,pn(xn), то n-мерная величина (£i > &, • • • > £п) имеется плотность распределения, равную р(ж,, хъ ..., хп) = Pi(xi)p2(^2)...Рп(жп). Пример 6. Если величины £ь&,...,£п независимы и имеют плотности распределения Ыж)=^^ехрг-я~/ (К^П)' то n-мерная плотность распределения величины (£ь 6> • • • >6») равна . . (2тг)-"/2 Г l^fo-a»)^ p(xux2,...,xn) = — —exp <-,2^ ~2 Г (6) При п = 2 эта формула принимает вид Р(ж1,ж2) = ехр< = 5 Г* 2ТГ(7,(72 I af (Т\ ) Сравнение этой функции с плотностью двумерного нормального закона (пример 4) показывает, что для независимых случайных величин £| и & параметр г равен 0. При п = 3 формула (6) может быть истолкована как плотность распределения вероятностей компонент £i, £2> 6 скорости молекулы по осям координат (распределение Максвелла), если только предположить, что /г2 - /г2 - /г2 - * где га — масса молекулы, а h — константа.
§ 21. Функции от случайных величин 129 §21. Функции от случайных величин Сведения, полученные нами о функциях распределения, позволяют нам приступить к решению следующей задачи: по функции распределения F(x\,х2,...,хп) совокупности случайных величин £|,£2,• • •,6» определить функцию распределения Ф(у, ,у2,...,Ук) величин г/, = /, (£,, £2,..., £*), V2 = /2((|»&»--- »£п)» ..., I/* = /*(£ь6>--->6»)- Общее решение этой задачи весьма просто, но требует расширения понятия интеграла. Чтобы не отвлекаться в сторону чисто аналитических вопросов, мы ограничимся рассмотрением важнейших частных случаев: дискретных и непрерывных случайных величин. В следующем параграфе будут изложены определение и основные свойства интеграла Стилтьеса; там мы дадим общую запись важнейших результатов настоящего параграфа. Рассмотрим сначала случай, когда n-мерный вектор (£i,&,... ,£п) имеет плотность распределения вероятностей р(х\, х2, • • • ,хп). Из предыдущего видно, что искомая функция распределения определяется равенством ЦУ\,У2, ...,»*)=/•••/ Р(зь я2, •••>*«) dx\ dx2... dxn, D причем область интегрирования D определяется неравенствами fi(xux2,...,xn) <У1 («' = 1,2,...,*). В случае дискретных случайных величин решение, очевидно, дается с помощью n-мерной суммы, также распространенной на область D. Мы применим теперь только что сделанное нами общее замечание относительно решения поставленной нами общей задачи к нескольким важным частным случаям. Функция распределения суммы. Пусть требуется найти функцию распределения суммы если р(х\,Х2,..., хп) — плотность распределения вероятностей вектора (£ь6> ••• >£п)- Искомая функция равна вероятности попадания точки (£\Ль---Лп) в полупространство & + 6 + • • • + in < х и, следовательно, Ф(х) = I ... I р(хихъ...,xn)dx{dx2...dxn. Рассмотрим подробнее случай п = 2. Предыдущая формула принимает в этом случае такой вид: Х-Х2 Ф(х) = // р(х\,х2) dx\dx2 = I p(x\,x2)dx\dx2. (1) Х\+Х2<Х -00 5 Курс теории вероятностей
130 Глава 4. Случайные величины и функции распределения Если величины £i и £2 независимы, то р(х\,х2) = Р\{х\)р2{х2) и равенство (1) может быть записано в таком виде: Х-Х2 Ф(х)= / dxx I P\(xi)p2(x2)dx2= / dxx I P\{x\)p2{z - xx)dz = -00 -00 x = / dzl I •p\(x\)j>2{z-xx)dx\\. (2) -00 В общем случае формула (1) дает: X Ф(х) = / dx\ p(z,x\ - z)dz. (3) -00 Последние равенства доказывают, что если многомерное распределение слагаемых имеет плотность распределения вероятностей, то их сумма также имеет плотность распределения. Эта плотность в случае независимых слагаемых может быть записана в виде р(х) = I рх(х - z)p2{z) dz. (4) Рассмотрим примеры. Пример 1. Пусть £i и £2 независимы и равномерно распределены в интервале (а, Ь). Найти плотность распределения суммы г/ = £1 + £2- Плотности распределения вероятностей ^ и £2 равны {0, если х ^ 1 , если a < b- a а или х > 6, x <b. По формуле (4) находим, что ь pv(x) = / P\(z)p2(x -z)dz = —- / p2(x - z) dz. Из того, что при х <2a x-z<2a-z<a, а при х > 2b x-z>2b-z>b, заключаем, что при х <2а и х > 2Ь pv(x) = 0.
§ 21. Функции от случайных величин 131 Пусть теперь 2а < х < 2Ь. Подынтегральная функция отлична от нуля только при тех значениях z, которые удовлетворяют неравенствам а < х-z <b или, что то же самое, неравенствам x-b<z<x-a. Так как х > 2а, то х - а > а. Очевидно, что х - а ^ Ь при х ^ а + Ъ. Следовательно, если 2а < х ^ а + 6, то ж- 2а 2* Точно так же при а + 6 < х ^ 26 2b-х Jb^ay Собрав вместе полученные результаты, находим, что О при х ^ 2а и х > 2Ь, Рч(х) = { 2а (Ъ-аУ 2Ь-х при 2а < х ^ а + 6, при а + Ь < х ^ 26. (5) Функция Prf(x) носит название закона распределения Симпсона. Вычисления в рассмотренном примере значительно упрощаются, если воспользоваться геометрическими соображениями. Изобразим, как обычно, 6 и 6 как прямо- , a f f (а+ь<ж<2Ь) угольные координаты на плос- ' - кости. Тогда вероятность неравенства £i + 6 < х при б|- — 2а < х ^ а + Ь равна вероятности попадания в дважды заштрихованный прямоугольный треугольник (рис. 16). Эта вероятность, как легко подсчитать, равна При a+b < x^2b вероятность неравенства 6 + 6 < ж равна Рис. 16 ^-\-^2=х \(2а<х<а+Ъ) *.
132 Глава 4. Случайные величины и функции распределения вероятности попадания во всю заштрихованную фигуру. Эта вероятность равна Дифференцирование по х приводит нас к формуле (5). В связи с рассмотренным примером интересно заметить следующее. Общие вопросы геометрии привели Н.И.Лобачевского к необходимости решения следующей задачи: имеется группа из п взаимно независимых случайных величин £ь 6,..., £п; найти распределение вероятностей их среднего арифметического. Эта задача была им решена только для случая, когда все ошибки равномерно распределены в интервале (-1, 1). При этом оказалось, что вероятность ошибке среднего арифметического заключаться в пределах от -ж до ж равна P(I)-±V ( >-nx-2rf ЭД 2»-'^( Ц (г!)2(п-г)! ' где суммирование распространяется на все целые г от г = 0 до г = п — пх~\ Пример 2. Двумерная случайная величина (£i,6) распределена по нормальному закону р(х9 у) = 27T<7i(T2\/l -Г2 \ 2(1 - г2) V ai cm (т\ )) Найти функцию распределения суммы г/ = £| +&• Согласно формуле (3), 27Г(7|(72\^1-Г2 Обозначим для краткости х - a - Ь через v и z - а через и; тогда Рп(х) = ■==== / ехр< - — - -^-^г— - + -—=-^- ?dtt. *W 2ТГ(7,(72\/Ь1ЙУ I 2(l-r2)V^? <^2 (Т\ )) Так как U2 tt(v - tt) (V - tt)2 2 <7? + 2г<71<72 + (7? л (Tj + Г<72 V2 -J - 2Г + 2 = M П " 2ш> 2~~ + — = 0, a\a2 0*2 ^i^l ^i^ ^2
§21. Функции от случайных величин 133 _ / yJa2 + 2raia2 + al у <ri+r<r2 \ yja} + 2raxa2 + (rl у 0\+го2 \ v2(l-r2) = и а^ *2 jo] + 2raxa2 + a\) °* + 2г<Г|<Г2 + *! то, введя обозначение _ 1 / у/а2 + 2г(гХ(г2 + <т2 ^ v J, + Г(72 ~ %/П^2" ^ «7,(72 <Г2 ^02 + 2^*2+О}) ' мы приведем выражение для р^(ж) к виду СХР { 2(^ + 2^ + ^)) /» J fi\ р„(х) = , / exp i -- \ dt. 2-kJo\ + 2ro\02 + o\ J V l > Так как v — x-a-Ь и/ exp < -— > dt — Vbr, то , . 1 Г (s-a-fr)2 "j В частности, если случайные величины £| и £2 независимы, то г = О и формула для pv(x) принимает вид 1 Нами получен, таким образом, следующий результат: сумма нормально распределенных случайных величин распределена по нормальному закону. Интересно заметить, что когда слагаемые независимы, имеет место и обратное предложение (теорема Г. Крамера): если сумма двух независимых случайных величин распределена по нормальному закону, то каждое слагаемое также распределено по нормальному закону. Мы не останавливаемся на доказательстве этого предложения, так как оно требует более сложного математического аппарата.
134 Глава 4. Случайные величины и функции распределения Пример 3. Распределение х2- Пусть £ь&,...,£п — независимые случайные величины, распределенные по одному и тому же нормальному закону с параметрами а и а. Функция распределения величины к=\ носит название х2 -распределения. Это распределение играет важную роль в различных вопросах статистики. Мы вычислим сейчас функцию распределения величины £ = x/V™- Она окажется независимой от а и а. Очевидно, что для отрицательных значений аргумента функция распределения Ф(у) величины £ равна 0; для положительных значений у функция Ф(у) равна вероятности попадания точки (£ь£2, •• • ,£п) внутрь шара п ^Г (хк -а)2 = у2п- а2. к-\ Таким образом, Ф(У) = / • • • I [~7= ) ехр | - j 5^ ж,? f dXl dXl" dXn' Перейдем для вычисления этого интеграла к сферическим координатам, т. е. сделаем замену Х\ = р COS 0\ COS 02 ... COS 0n_i, х2 = Рcos0i cos02... sin 0n_i, xn = psin0|. В результате этой замены тг/2 тг/2 уу^ 2 -тг/2 -тг/2 0 ^ ' =Cny,exp|-^|/-,rfp, о где постоянная тг/2 тг/2 Cn = 7^FT / ""■ / д(в«---в»-«)йвп-1...й91 4 ' -тг/2 -тг/2 зависит только от п.
§ 21. Функции от случайных величин 135 Эту постоянную легко вычислить, пользуясь равенством Ф(+оо)=1=Сп|ехр{-^}/-'ф = С^(д)-2^ О Отсюда находим, что Уу/п ^)=^4^2)/^'ехр{-т}^ о Плотность распределения случайной величины £ при у ^ О равна п-] ( П912 Г(|./2) \V2 ) Л)=^(^у-Ир{4}- w Отсюда, в частности, при п = 1 мы получим, естественно, плотность распределения, равную удвоенной плотности исходного нормального закона ^) = у|ехр{-у} <у>°)- При п = 3 мы получаем известный закон Максвелла м 3VS 2 f ЗуЧ Из формулы (6) легко вывести плотность распределения величины х2 • Эта плотность равна 0 при ж ^ 0, а при х > О д.п/2-l еХр 2"/2Г(п/2) ' Распределения величин, тесно связанных с х2 и часто используемых на практике, сведем в таблицу (см. табл. 13). Пример 4. Функция распределения частного. Пусть плотность распределения вероятностей величины (£, rj) равна р(х,у). Требуется найти функцию распределения частного £ = £№• Согласно определению, ад = р{ш < *}. Если (иг/ изображают координаты точки на плоскости, то F$(x) равна вероятности того, что точка (£, rj) попадает в область, координаты точек которой удовлетворяют неравенству ^/г/ < ж. На рис. 17 эта область заштрихована.
136 Глава 4. Случайные величины и функции распределения Таблица 13 Величина *2 = ^Х>-«)2 ^-igfe-tf I ^ it*-* Плотность распределения при а; > 0 а^-'ехр^ж/г} 1 2»>2Г(п/2) Г(п/2)Х еХр1 2/ 2 x-'cxuf *2) 1 2-^Г(п/2)* Pl 2J л/2п /Жх/пч"-1 f пж21 Согласно общей формуле, искомая вероятность равна 00 ZX *<(«) = / / p(y,z)dydz + О -оо О оо + у Jp(y,z)dydz. (7) Отсюда вытекает, что если £ и г/ независимы, а pi(#) и Р2(я) — их плотности распределения, то Рис. 17 Fc(x) = f F](xz)p2(z) dz + у (1 - F,(a*))ft(z) rfz. (Г) Продифференцировав (7), находим, что оо и О -оо В частности, если £ и г/ независимы, то оо О Р<(ж)= / zp\(zx)p2(z) dz - / гр,(гж)р2(^)^. (8) (8')
§ 21. Функции от случайных величин 137 Пример 5. Случайная величина (£, rj) распределена по нормальному закону р(х'у)=w2!/n^exp {-lob) К -2r^+Я }• Найти функцию распределения частного £ = £/77. По формуле (8) оо О О -оо Г z2 \<т\х2-2гаХ(т2х + (т2А\ Л /* Г z1 a\x2 -2ra\a2x + a2A , ^УгехрГ5(ГГ^) ^ }л- 7T(7i(72\/T О Произведем под интефалом замену, положив z2 о\х2 - 2г<7102Ж + (т2 U = 2(1-Н) 2^2 (77(7*: lv2 Выражение для р^(х) при этом принимает такой вид: . 00 . .. (7,(72У1-Г2 Г (7i(72Vl-r2 рЛх)= ,2>>^ т\ / exp{-ti}rfti= / гг-; 47 7r(ajx2-2rala2x-\-a2]) J ir(alx2-2r<r]<r2x + <r2]) если, в частности, величины £ и г/ независимы, то , ч <^2 ftW = «(a2 + a22x2Y Плотность распределения величины £ называется законом Коши. Пример 6. Распределение Стьюдента. Найти функцию распределения частного С = £/*7> где £ и г/ — независимые величины, причем £ распределено по нормальному закону а V = X/V" (см. пример 3), *(x) = W2jbi\) ехр{--)-
138 Глава 4. Случайные величины и функции распределения Согласно формуле (8') ~ п-1 0 = /-т./ /^ / -7=" exP^ —^r(x + 0 ?wzdz. y/nr(n2)J \V2 J K\ 2 v ;J Сделав замену находим, что W=—(Ж2 + 1), (n+l)/2 » Г '<«=ii^r/«<-,",-f-»),»=^7Z(^1)-» (¥) О Плотность распределения вероятностей Г т носит название закона Стьюдента (Стьюдент — псевдоним английского статистика Госсета, впервые нашедшего этот закон эмпирическим путем). При п = 1 закон Стьюдента превращается в закон Коши. Пример 7. Поворот осей координат. По функции распределения двумерной случайной величины (£, rj) найти функцию распределения величин £' = £ cos a + г] sin а, т/ = -£ sin а + г/ cos а. Обозначим через F(x, у) и Ф(ж, у) функции распределения величин (£, г/) и (^,,г//) соответственно. Если мы станем изображать (£, г/) и (£', г/') как прямоугольные координаты точки на плоскости, то легко видеть, что система осей £'Orf получается из системы £От) путем поворота последней на угол а. Мы ограничимся случаем О < a < 7г/2, предоставив читателю вывод аналогичных формул для остальных значений а. Обозначим через р(х, у) плотность распределения вектора (£, ту) и через 7г(ж, у) — вектора (£', rf). Из (9) находим, что £ = £' cos a-rj sin a, г/ = £' sin а + j/ cos а. и, следовательно, 7г(ж, у) = р(ж cos a - у sin а, ж cos а + у cos а). (10)
§ 21. Функции от случайных величин 139 Это равенство дает возможность получить формулу, связывающую функции распределения векторов (£, г/) и (^',г//). При разыскании формулы следует учитывать геометрическую картину. Пример 8. Двумерная случайная величина (£, rj) распределена по нормальному закону 1 Г 1 IV ху у2]} Р(Х>У) = ^ТГГР СХР Г 2(ГГЙ) [^ - »— + ^ }• Найти плотность распределения случайных величин £ = £ cos a + r/ sin a, г/' = -£ sin а + rj cos а. Согласно равенству (10) п(х, у) = р(х cos a-у sin a, x sin а + у' cos а) = = ^7=т ехР (-^ТГ^Т [^'2 - 2ВХ'У' + Су12] ), 27Г(71(72\/Т^72 *Ч 2(1 - Г2) L * * JJ где обозначено cos2 a ^ cos a sin а sin2 а ^ = ~— - 2Г + 0*1 0*10*2 ^2 cos а sin а sin2 а - cos2 а cos а sin а Б = = г- (7,(72 sin2 а _ cos а sin а cos2 а С = —=- + 2г + (72 (7,(72 (7^ Из полученной формулы мы заключаем, что поворот осей переводит нормальное распределение в нормальное. Заметим, что если угол а выбран так, что 2Г(71(72 tg2a= -2 J' (72 - (72 то Б = 0 и , к 1 / Ах'2 By'2 7г(х,у) = - ехр {- 2тг(71(72\/Г^72 1 2(1-г2) 2(1-г2) Это равенство означает, что любая нормально распределенная двумерная случайная величина путем поворота осей координат может быть приведена к системе двух нормально распределенных независимых случайных величин. Этот результат может быть перенесен на n-мерные случайные величины. Можно доказать более сильное предложение, исчерпывающе характеризующее нормальное распределение вероятностей. Пусть распределение
140 Глава 4. Случайные величины и функции распределения вероятностей на плоскости таково, что оно не лежит целиком на какой- либо прямой. Для того чтобы это распределение было нормальным, необходимо и достаточно, чтобы двумя различными способами можно было на плоскости выбрать оси координат &0& и г)\Ощ такие, что координаты £| и £2, так же как т)\ и щ, рассматриваемые как случайные величины с заданным распределением вероятностей, были бы независимы. § 22. Интеграл Стилтьеса Дальнейшее изложение существенно использует понятие интеграла Стилтьеса. Для облегчения изучения последующих параграфов мы приводим здесь определение и основные свойства интеграла Стилтьеса, не останавливаясь при этом на доказательствах. Предположим, что в интервале (а, Ь) определены функция f(x) и неубывающая функция F(x) с ограниченной вариацией. При этом мы для определенности будем предполагать, что функция F(x) непрерывна слева. Если а и Ь конечны, то разделим интервал (а, Ь) точками a = Xq < Х\ < Х2 < ... < хп = Ь на конечное число частичных интервалов (ж,-, #i+i) и образуем сумму п 1=1 где ж, — произвольное число, выбранное в интервале (ж,_1,ж,). Станем теперь увеличивать число точек подразделения, одновременно приближая длину максимального из частичных интервалов к нулю. Если при этом написанная выше сумма стремится к определенному пределу п то этот предел называется интегралом Стилтьеса от функции f(x) с интегрирующей функцией F(x) и обозначается символом ь J = ff(z)dF(z). (2) a Несобственный интеграл Стилтьеса, когда промежуток интегрирования бесконечен, определяется обычным путем: рассматривается интеграл по произвольному конечному интервалу (а, 6); величины а и Ь произвольным образом заставляют стремиться к -оо и +оо; если при этом существует предел ь lim а-*-оо Jf(x)dF(x),
§ 22. Интеграл Стилтьеса 141 то этот предел называется интегралом Стилтьеса от функции f(x) по функции F(x) в промежутке (-оо, оо) и обозначается Jf(x)dF(x). Можно доказать, что если функция f(x) непрерывна и ограничена, то предел суммы (1) существует, как в случае конечных, так и в случае бесконечных пределов интегрирования. В некоторых случаях интеграл Стилтьеса существует и для неограниченных функций f(x). Для теории вероятностей рассмотрение таких интегралов представляет значительный интерес (математическое ожидание, дисперсия, моменты и пр.). Заметим, что всюду в дальнейшем мы считаем, что интеграл от функции f(x) существует тогда и только тогда, когда существует интеграл от \f(x)\ с той же интегрирующей функцией F(x). Для целей теории вероятностей важно распространить определение интефала Стилтьеса на тот случай, когда функция f(x) может иметь конечное или счетное множество точек разрыва. Можно доказать4), что всякая Офаниченная функция, имеющая конечное или счетное множество точек разрыва, в частности, всякая функция офаниченной вариации, ин- тефируема при любой интефирующей функции офаниченной вариации. При этом требуется несколько видоизменить само определение интефала Стилтьеса, именно, при образовании предела (1) надо рассматривать только такие последовательности подразделений интервала интефирова- ния на части, что каждая точка разрыва f(x) входит в число точек деления всех подразделений, за исключением, быть может, конечного числа их. Заметим, что при установлении пределов интефирования важно указывать, включается в промежуток интефирования или нет тот или иной его конец. Действительно, из определения интефала Стилтьеса мы получаем следующее равенство (символ а - 0 означает, что а включено в промежуток интегрирования, а символ а+0 — что а исключено из него): г / /(х) dF(x) = Hm £ /О*) [Ffo) " *"(**-■)] = J n-*oo *г~ «-0 '=' П = Hm У2 /(*«) №) " р(*-д] + lim /(*') №) " ^М = п-юо Х\-¥Хо=а *'=2 Ь = f f{x) dF(x) + f(a)[F(a + 0) - F(a)}. а+0 4* См. Гливенко В. И. Интеграл Стилтьеса. М.—Л.: Главная редакция общетехнической литературы и номографии, 1936. С. 116.
142 Глава 4. Случайные величины и функции распределения Таким образом, если /(а) /Ои функция F(x) имеет скачок при х = а, то ь ь f f(x) dF(x) - f f(x) dF(x) = f(a)[F(a + 0) - F(a - 0)]. a-0 a+0 Это обстоятельство указывает на то, что интеграл Стилтьеса, распространенный на промежуток, сводящийся к одной точке, может давать отличный от нуля результат. Мы условимся в дальнейшем, если не будет сделано особой оговорки, правый конец промежутка исключать, а левый включать в интервал интегрирования. Это условие позволяет написать следующее равенство: ь Г dF(x) = F(b) - F(a). a В самом деле, по определению, ь fdF(x)= lim J2 [Fixd-Fizi-t)] = lim [F{xn)-F(xQ)] =F(b)-F(a) a ,==l (напомним, что F(x), по определению, непрерывна слева и для нее, следовательно, F(b) = lim F(b - е)). В частности, если F(x) есть функция распределения случайной величины £, то ь ь f dF(x) = F(b) - F(a) = P{a ^ £ < 6}, f dF(x) = F(b) = P{£ < 6}. О -00 Если F(x) имеет производную и является интегралом от нее, то из того, что по формуле конечных приращений F(x{) - Ffa-i) = р(х{)(хг - Xi-i), где Х{-\ < Xi < X{, следует равенство г / /(x) dF(x) = lim £ /(xO(F(x.) - F(x,_,)] = = lim У2 f(xi)p(xi)(Xi - Xj_i) = / /(x)p(x) dx. n-*oo *—■* / Мы видим, что в этом случае интеграла Стилтьеса сводится к обыкновенному интегралу.
§ 22. Интеграл Стилтьеса 143 Если F(x) имеет скачок в точке х = с, то, выбрав подразделения так, что при некоторых значениях индекса ж* < с < Xk+\, имеем: ь [ f(x) dF(x) = lim JZ /®) [fte) - F(*i-\)] + J n->oo f—' о ,= l n + /(c)[F(xfc+l)-F(x*)]+lim У) f(xi)[F(xi) - Fto-d] = П-ЮО *—*' i=*+2 с & = | /(«) dF(x) + | /(e) dF(e) + /(c)[F(c + 0) - F(c - 0)]. a c+0 В частности, если изменение функции F(x) происходит только в точках С|,С2,... ,**!>•••» ТО / f(x) dF(x) = J2 /(<*.) [^(О. + 0) - *(<*. - 0)], и интеграл Стилтьеса сводится к ряду. Перечислим основные свойства интеграла Стилтьеса, которые нам потребуются в дальнейшем. Доказательства этих свойств легко могут быть проведены читателем, исходя из определения интефала Стилтьеса и пользуясь рассуждениями, используемыми в теории обычного интефала. 1. При a < с\ < с2 < ... < с„ < & Ь п *+, [ f(x)dF(x) = J2 [ f(*)dF(x) [a = Co, Ь = сь+|]. . »'=° { 2. Постоянный множитель выносится за знак интефала ь ь Г cf(x) dF(x) = с f f(x) dF(x). a a 3. Интефал от суммы функций равен сумме их интефалов г * п г / J2 /<(*) dF(*) = £ / /<(*) dF{&- « «=■ •=■ - 4. Если /(х) ^ 0 и Ь > о, то ъ J f(x)dF(x)>0.
144 Глава 4. Случайные величины и функции распределения 5. Если F\(x) и F2(x) — монотонные функции с ограниченным изменением, а С\ и с2 — произвольные постоянные, то ь ь ъ f f(x) d[C]Fi(x) + c2F2(x)] = с, f f(x) dFx(x) + c2f f(x) dF2(x). 6. Если F(x) = f g(u)dG(u), где с — константа, g(u) — непрерыв- c ная функция и G(u) — неубывающая функция с ограниченным изменением, то о о j /(*) dF(x) = j f(x)g(x) dG(x). Использовав понятие интеграла Стилтьеса, мы можем написать общие формулы для функции распределения суммы F(x) = JFl(x-z) dF2(z) = f F2(x - z) dFx{z) двух независимых слагаемых, а также частного £i/& оо О F(x) = Г Fx(xz) dF2(z) + Г [1 - Fx(xz)] dF2(z) 0 -oo независимых случайных величин £i, & в предположении, что Р{& = 0} = 0. Упражнения 1. Доказать, что если F(x) — функция распределения, то при любом h Ф О функции z+Л ж+Л Ф(х) = - / F(x)dx, Ф(ж) = — / F(x)dx х x-h также являются функциями распределения. 2. Случайная величина £ имеет F(x) своей функцией распределения (р(х) — плотность распределения). Найти функцию распределения (плотность распределения) случайной величины: а) rj = a£ 4- by a и b — вещественные числа; б) V = Cl (Р{* = 0}=0); в) v = tg£; г) ?7 = cos£; д) rf = /(£), где f(x) — непрерывная монотонная функция без промежутков постоянства.
Упражнения 145 3. Из точки (0, о) проведена прямая под углом <р к оси Оу. Найти функцию распределения абсциссы точки пересечения этой прямой с осью Ох, если а) угол <р равномерно распределен в промежутке (0,7г/2); б) угол (р равномерно распределен в промежутке (-тг/2,7г/2). 4. На окружность радиуса R с центром в начале координат наудачу брошена точка [иными словами, полярный угол точки попадания равномерно распределен в промежутке (-7Г, 7г)]. Найти плотность распределения а) абсциссы точки попадания; б) длины хорды, соединяющей точку попадания с точкой (-R, 0). 5. На отрезок оси ординат между точками (0,0) и (0, R) наудачу брошена точка (т. е. ордината этой точки равномерно распределена в промежутке (0, R)). Через точку попадания проведена хорда окружности х2 4- у2 = R2, перпендикулярная к оси Оу. Найти распределение длины этой хорды. 6. Диаметр круга измерен приближенно. Считая, что его величина равномерно распределена в отрезке (о, 6), найти распределение площади круга. 7. Плотность распределения случайной величины £ дана равенством 1/14// f Z f -Г. ехр{-ж} + ехр{а:} Найти: а) постоянную а; б) вероятность того, что в двух независимых наблюдениях ( примет значения, меньшие 1. 8. Функция распределения случайного вектора (£, rj) имеет вид: а) F(z9y) = Fl(z)F2(y) + F3(x); б) F(x,y) = Fl(x)F2(y) + F3(x) + F4(y). Могут ли функции F3(x) и F4(x) быть произвольными? Зависимы или независимы компоненты вектора (£, 77)? 9. На отрезок (0, а) наудачу брошены две точки [т. е. их абсциссы равномерно распределены в отрезке (0, а)]. Найти функцию распределения расстояния между ними. 10. На отрезок (0, о) брошены п точек. Считая, что точки разбросаны случайно [т. е. каждая из них расположена независимо от других и распределена равномерно в (0, о)], найти: а) плотность распределения абсциссы Аг-й слева точки; б) совместную плотность распределения абсцисс к-й и m-й точек слева (к<т). 11. Над случайной величиной ( с непрерывной функцией распределения произведено п независимых испытаний, в результате которых были наблюдены следующие значения величины £: xi9 х2,..., хп. Найти функцию распределения случайных величин: а) Vn = max(z,,z2,...,zn); б) ifo==min(a5|,s2,...,S|,); в) fc-ro по величине результата наблюдения; г) совместного распределения fc-ro и m-го по величине результатов наблюдения.
146 Глава 4. Случайные величины и функции распределения 12. Функция распределения случайного вектора (£ь&. ••• Лп) равна F(x\, х2,..., хп). В результате испытания компоненты вектора получили значения (z\,z2,..., zn). Найти функцию распределения случайной величины: а) rfn = max(z,,z2,...,zn); б) £n = min(z,,z2,...,zn). 13. Случайная величина ( имеет непрерывную функцию распределения F(x). Как распределена случайная величина %} = F(()? 14. Случайные величины £ и rj независимы; их плотности распределения определяются равенствами р$(х) = рп(х) = 0 при х ^ О, Р{(х) = C\Xa exp {-/3x}, pn(x) = CiX1 exp {-#с} при х > 0. Найти: а) постоянные С| и с2; б) плотность распределения суммы £ 4- 77. 15. Найти плотность распределения суммы независимых случайных величин £ и 77, первая из которых равномерно распределена в сегменте (-Л, Л), а вторая имеет функцию распределения F(x). 16. Плотность распределения случайного вектора (£, 77, £) равна p(x,yfz)= < при ж > 0, у > 0, z > 0, (l + z + y + z)4 0 в остальных случаях. Найти распределение величины £ + V 4- С- 17. Найти распределение суммы независимых случайных величин £ и £2, если их распределения заданы условиями: а) Fi(x) = F2(x) = - + - arctg ж; z 7Г б) равномерно распределены соответственно в интервалах (-5,1); (1,5); в) Pi(x) = р2(х) = — ехр|- — |. 18. Плотность распределения независимых случайных величин £ и rj равна: \ / \ / \ 1 ' при ж^О, а) р;(х) = рп(х) = { i г —1 при ж > о (о > 0); -( ° ^ оехр{-ож} ■{ 0 при а: < 0, х > а б) Pt(x) = рщ(х) = \ 1 I/O при 0 < ж<о. Найти плотность распределения величины £ = £/77. 19. Найти функцию распределения произведения независимых сомножителей ( и 77 по их функциям распределения F\(x) и F2(x).
Упражнения 147 20. Случайные величины £ и ц независимы и распределены: а) равномерно в интервале (-а, о); б) нормально с параметрами a = 0, a = 1. Найти функцию распределения их произведения. 21. Стороны £ и rj треугольника представляют собой независимые случайные величины. По их функциям распределения F^(x) и Fn(x) найти функцию распределения третьей стороны, если угол между сторонами ( и rj равен постоянному числу а. 22. Доказать, что если величины £ и rj независимы и их плотность распределения равна 0 при х ^ 0, ■-{. Pt(x) = рщ(х) ■ 1 ехр {-х} при х > 0, то величины ( + rj н £/rf также независимы. 23. Доказать, что если величины £ и rj независимы и нормально распределены с параметрами а, = а2 = 0, <т, = <т2 = <т, то величины < = £2 + V2, * = */* также независимы. 24. Доказать, что если величины ( u rj независимы и распределены по закону х2 с параметрами га и п, то величины J = £/77 и £ = £ -f rj независимы. 25. Случайные величины £i,&» ••• »£п независимы и имеют одну и ту же плотность распределения rV2?r р(х)=_ехр|--_|. Найти двумерную плотность распределения величин »y=5Z& и С=Е& (я»<п). 26. Доказать, что любая функция распределения обладает следующими свойствами: 00 00 lim х / - dF(z) = О, lim x / - dF(z) = О, ж->оо J Z Z-++0 у Z X X X X iim x / - dF(z) =0, lim ж / - dF(z) = 0. x-+-oo -00 27. Над случайной величиной £, имеющей непрерывную функцию распределения F(x), проведены две серии независимых испытаний, в результате которых £ приняла значения, расположенные в порядке возрастания в каждой серии: ж, <х2<... <хм, У\ <Уг <... <Vn- Чему равна вероятность неравенств Ун < хт+{ < у„+и где т и /х заданные числа (0 < m < М, 0 < /х < N)?
148 Глава 4. Случайные величины и функции распределения 28. Случайная величина £ имеет непрерывную функцию распределения F(x). В результате п независимых наблюдений над £ получены следующие значения хх < х2 < ... < хп, упорядоченные по величине. Найти плотность распределения величины ^F(xn)-F(x2) V F(xn)-F(x,y 29. Случайные величины £ и rj независимы и одинаково распределены с плотностью распределения С Р*=Рг} = 1+Ж4' Найти постоянную С и доказать, что величина £/rj распределена по закону Коши. 30. Случайные величины £ и rj независимы, их плотности распределения соответственно равны Pt(z) = J— (M < 1); 7TVl -X2 / 0 при х ^ 0, Pv(X) " \ х ехр {-ж2/2} при ж > 0. Доказать, что величина £rj нормально распределена. 31. Пусть £ и £ независимы и имеют плотности распределения при х ^ 0, [Лехр{- Pt(x)=Pdx) , . г . , 1 Лехр{-Ла:} при х > 0. Доказать, что отношение 77 = -—- распределено равномерно на отрезке (0,1). 32. Случайные величины £ и rj независимы и равномерно распределены на отрезке (—1, 1). Вычислить вероятность того, что корни уравнения x2 + £x + rj = 0 вещественны. (Задачи 29-32 сообщены мне М. И. Ядренко.)
Глава 5 Числовые характеристики случайных величин В предыдущей главе мы видели, что наиболее полная характеристика случайной величины дается ее функцией распределения. Действительно, функция распределения одновременно указывает на то, какие значения может принимать случайная величина и с какими вероятностями. Однако в ряде случаев о случайной величине требуется знать гораздо меньше, требуется получить о ней лишь некоторое суммарное представление. Для теории вероятностей и ее приложений большую роль играют некоторые постоянные числа, получаемые по определенным правилам из функций распределения случайных величин. Среди этих постоянных, служащих для получения общей количественной характеристики случайных величин, особенно важны математическое ожидание, дисперсия и моменты различных порядков. § 23. Математическое ожидание Начнем изложение с рассмотрения следующего примера: предположим, что при стрельбе из некоторого орудия для поражения некоторой цели требуется один снаряд с вероятностью р\, два снаряда — с вероятностью р2, три снаряда — с вероятностью рз и т. д. Кроме того, известно, что п снарядов заведомо достаточно для поражения этой цели. Таким образом, известно, что Р\ +Р2 + ...+Рп = 1. Спрашивается, сколько в среднем потребуется снарядов для поражения указанной цели. Для получения ответа на поставленный вопрос будем рассуждать так. Предположим, что производится очень большое число стрельб в указанных выше условиях. Тогда на основании теоремы Бернулли мы можем утверждать, что относительное число стрельб, в которых для поражения цели потребовался только один снаряд, приблизительно равно р\. Точно так же два снаряда потребовалось приблизительно в ЮОрг % стрельб и т.д. Таким образом, «в среднем» на поражение одной цели потребуется приблизительно 1-pi +2.p2 + ... + n-pn снарядов.
150 Глава 5. Числовые характеристики случайных величин Аналогичные задачи по подсчету среднего значения случайной величины возникают в самых разнообразных задачах. Вот почему в теории вероятностей вводят в рассмотрение особое постоянное, носящее название математического ожидания. Мы сначала дадим определение для дискретных случайных величин, отправляясь от только что рассмотренного примера. Пусть Х\, Х2, . • • , Хп, . .. обозначают возможные значения дискретной случайной величины £, а — соответствующие им вероятности. 00 Если ряд 5Z хпРп сходится абсолютно, то его сумма называется п=1 математическим ожиданием случайной величины £ и обозначается М£. Для непрерывных случайных величин естественным будет следующее определение: если случайная величина £ непрерывна и р(х) — ее плотность распределения, то математическим ожиданием величины £ называется интеграл Щ = хр(х) dx в тех случаях, когда существует интеграл |ж|р(ж) dx. (о /- Для произвольной случайной величины £ с функцией распределения F(x) математическим ожиданием называется интеграл Щ = fxdF(x). (2) Пользуясь определением интеграла Стилтьеса, мы можем дать простое геометрическое истолкование понятию математического ожидания: математическое ожидание равно разности площадей, заключенных между осью ординат, прямой у = 1 У1 и кривой у = F(x) в интер- у= 1 вале (0, +оо) и между осью абсцисс, кривой у = F(x) и осью ординат в промежутке (-оо,0). На рис. 18 соответствующие площади заштрихованы и указано, с каким знаком следует взять в сумме каждую из площадей. Заметим кстати, что геометрическая иллюстрация позволяет математическое ожидание
§23. Математическое ожидание 151 записать в таком виде: О оо Щ = - Г F(x) dx+ Г (1 - F(x)) dx. (3) -оо О Сделанное замечание позволяет во многих случаях находить математическое ожидание почти без вычислений. Так, для случайной величины, распределенной по закону, указанному в конце § 19, математическое ожидание равно половине. Заметим, что среди рассмотренных нами ранее случайных величин, случайная величина, распределенная по закону Коши (пример 5 §21), не имеет математического ожидания. Перейдем к рассмотрению примеров. Пример 1. Найти математическое ожидание случайной величины £, распределенной по нормальному закону ау/2ж По формуле (1) находим, что 27 д Заменой z = мы приводим вычисляемый интеграл к виду / (х-а)2\ P(x) = -r7=txp^ —f-y Щ Так как = 7%J(<TZ+a)exp{-l}dz = =^/zexp Н} dz+^klexp {4}dz- / exp < - -— > dz = Vbr и / z exp < - — > dz = 0, то Мы получили важный результат, вскрывающий вероятностный смысл одного из параметров, определяющих нормальный закон: параметр а в нормальном законе распределения равен математическому ожиданию. Пример 2. Найти математическое ожидание случайной величины £, равномерно распределенной в интервале (а, 6). Имеем: ь Г dx Ъ2-а2 а + Ъ Щ= х- а Ь-о 2(6-0)
152 Глава 5. Числовые характеристики случайных величин Мы видим, что математическое ожидание совпадает с серединой интервала возможных значений случайной величины. Пример 3. Найти математическое ожидание случайной величины £, распределенной по закону Пуассона РК = Ц = ^Ер (* = о,,,2,...>. Имеем: V, а* ехр {-о} ^л а*ехр{-а} м* = Рпк ki— = Ь* зй— = Л=0 к=\ 00 а*"1 °° а* = аехр{-а} ^ ^—[у = аехР<-а} Y1 *7 = а- Если 2^(ж|Б) есть условная функция распределения для случайной величины £, то интеграл М(£|Б) = f xdF(x\B) (4) мы назовем условным математическим ожиданием случайной величины £ относительно события В. Пусть БЬБ2,...,БП — полная группа несовместимых событий и ^(ж|Б1),^(ж|Б2), ..., F(x\Bn) — соответствующие этим событиям условные функции распределения величины £. Обозначим через F(x) безусловную функцию распределения величины £; по формуле полной вероятности находим, что п F{x) = Y<P{Bk)F{x\Bk). k=\ Это равенство совместно с (4) позволяет нам получить следующую формулу: п М£ = 5>(Я*)М(№). (5) Только что найденная формула во многих случаях значительно упрощает вычисление математических ожиданий. Пример 4. Рабочий обслуживает п однотипных станков, расположенных прямолинейно на расстояния а друг от друга (рис. 19). Считая, что \ 2 k n Раб°чии обслуживает станки, подходя о-—«■>-—<>—к>—-о-—о-^^ к ним в порядке очередности, най- « и 1=(п-\)а I ти средний переход (математическое *"* ^ ожидание величины перехода) между Рис.19 станками.
§23. Математическое ожидание 153 Пронумеруем станки слева направо от 1-го до n-го и обозначим через Вк событие, состоящее в том, что рабочий находится у станка с номером к. Так как все станки по условию задачи однотипны, то (к) вероятность р) того, что следующим станком, потребующим внимания рабочего, будет станок с номером i, равна \/п (1 ^ t ^ п). Величина перехода Л в этом случае равна \ (t - к)а при к ^ t, при к < г. По определению М(Л|В*) = \ (£ (к - г)а + £ (• - *)а) = o/fc(fc-l) (п - к)(п - к + 1)\ е-, Л/ ., , ч1 = Д"5"^* ^з )^ьг [2fc2-2(n+l)fc + n(n+l)]. Вероятность рабочему находиться у А;-го станка равна 1/п, поэтому по формуле (5) находим, что г* МХ = ^2^Ьf2fc2 - 2(п + 1)* + п(п +])]. Известно, что *-. 2"2 у^ 2 _ Гф + 1)(2П + 1) 6 поэтому о(п2 - 1) I МЛ = v ; - Зп -К-Э- где / = (п - 1)а означает расстояние между крайними станками. Математическим ожиданием n-мерной случайной величины (^ ,&>••• ..., £п) называется совокупность п интегралов ак = I ... I хк dF(xu-.•, хк,..., хп) = / хdFk(x) = М&, где ^(ж) — функция распределения величины & 1К ^ Мы не даем формального определения n-мерного интефала Стилтьеса, во-первых, потому что фактически будем рассматривать только дискретные и непрерывные случайные величины и, во-вторых, потому что, по существу, для теории вероятностей нужна не общая теория интегралов Стилтьеса, а теория абстрактного интефала Лебега (см. об этом подробнее в гл. 1 монографии Гнеденко и Колмогорова «Предельные распределения для сумм независимых случайных величин», 1949 г.).
154 Глава 5. Числовые характеристики случайных величин Пример 5. Плотность распределения двумерной случайной величины (6>6) задана формулой (двумерное нормальное распределение) Р(х\>*2) = - т== х 2жа\(Т2\ 1 -г2 _ Г 1 [>| - «)2 Ms, - а)(х2 - Ь) (х2 -ЪУ]\. ХеХР\ 2(1-М а? «г,^ + of J/' найти ее математическое ожидание. По определению а\ = // X\p(x\,xi)dx\ dxi = / XiPi(a:i)da:i и u2 = / / a?2p(a?i, Ж2) Aci ^ж2 = / %iPi{xi) dxi. В примере 2 § 22 мы видели, что р,(ж,) = ^^ехрГ~^Г/' Р2(Ж2) = ^ЖехрГ"^г}' поэтому согласно результатам примера 1 настоящего параграфа находим, что а,\ = а, а2 = 6. Нам удалось выяснить вероятностный смысл параметров а и Ь также и для двумерного нормального распределения. §24. Дисперсия Дисперсией случайной величины £ называется математическое ожидание квадрата уклонения £ от М£. Мы условимся дисперсию обозначать символом D£. Таким образом, по определению 00 Qt = M(t-M02 = fxdFn(n)9 (I) о где через Fv(x) обозначена функция распределения случайной величины г) = (£ - Щ)2. В практических расчетах используется другая формула, а именно DS = j(z-M02dF((z). (2) Эквивалентность формул (1) и (2) непосредственно вытекает из следующего общего предложения.
§24. Дисперсия 155 Теорема. Если F^(x) — функция распределения случайной величины £, f(x) —непрерывная функция, то Mf(0 = f f(x)dFi(x). Мы офаничимся сейчас доказательством этой теоремы лишь в простейшем случае f(x) = (х - М£)2. Найдем связь между функцией распределения Fv(x) величины rj = = (£ - М£)2 и функцией распределения F^(x) величины £. Имеем: Frf(x) = О при х ^ 0, а при ж > 0 *■„(*) = Р{т/ <х} = Р{(£ - М£)2 < х} = Р{->/ж < £- Щ < у/Б} = Формула (1) переписывается так: 00 D£= J xd[F((bA£ + y/x) - F((bA£ - у/х+ 0)] = о 00 00 = I xdFz(Mt + y/x) - J xdF((M£-y/x + 0). о о В первом интефале произведем замену z = Щ + у/х, а во втором — замену z = Щ - у/х, в результате 00 00 J х Щ(Щ + у/х) = У (г - М^2 <*ВД> о м$ 00 М£ J х Щ(Щ -Vx + 0) = - /(г- Щ)2 Щ(г). -00 D^ = y(z-Mf)2dF{(z). О Таким образом, Так как (,-■*>"-,»-»«+(мо» и «-/.«ад. то формула (2) может быть записана иначе D£ = У г2 dF{(z) - (У г <ВД) = М£2 - (МО2. (3)
156 Глава 5. Числовые характеристики случайных величин Так как дисперсия является неотрицательной величиной, то из последнего соотношения мы выводим, что 2 Jг2<*ВД^(/zdFiiz)^ Это неравенство представляет собой частный случай известного неравенства Буняковского—Коши. Подобно математическому ожиданию, дисперсия существует не для всех случайных величин. Так, рассмотренный нами ранее (пример 5 §21) закон Коши не имеет конечной дисперсии. Рассмотрим примеры вычисления дисперсии. Пример 1. Найти дисперсию случайной величины £, равномерно распределенной в интервале (а, Ь). В нашем примере о 2 J х2 dF((x) = / -^— dx = b3 -a3 b2 + ab + а2 3(6-а) 3 а В предыдущем параграфе было найдено a + b М* = —. Таким образом, _ a2 + ab + b2 _ /a + 6\2 _ (b- a)2 °*" 3 \2~) ~ 12 ' Мы видим, что дисперсия зависит только от длины интервала (а, Ь) и является возрастающей функцией длины. Чем больше интервал значений, принимаемых случайной величиной, т.е. чем больше рассеяны ее значения, тем больше дисперсия. Дисперсия, таким образом, играет роль меры рассеяния (разбросанности) значений случайной величины около математического ожидания. Пример 2. Найти дисперсию случайной величины £, распределенной по нормальному закону 1 Г (х-а)2\ р(ж) = ^¥ехрГ^^/- Мы знаем, что Щ = а, поэтому D£ = J (x - a)2p(x) dx = —у= J {х- а)2 ехр {-^~a? \ dx. Произведем под интегралом замену переменных, положив х - a z =
§24. Дисперсия 157 при этом D* = ;i/z2expHb- Интегрированием по частям находим, что г2>| / Г *2' У^ехр {-^} dz= (-,exp |-l})| +|ехр {-£}* = V^. Таким образом, окончательно D£ = <т2. Мы выяснили, таким образом, вероятностный смысл второго параметра, определяющего нормальный закон. Мы видим, что нормальный закон распределения полностью определен математическим ожиданием и дисперсией. Это обстоятельство широко используется в теоретических изысканиях. Заметим, что и в случае нормально распределенной случайной величины дисперсия позволяет судить о рассеянии ее значений. Хотя при любых положительных значениях дисперсии нормально распределенные случайные величины могут принимать все вещественные значения, все же рассеяние значений случайной величины будет тем меньше, чем меньше дисперсия; при этом вероятности значений, близких к математическому ожиданию, будут больше. Это обстоятельство было отмечено нами в предыдущей главе при первоначальном знакомстве с нормальным законом. Пример 3. Найти дисперсию случайной величины Л, рассмотренной в примере 4 § 23. Сохранив обозначения примера 4, находим, что М к к №0 = i (Е <* - *')2«2 + Е 0 - *)2«2) = а2 = —[(*- l)fc(2fc- 1) + (n- к)(п -к+ 1)(2п- 2к + 1)1 = а2 = — [бк2 - 6(п + \)к + (2п + \)(п + I)] 6 и, следовательно, M(*2)=iX>№)= а2 а2 = — [n(n+l)(2n+l)-3(n+l)2n + n(n+l)(2n+1)1 = — (n2-l). Ьть о
158 Глава 5. Числовые характеристики случайных величин Отсюда следует, что 0(Л) = М(Л2)^МЛ)2 = ^(п2-1)-^^- = 9п2 _ а2(п2-1)(п2 + 2) _ I2 / 2 1 2 \ 18п2 _ 18 V +п-1 +п(п- 1) + п2(п- 1)/ Дисперсией n-мерной случайной величины (&, &>..., £п) называется совокупность п2 постоянных, определяемых формулой bjk =/.../ (xj- M^) (xk - Щк) dF(xux2,..., хп) (1 ^к^п, 1 ^ j ^п). Так как при любых вещественных tj; (1 ^ j ^ п) / • • • / {])С *>(*' ~ Мж;) f dF(x]9x2, •--,xn) = YlYl bJktitk ^ °' (4) >j=\ j=\ *=1 Очевидно, что Ьц hi h\ 6|2 . 622 • Ь*2- .. Ь|* .. 62А: • • Ькк то, как известно из теории квадратичных форм, величины bjk удовлетворяют неравенствам ^ 0 при к = 1,2,...,п. Ькк = D&- Величины bjk при к Ф j называются смешанными центральными моментами 1-го порядка величин ^ и £*; очевидно, что bjk = Ь*у. Следующая функция моментов второго порядка Uj = 6°' носит название коэффициента корреляции между величинами £,- и ^. Коэффициент корреляции является мерой силы связи (линейной связи) между величинами & и £;-. Величина коэффициента корреляции, как это следует из неравенства Буняковского, заключена в пределах (-1, 4-1). Значения ±1 достигаются только в том случае, когда £ и г) связаны линейной зависимостью. В дальнейшем мы увидим, что для независимых величин коэффициент корреляции равен нулю.
§24. Дисперсия 159 Пример 4. Найти дисперсию двумерной случайной величины (£i, &), распределенной по невырожденному нормальному закону Р(я, у) = 2тга\а2у/\ - г2 „ ехр (- ' [<Ц* - >» - "Х" - "» + <Ц*1}. i 2(1 - г2) L <г? <^2 о\ J J Согласно формуле (4) и результатам примера 2 настоящего параграфа и примера 1 § 23, находим, что D£, = в\, D& = а\. Далее, Ь|2 = &2i = / / (х - o)(j/ - Ь)р(х, у) dx dj/ = i f f (у-ft)2) , х | (х - «)(, - Ь)ехр {-^1^ (£Z» - r^) } dx. Заменой 0-Ь = 1 (Zl±-rVZ±\ t = y/\ - r2 \ <T\ <r2 / 0*2 выражение для &i2 приводится к виду b\2 = b2\ = — // (<r,<72\/l-r2te + raxa2t2) ехр 1--- — > dzdt = r<J\(Ji 2тг x / £exp < -— > dt I zexp < -— > dz = ra\a2. Отсюда находим, что г = // (ж - а)(у - b)p(g, у) dxdy _ M(fr - Mfr )(fe - Щ2) <г\<Г2 >/D&D6 2 Мы видим, что двумерный нормальный закон (так же, как и одномерный) полностью определяется заданием математического ожидания и дисперсии, т.е. определяется заданием пяти величин M£i, M&, D£i, D£2 и г.
160 Глава 5. Числовые характеристики случайных величин § 25. Теоремы о математическом ожидании и дисперсии Теорема 1. Математическое ожидание постоянной равно этой постоянной. Доказательство. Постоянную С мы можем рассматривать как дискретную случайную величину, которая может принимать только одно значение С с вероятностью единица; поэтому UC = С • 1 = С. Теорема 2. Математическое ожидание суммы случайных величин равно сумме их математических ожиданий: М(£ + rj) = Щ + Щ. Доказательство. Рассмотрим сначала случай дискретных случайных величин £ и г/. Пусть oi, 02, , ап — возможные значения величины £ и Р\,Рг,... ,Рп, • •• — их вероятности; 61,62,... ,6*,... — возможные значения величины г/ и <?i, <?2> ••• ,<7ь ••• — вероятности этих значений. Возможные значения величины £ + т) имеют вид ап + 6* (&, п = 1,2,...). Обозначим через рп* вероятность того, что £ примет значение ап, а г/ — значение 6*. По определению математического ожидания 00 00 00 м(£+ч) = XI (а*+ь*)р»*= ^2 Y1 (а*+ь*)р»*= п,*=1 п=1 *=1 оо Z00 \ °° / °° \ Так как по формуле полной вероятности 00 00 ^2Рпк = Рп и ^2 рпк = qk, ТО оо оо оо п=1 *=1 п=1 00 • 00 ч 00 *=1 ^п=1 ' ' *=1 Доказательство теоремы для случая дискретных слагаемых завершено.
Точно так же в случае, когда существует двумерная плотность распределения р(х, у) случайной величины (£, т?), по формуле (3) § 23 находим: W = M($+v) = JxdFs(x) = fx(fp(z,x-z)dz)dx = = ffxp(z, x - z)dz dx = ff(z +y)p(z, y)dz dy = = ffzP(z> У)& ^У + tfyp(z,y)dz dy = fzp£z)dz + J>pn<»ф> = M£ + Mr?. В общем случае теорема 2 будет доказана нами в дополнении 1. Следствие 1. Математическое ожидание суммы конечного числа случайных величин равно сумме их математических ожиданий. M«i + h + ■ .■+*„) = M*i +М|2 + ... + М*я. Действительно, в силу только что доказанной теоремы М(*1+Ь+... + *я) = МЬ+М(|2+|2 + ..- + *„) = = М£, + МЬ + М(£з + .. - + Ы s • • • = MSi + Mb + ... + Щп• Следствие 2. Математическое ожидание суммы ГМ=*1+*2 + .-. + *„, где д- случайная величина, принимающая лишь целочисленные значения, случайные величины £i, £2, ■ • • «е зависят от ц., математическое ожидание ц. конечно и ряд 2 M|SJP{/i>*} сходится, существует и равно МГ„ = £ МЬР(м>/}. Доказательство. Действительно, условное математическое ожидание, при условии, что ju = fc, равно М{ГД|ju = /г} = М?! + М{2 + ... + Щк.
162 Глава 5. Числовые характеристики случайных величин Безусловное математическое ожидание оо оо к мс = Ё м{с> = к}. р{/х=к} = 2 р{/* = *> Е *ч* = 00 00 00 = £ м^ £ pfo =*> = £ м^р^ > л- Если слагаемые £ь£2,£з,... одинаково распределены, т.е. если P«i < *} = Р{6 <*} = ...= F(s), то МС„ = Щх • М/х. Действительно, оо к оо мс = £р^ = *> £ Mfc = м^ £ *р^ = *> = м^ • м/*- Л=1 ;=1 Л=1 Пример 1. Число космических частиц, попадающих на данную площадку, есть случайная величина /х, подчиненная закону Пуассона с параметром а, каждая из частиц несет энергию £, зависящую от случая. Найти среднюю энергию £, получаемую площадкой в единицу времени. Согласно следствию 2, имеем: М£ = М£ • М/х = аЩ. Пример 2. По некоторой цели стрельба ведется до n-го попадания. Считая, что выстрелы производятся независимо друг от друга и вероятность попадания при каждом выстреле равна р, найти математическое ожидание расхода снарядов. Обозначим через £ число снарядов, потраченных от (к - 1)-го до к-го попадания. Очевидно, что расход снарядов на п попаданий равен и, следовательно, М£ = М£,+М£2 + ... + М£п. Но и оо . следовательно, р Теорема 3. Математическое ожидание произведения независимых случайных величин (,urj равно произведению их математических ожиданий.
§ 25. Теоремы о математическом ожидании и дисперсии 163 Доказательство. Если величины £ и г/ дискретны; ai, а2,..., а^,... — возможные значения £ и pi, р2, • • •»Рь • • • — вероятности этих значений; 6i, 62, • • • ,ЬП,... — возможные значения г/ и </i, g2, • • •, <Zn> • • • — вероятности этих значений, то вероятность того, что £ примет значение а*, а г/ — значение Ьп, равна p*gn. По определению математического ожидания, 00 00 • 00 v у 00 Щг)=]Г akbnVk4n = X X) akbnPkqn = (X a*p*) (X^ 6n?n Лишь немногим сложнее доказательство для случая непрерывных величин, провести его мы предоставляем читателю. В общем случае теорема 3 будет доказана в Дополнении 1. Следствие 1. Постоянный множитель можно выносить за знак математического ожидания МС£ = СЩ. Это утверждение очевидно, так как, каково бы ни было £, постоянное С и величину £ можно рассматривать как независимые величины. Теорема 4. Дисперсия постоянного равна нулю. Доказательство. Согласно теореме 1, DC = ЩС - МС)2 = М(С - С)2 = МО = 0. Теорема 5. Если с — постоянное, то Dc£ = c2D£. Доказательство. В силу следствия из теоремы 3, Dc£ = М[с£ - Мс£]2 = М[с£ - сЩ]2 = Мс2[£ - Щ]2 = с2М[£ - Щ]2 = c2D£. Теорема 6. Дисперсия суммы независимых случайных величин £ и г) равна сумме их дисперсий D(£ + r/) = D£ + Dr/. Доказательство. Действительно, D« +1?) = М[£ + ту - М« + г/)]2 = М[(£ - МО + (г/ - Mr/)]2 = = D£ + Dry 4- 2М(£ - М£)(ц - Mr/). Величины £ и г/ независимы, поэтому независимы также величины £ - Щ и г/ - Mr/; отсюда М(£ - М£)(г7 - Mr/) = М(£ - М£) • М(г/ - Mr/) = 0. Следствие 1. Если £\, £2, • • • > £n ~ случайные величины, каждая из которых независима от суммы предыдущих, то ] = М^Мг/.
Следствие 2. Дисперсия суммы конечного числа попарно независимых случайных величин £1, £2 > * • * »%п Равт сумме их дисперсий. Доказательство. Действительно Dtt,+fc + .-- + U-M(^ (£*-л%))2 = mi i <ifc - Mife) (i;. - mi..) = f f M(ifc - щк) (i; - mi.)= = 2 D$fc + 2 M«t-M$fc)«,-»«,). Из независимости любой пары величин %к и £;- (к Ф/) вытекает, что при м«*-м*Л) «,.-*«,.) = о. Этим, очевидно, доказательство завершено. Пример 1. Нормированным уклонением случайной величины £ называется отношение ■ Доказать, что D / ) = 1. \ V5T / Действительно, % и М£, рассматриваемые-как случайные величины, независимы, поэтому в силу теорем 5 и 6 \ у/Щ ) ' °* " D| " • Пример 2. Если J и ц — независимые случайные величины, то D(S-7?)=D£ + D7?. Действительно, в силу теорем 5 и 7 D(-7?) = (-l)2 Dt? = Dt? и D($-7?)= D? + Dr?. Пример 3. Теоремы 2 и 6 позволяют весьма просто вычислять математическое ожидание и дисперсию числа ju наступлений события А при п независимых испытаниях. Пусть рк есть вероятность появления события А при к-ы испытании. Обозначим через jufc число появлений события Л при к-ы испытании. Очевидно, что j^ есть случайная величина, принимающая значения 0 и 1 с вероятностями qk- 1 —ркнрк соответственно.
Величина ju, таким образом, может быть представлена в виде суммы Так как MjUfc = (b<7fc + l -pk=pk и DM* - ml - (Мм*)2 = 0 .qk + 1 -pfc -p2 =Pfc(l -Рк) = Ркдк9 то доказанные теоремы позволяют заключить, что и DjU =/?!<?! +/?2(jr2 + ...+/?„?„. Для случая схемы Бернулли Рк=р и, следовательно, Мд = ир и Dix-npq. Заметим, что отсюда М— =р; D— = — • п п п § 26. Моменты Моментом к-го порядка случайной величины % называется математическое ожидание величины (£ - а)к: **(*) = м«-<0*. (1) Если а = 0, то момент называется начальным. Легко видеть, что начальный момент первого порядка есть математическое ожидание величины ij. Если а = М£, то момент называется центральным. Легко видеть, что центральный момент первого порядка равен нулю, а центральный момент второго порядка есть не что иное, как дисперсия. Начальные моменты мы станем обозначать буквой vk, а центральные — буквой jUfc, указывая в обоих случаях нижним индексом порядок момента. Между центральными и начальными моментами существует простая связь. Действительно, мя = м(?-мйл= I с*(-щу-кщк= i c*{-mr-kvk. (2) fc=0 fc=0 Так как v\ = М£, то Мя= I (-i)n-kcj;pkvrk + ^i)n-4n-i)(vi)n. (3) Выпишем эту связь между моментами для первых четырех значений п: Мо = 1, ju2 = v2-v\, (3') Мз = *>з -3*^! + 2*>J,
166 Глава 5. Числовые характеристики случайных величин Эти первые моменты играют особо важную роль в статистике. Величина rrik = М|£ - а\к (4) носит название абсолютного момента к-го порядка. Согласно определению математического ожидания, Щ£-а)к должно вычисляться по формуле vk(a) = fxdG(x), (Г) где G(x) обозначает функцию распределения величины (£ - а)к. Однако при действительных расчетах предпочитают пользоваться другой формулой vk{a) = f {x-afdF{x), (5) где F(x) — функция распределения величины £. Для того чтобы формулы (1') и (5) не противоречили друг другу, необходимо, чтобы имели место равенства Г х dG(x) = Г (х - о)* dF(x). Докажем, что это действительно так. Если к — нечетное число, то (£ - а)к — неубывающая функция £ и поэтому G(x) = Р{(£-а)к <х} = Р{£-а < V^} = Р{£ < a+tyi} = F(a+ tyj). При нечетном к, таким образом, М(£-а)* = Г xdF(a+ tyx). Нетрудно подсчитать, что заменой z = a+ у/х мы приводим этот интеграл к виду (5). Если же к — четное, то (£ - а)к есть неотрицательная величина и, следовательно, G(x) = 0 при х ^ 0. При х > 0 G(x) = Р{(£ - а)к < х} = Р{а - #ж < £ < a + fyi) = = F(a+#£)-F(a- #x + 0). Таким образом, при четном А; 00 00 M(£-a)*= f xdF(a+ fyx) - ГxdF(a- tyE + 0). о о Заменами z = a + >/ж в первом интефале и z = а - >/ж — во втором мы приводим М(£ - а)к к виду (5). Мы доказали частный случай следующей теоремы.
§26. Моменты 167 Теорема 1. Если F(x) — функция распределения величины £, f(x) — непрерывная функция, то Mf(0 = ff{x)dF(x). Так как мы условились считать, что случайная величина £ имеет математическое ожидание только в том случае, когда изображающий его интеграл абсолютно сходится, то ясно, что момент k-го порядка у величины £ существует тогда и только тогда, когда сходится интеграл / \x\k dF(.{x). Из этого замечания следует, что если случайная величина £ имеет момент к-го порядка, то она имеет также моменты всех положительных порядков, меньших чем к. В самом деле, если \х\ > 1, то при г < к \х\к > \х\г. Поэтому Г \x\r dF((x) = / |я?|г dF((x) + Г \x\r dFt(x) * \хЮ \х\>\ < J \х\гЩ(х) + J \х\кЩ(х). \х\^\ \х\>\ Первый интеграл в правой части неравенства конечен в силу конечности пределов интегрирования и ограниченности подинтегральной функции, второй интеграл сходится в силу предположения. Пример. Найти центральные и центральные абсолютные моменты случайной величины, распределенной по нормальному закону \2' 1 Г (х-а)2\ р(*) = ^ехрГ-2^Г Имеем: 1 Г ,. ( (х-а)2} ак Г к Г х2Л * = ^ J{х~а) ехр \-^)dx=7ШIх ехр ГтГж- При к нечетном, в силу нечетности подинтегральной функции, Н =0. При к четном /— °° Рк = тк = у-ак I хк ехр I -— | dx.
Подстановкой х - lz мы приводим этот интеграл к виду я о 2 . -1-- /Jt+1 \ -afc22 Г/— -j=o*(*-l)(*-3)...l = a*- 2*'2(*/2)! При & нечетном абсолютный момент равен я о я \ 2 / »*" -А^(^У Моменты функций распределения не могут быть произвольными величинами. Действительно, каковы бы ни были постоянные t0, t^ ..., tn, квадратичная форма /„ = /(2 tk(x-a)kfdF{x)= Б XPk+f(a)tktf>0 неотрицательна; поэтому первые рЛо) должны удовлетворять следующим неравенствам: voia) px(a) ... рк(а) vx(a) v2(a) ... Рк+1(а) >0 (*-1,2,...,л). Аналогичным неравенствам подчинены и абсолютные моменты. Относительно абсолютных моментов мы докажем еще следующую теорему. Теорема 2. Если случайная величина £ имеет абсолютный момент порядка к, то при любых t ит (0< t < т < к) где обозначено m, = M|£-a|f, а - любое вещественное число. Док аз ате ль с т в о. Докажем сначала теорему для того случая, когда Г, т и к - рациональные числа. Пусть для определенности t^plq, r = s/q, k = u/qt причем по предположению теоремы р < s < и.
Пусть теперь г - какое-нибудь целое положительное число, меньшее чем и. Рассмотрим неотрицательную квадратичную форму mr-i и2 +2mr uv + mt+l у2 =J[u\x\ 2q + v\x\ 2q f dF(x). Я Я Я Условие ее неотрицательности состоит, как известно, в том, что tflr ^ ltlr_i • Itl r+i . <Г ~Я~ IT Это неравенство, очевидно, может быть записано и в таком виде: т2/ < тгг_х • m^i. ? IT ~я~ Если придать г последовательно значения от 1 до г, то мы получим последовательность неравенств т\ <т0т2, т\л < т\т\,... т1/ < mr-imr+i • 'я 'я <Г <Г ~я ~я я я Заметив, что всегда т0 = 1, перемножив выписанные неравенства и произведя сокращения, мы приходим к неравенству ~я ~я~ 1 J__ 9L я Таким образом, тгг < wi/^1, или Же mr ^ mr+i • Это неравенство доказывает, очевидно, теорему, в случае t, t и & рациональных. Так как функция mt непрерывна относительно аргумента t в области О < t < к7 то предельным переходом мы убеждаемся в правильности теоремы при любых /, г як. Заметим, что в только что доказанной теореме содержится следующее важное свойство моментов: В примерах предыдущих параграфов два первых момента случайной величины полностью определяли ее функцию распределения, если только 'заранее известен вид этой функции (так это имело место для распределений нормального, Пуассона, равномерного и др.). В математической статистике играют значительную роль законы распределения, зависящие от большего чем два числа параметров. Если заранее известно, что случайная величина подчинена закону вполне определенного вида, но неизвестны лишь значения параметров, то эти неизвестные параметры в важнейших случаях определяются через первые моменты. Если же
170 Глава 5. Числовые характеристики случайных величин нам неизвестно, к какому виду принадлежит функция распределения, то, вообще говоря, не только знание одних первых, но и знание всех целочисленных моментов не дает возможности определить неизвестную функцию распределения. Оказывается, можно построить примеры различных функций распределения с одинаковыми моментами всех целочисленных порядков. В связи с этим возникает вопрос (проблема моментов): дана последовательность постоянных чисел со = 1,сьс2,сз, •••; 1) при каких условиях существует такая функция распределения F(x), для которой при всех п имеют место равенства Сп = f xn dF(x), 2) когда эта функция единственна? В настоящее время эта задача получила полное решение, но мы не останавливаемся на нем, так как оно стоит в стороне от назначения нашей книги. Среди прочих числовых характеристик наиболее существенную роль играют так называемые семиинварианты; их определение мы отложим до главы 7, сейчас же отметим только следующее. При сложении независимых случайных величин момент суммы, вообще говоря, не равен сумме моментов слагаемых. Для момента суммы независимых слагаемых {иг/ имеет место равенство М(£ + »7)П = Х>*М£*М»7П -к UnM£ M7/ Семиинварианты различных порядков обладают тем свойством, что при сложении независимых слагаемых семиинвариант суммы равен сумме семиинвариантов слагаемых того же порядка. Оказывается, что семиинвариант любого порядка к есть рациональная функция моментов порядков, меньших или равных к. Упражнения 1. Случайная величина £ принимает целые неотрицательные значения с вероятностями а* а) Р{£ = к} = гггт» л > 0 — постоянная; это распределение носит (1+0)*+' название распределения Паскаля; ~г. ,, / аХ \*(1+а)...(1 + (*-1)а) , Л б) рк = Р{( = к}= (у^л) k\ Ро ПрИ ВСеХ к > °' ГДе а>0, Л>0 ир0 = Р{£ = 0} = (1 + аЛ)~,/а. Это распределение носит название распределение Пойа. Найти М£ и D£.
Упражнения 171 2. Пусть fi — число появлений события А в п независимых испытаниях, в каждом из которых Р(А) = р. Найти а) Щ\ б) М/Д в) М|/х-пр|. 3. Вероятность появления события А в Аг-м испытании равна р*. Пусть /х — число появлений события А в п первых независимых испытаниях. Найти п 3 п 4 а) М/1, б) D/*, в) м(/,-£>) , г) м(/<-]>>,) . 1=1 1 = 1 4. Доказать, что в условиях предыдущей задачи максимум D/x достигается 1 п для данного значения о = — У^ о, при условии п , р, = р2 = ... = Рп = о. 5. Пусть /х — число появлений события А в п независимых испытаниях, в каждом из которых Р(А) = р. Пусть, далее, величина rj равна 0 или 1 в зависимости от того, оказалось /х четным или нечетным. Найти ЬАц. 6. Плотность распределения случайной величины £ равна р(х) = _ехр|___| (распределение Лапласа). Найти М( и D{. 7. Плотность распределения абсолютной величины скорости молекул дается распределением Максвелла 4х2 ( х2 1 р(х) = -у-^ ехр <—-\ при х>0 а30г ^ a2 J и р(х) = 0 при ж^О, a > 0 — постоянная. Найти среднюю скорость молекулы, ее дисперсию, среднюю кинетическую энергию молекулы (масса молекулы равна га) и дисперсию кинетической энергии. 8. Плотность вероятностей молекуле, находящейся в броуновском движении, отстоять на расстоянии х от отталкивающей стенки в момент t, если в момент t0 = О она отстояла на расстоянии ж0, дается формулой / Г (х + х0)2\ , Г (ж-ж0)2\\ ^Л р(ж) = ^ 2\/тг1>* О при х < 0. Найти математическое ожидание и дисперсию величины перемещения молекулы за время от t0 до t (D — постоянная). 9. Доказать, что для произвольной случайной величины £, возможные значения которой находятся в промежутке (а, 6), выполняются следующие неравенства (Ъ - а)2 10. Пусть Ж|, ж2,..., хк — возможные значения неотрицательной случайной величины £. Доказать, что при п -> оо а) — > max ж,-, б) л/м£п -* max ж,-.
11. Пусть F(x) - функция распределения %. Доказать, что если М$ существует, то оо m=J[l-F(x) + F(-x)]dx О и для существования Щ необходимо и достаточно, чтобы lim xF(x) = lim jc{1 - F(x)] = 0. jc-*—°° x-+<*> 12. На отрезок (0, / ) наудачу брошены две точки. Найти математическое ожидание, дисперсию и математическое ожидание л-й степени расстояния между ними, 13. Случайная величина £ распределена логарифмически нормально, т.е. при х > 0 плотность распределения £ равна 1 -^(1П*-Л)2 Р(Х)= '-—€ 2° xa\/2it 0?(дг) = 0 при х <0). Найти Щ и D£. 14. Случайная величина | нормально распределена с параметрами а и а. Найти М | * - в |. , 15. В ящике содержится 2 билетов; номер i (/ = 0, 1, 2,. .., и) обозначен на Сп из них. Наудачу вынимаются т билетов, s - сумма их номеров; найти Ms и Os. 16. Случайные величины £а, £2* . .., £л+т (л > т) независимы, одинаково распределены и имеют конечную дисперсию. Найти коэффициент корреляции между суммами « = *х +Ч2 +..- + £« и o = £m + l + £m+2 + --- + £m+*. 17. Случайные величины % и tj независимы и нормально распределены с одними и теми же параметрами в и а. Найти коэффициент корреляции между а£ + /Jtj и а£ - 0tj, а также их совместное распределение (а и 0 - постоянные). 18. Случайный вектор (fc, tj) нормально распределен; Щ = а, Mtj = Ь, D£ = a J, D17 = aj, /2 - коэффициент корреляции между € и 17. Доказать, что R = cos^/я, где <? = Р {«-«)(*-*)< 0}. 19. Пусть ^! и х2 - результаты двух независимых наблюдений над нормально распределенной величиной £, Доказать, что М max(xt , jc2 ) = я + а/>/л7 где й » М £, а* = D£. 20. Случайный вектор (£, tj) нормально распределен; М£ =Mi7= С. D{? = D*j = I, Щ,ц = Д. Доказать, что М max «.*-УП*.
21. Неровнотой пряжи по длине волокна называется величина а где а есть математическое ожидание длины волокна, а" - математическое ожидание длины тех волокон, которые больше я, о' —'математическое ожидание длины тех волокон, которые меньше а. Найти связь между величинами (если £ распределено нормально) а) К а, М | £ - а I, б) Л, а, а. 22. Случайные величины %,, |2, . .., £„ ... независимы и равномерно распределены в (0, 1). Пусть v - случайная величина, равная тому к, при котором впервые сумма sk = Si +£2 +... + £* превосходит 1. Доказать, что TAv = е. 23. Пусть £ - случайная величина с плотностью распределения Найти Mmindll, 1). (Задачи 22 и 23 сообщены мне М.И. Ядренко.)
Глава 6 Закон больших чисел § 27. Массовые явления и закон больших чисел Огромный опыт, накопленный человечеством, учит нас, что явления, имеющие вероятность, весьма близкую к единице, почти обязательно происходят. Точно так же события, вероятность наступления которых очень мала (иными словами, очень близка к нулю), наступают очень редко. Это обстоятельство играет основную роль для всех практических выводов из теории вероятностей, так как указанный опытный факт дает право в практической деятельности считать мало вероятные события практически невозможными, а события, происходящие с вероятностями, весьма близкими к единице, практически достоверными. При этом на вполне естественный вопрос, какова должна быть вероятность, чтобы мы могли событие считать практически невозможным (практически достоверным), однозначного ответа дать нельзя. И это понятно, так как в практической деятельности необходимо учитывать важность тех событий, с которыми приходится иметь дело. Так, например, если бы при измерении расстояния между двумя селениями оказалось, что оно равно 5 340 м и ошибка этого измерения с вероятностью 0,02 равна или больше 20 м, то мы можем пренебречь возможностью такой ошибки и считать, что расстояние действительно равно 5 340 м. Таким образом, в нашем примере мы считаем событие с вероятностью 0,02 практически несущественным и в своей практической деятельности его не учитываем. В то же время в других случаях пренебрегать вероятностями 0,02 и даже еще меньшими нельзя. Так, если при строительстве большой гидроэлектростанции, требующей огромных материальных затрат и человеческого труда, выяснилось, что вероятность катастрофического паводка в рассматриваемых условиях равна 0,02, то эта вероятность будет сочтена большой и при проектировании станции она должна быть учтена, а не отброшена, как это было сделано в предыдущем примере. Таким образом, только требования практики могут нам подсказать критерии, согласно которым мы будем считать те или иные события практически невозможными или практически достоверными. В то же время необходимо заметить, что любое событие, имеющее положительную вероятность, как бы мала ни была эта вероятность, может произойти, и если число испытаний, в каждом из которых оно может произойти с одной и той же вероятностью, очень велико, то эта вероятность хотя бы однократного его появления может стать сколь угодно близкой к единице. Это обстоятельство постоянно следует иметь в виду. Однако если вероятность некоторого события очень мала, то чрезвычайно трудно
§ 27. Массовые явления и закон больших чисел 175 ожидать его появления в каком-либо заранее определенном испытании. Так, если некто утверждает, что при первой же раздаче карт между четырьмя партнерами каждый получит карты только одной масти, то естественно заподозрить, что при раздаче руководствовались каким-то определенным соображением, например, расположили карты в определенном, известном сдающему, порядке. Эта наша уверенность основывается на том, что вероятность такой раскладки при хорошей тасовке равна (9!)44!/36! < 1,1-10"18, т.е. чрезвычайно мала. Тем не менее однажды факт такой раскладки карт был зарегистрирован. Этот пример достаточно хорошо иллюстрирует различие между понятиями практической невозможности и невозможности, так сказать, категорической. Из сказанного понятно, что в практической деятельности, да и в общетеоретических задачах, большое значение имеют события с вероятностями, близкими к единице или нулю. Отсюда становится ясным, что одной из основных задач теории вероятностей должно быть установление закономерностей, происходящих с вероятностями, близкими к единице: при этом особую роль должны играть закономерности, возникающие в результате наложения большого числа независимых или слабо зависимых случайных факторов. Закон больших чисел является одним из таких предложений теории вероятностей и при том важнейшим. Под законом больших чисел теперь было бы естественно понимать всю совокупность предложений, утверждающих с вероятностью, сколь угодно близкой к единице, что наступит некоторое событие, зависящее от неограниченно увеличивающегося числа случайных событий, каждое из которых оказывает на него лишь незначительное влияние. Это общее представление о теоремах типа закона больших чисел можно сформулировать и несколько определеннее: пусть дана последовательность случайных величин ъ,ь 6,,.... (о Рассмотрим случайные величины £п, являющиеся некоторыми заданными симметрическими функциями от первых п величин последовательности (1): Сп = /п(£ь6>--- >£п)- Если существует такая последовательность постоянных aj, <*2> • • • > &п> • • •> что при любом е > О Ит Р{|Сп-а»1<е} = 1, (2) п-»оо то последовательность (1) подчиняется закону больших чисел с заданными функциями /п. Обычно, однако, в понятие закона больших чисел вкладывается гораздо более определенное содержание. А именно, ограничиваются тем случаем, когда fn есть среднее арифметическое величин £j, &> • • > Внесли в соотношении (2) все величины an равны одной и той же величине а, то говорят, что случайные величины £п сходятся по вероятности к а. В этих терминах соотношение (2) означает, что £п ~ <*п сходится по вероятности к нулю.
Наблюдая единичные явления, мы наблюдаем их вместе со всеми их индивидуальными особенностями, затемняющими проявление тех закономерностей, которые имеют место при наблюдении большого числа аналогичных явлений. То, что факторы, не связанные с существом всего процесса в целом, а проявляющиеся только в единичных его осуществлениях, при рассмотрении среднего из большого числа наблюдений взаимно погашаются, было замечено еще давно. Позднее этот эмпирический результат отмечался все чаще и чаще и притом, как правило, без попытки найти его теоретическое объяснение. Впрочем, такое объяснение многим авторам и не требовалось, так как наличие закономерностей как в явлениях природы, так и в общественных явлениях для них было не чем иным, как проявлением правил божественного порядка. Некоторые авторы до сих пор обедняют содержание закона больших чисел и даже искажают его методологическое значение, сводя его попросту к наблюдающейся на опыте закономерности. На самом же деле непреходящая научная ценность исследований Чебышева, Маркова и других исследователей в области закона больших чисел состоит не в том, что они подметили эмпирическую устойчивость средних, а в том, что они нашли те общие условия, выполнение которых обязательно влечет за собой статистическую устойчивость средних. Для иллюстрации действия закона больших чисел приведем следующий схематический пример. По современным физическим воззрениям любой газ состоит из огромного количества отдельных частиц, находящихся в непрестанном хаотическом движении. Про каждую отдельную молекулу нельзя предсказать, с какой скоростью она будет двигаться и в каком месте она будет находиться в каждый данный момент времени. Однако мы можем рассчитать при определенных условиях, в которых находится газ, долю тех молекул, которые будут двигаться с заданной скоростью, или долю тех из них, которые будут находиться в заданном объеме. Но, собственно, именно это и нужно знать физику, так как основные характеристики газа — давление, температура, вязкость и пр. — определяются не замысловатым поведением одной молекулы, а их совокупным действием. Так, давление газа равно суммарному воздействию молекул, ударившихся
о пластинку площади единица за единицу времени. Число ударов и скорости ударившихся молекул меняются в зависимости от случая, однако в силу закона больших чисел (в форме Чебышева) давление должно быть почти постоянным. Это "уравнивающее" влияние закона больших чисел в физических явлениях обнаруживается с исключительной точностью. Достаточно вспомнить, что, скажем, в обычных условиях даже очень точные измерения с трудом позволяют отметить уклонения от закона Паскаля о давлении жидкости. Противникам молекулярного строения материи это чрезмерно хорошее совпадение результатов теории с опытом даже служило своеобразным аргументом: если бы материя имела молекулярное строение, то наблюдались бы и уклонения от закона Паскаля. Эти уклонения, так называемые флюктуации давления, действительно удалось наблюдать, когда научились изолировать сравнительно небольшие количества молекул, в результате чего влияние отдельных молекул еще не полностью нивелировалось и оставалось еще достаточно сильным. § 28. Закон больших чисел в форме Чебышева Мы перейдем теперь к формулировке и доказательству теорем Чебышева, Маркова и др.; употребляемый при этом метод принадлежит Чебышеву. Неравенство Чебышева. Для любой случайной величины £, имеющей конечную дисперсию, при каждом е > О имеет место неравенство P(U-M£|>e}<-^-. (1) е Доказательство. Если F(x) обозначает функцию распределения случайной величины £, то ясно, что Р{|£-М£|>е}= / dF(x). \х-МЦ\>е Так как в области интегрирования | х - Щ |/е > 1, то / dF(x)<~ f (x-MtfdF(x). Мы только усилим это неравенство, распространяя интегрирование на все значения х S dF(x) < 4е Я* " m?dF(x) = -5L . \х-М$\>е еГ е Неравенство Чебышева доказано. Теорема Чебышева. Если £ь |2,.. .,£«>*., - последователь- ность попарно независимых случайных величин, имеющих конечные дисперсии, ограниченные одной и той же постоянной Щг<С, Dfc<C,...,D*„<C,..., то, каково бы ни было постоянное е > О, Г | 1 » 1 " Urn Р { — S ?ft 2 Щк и~*°о (| П к =1 П к = 1 <е=1. (2)
178 Глава 6. Закон больших чисел Доказательство. Мы знаем, что в условиях теоремы о! и, следовательно, D Согласно неравенству Чебышева e2 ' ner Переходя к пределу при n -» оо, получаем, что А так как вероятность не может быть больше единицы, то отсюда следует утверждение теоремы. Мы отметим некоторые важные частные случаи теоремы Чебышева. 1. Теорема Бернулли. Пусть /х — число наступлений события А в п независимых испытаниях и р есть вероятность наступления события А в каждом из испытаний. Тогда, каково бы ни было е > О, lim р\ \--р\ <е\ = 1 п-+оо ^ J П I J lim ?\ \--р\ <е\ = \. (3) Доказательство. Действительно, введя случайные величины //*, равные числу наступлений события А при k-м испытании, имеем: А так как 1 М/х*=р, 0/х*=рд^-, то теорема Бернулли является простейшим частным случаем теоремы Чебышева. Так как на практике часто неизвестные вероятности приходится приближенно определять из опыта, то для проверки согласия теоремы Бернулли с опытом было проведено большое число опытов. При этом рассматривались события, вероятности которых можно считать по тем или иным соображениям известными, относительно которых легко проводить испытания и обеспечить независимость испытаний, а также постоянство вероятностей в каждом из испытаний. Все подобные опыты дали прекрасное совпадение с теорией. Мы приведем результаты нескольких таких легко воспроизводимых экспериментов.
§ 28. Закон больших чисел в форме Чебышева 179 В примере 5 § 3 мы рассмотрели результаты 100 разделений колоды карт на две равные части. Интересующее нас событие состояло в том, что в каждую полуколоду попадает одинаковое число красных и черных карт. В рассмотренном случае получилось довольно значительное окончательное (при п = 100) уклонение частоты от вероятности (приблизительно равное 0,02). По теореме Лапласа вероятность получить такое уклонение или еще большее равна p(k-Pbo,02Up(^bo,02,/^Ul-2$fo,02,/^>) = = 1-2Ф(0'°^Ы^)=,-2Ф(0'455)"0'65- Таким образом, если повторить указанный эксперимент большое число раз, то приблизительно в двух третях случаев получится уклонение, не меньшее, чем полученное в нашем опыте. Французский естествоиспытатель XVIII века Бюффон бросил монету 4040 раз, герб выпал при этом 2048 раз. Частота появления герба в опыте Бюффона приближенно равна 0,507. Английский статистик К.Пирсон бросил монету 12 000 раз и при этом наблюдал 6019 выпадений герба. Частота выпадения герба в этом опыте Пирсона равна 0,5016. В другой раз он бросил монету 24 000 раз, и герб при этом выпал 12 012 раз; частота выпадения герба при этом оказалась равной 0,5005. Во всех приведенных опытах частоты лишь немного уклонялись от вероятности — 0,5. 2. Теорема Пуассона. Если в последовательности независимых испытаний вероятность появления события А в k-м испытании равна рк, то limpJ|g-*+ft + "-+»|<e\ = 1, п-»оо (^ | П П I J где, как обычно, через р обозначено число появлений события А в первых п испытаниях. Введя в рассмотрение случайные величины //*, равные числу появлений события А в k-м испытании, и заметив, что 1 ЬЛрк =рк, Dpk =РкЯк^ -, мы убеждаемся, что теорема Пуассона является частным случаем теоремы Чебышева.
З.Если последовательность попарно независимых случайных величин £ь &,..., £л,... такова, что и D£i<C, Dfe<C,...,D?„<C,..., го, каково бы ни было постоянное е > О, lim 1 £ — 2 & - а п fc = i Ь <е «1 Этот частный случай теоремы Чебышева дает основание правилу среднего арифметического, постоянно употребляющемуся в теории измерений. Предположим, что производится измерение некоторой физической величины а. Повторив измерения п раз в одинаковых условиях, наблюдатель получит не вполне совпадающие результаты jci, х2, ..., хп. В качестве приближенного значения а принято брать среднее арифметическое из результатов наблюдений хг +*2 + ... + *„ а . Если измерения лишены систематической ошибки, т.е. если Mjcj = М#2 = . .. = Мдс„ = а, и если сами наблюденные значения не обладают неопределенностью, то согласно закону больших чисел при достаточно больших значениях п с вероятностью, сколь угодно близкой к единице, мы указанным путем можем получить значение, сколь угодно близкое к искомой величине а. Сказанное мы должны пояснить следующим; если измерительный прибор устроен так, что он не может давать точности отсчета большей, чем некоторая величина 5, например, из-за того, что ширина деления шкалы, по которой производится отсчет, равна 5, то, понятно, нельзя и рассчитывать получить точность измерения, большую, чем ± 5. Каждое измерение в этом случае дает результат с неопределенностью 5; но ясно, что при этом и среднее арифметическое будет обладать той же неопределенностью, как и каждое измерение. Это замечание учит нас, что если приборы дают нам результаты измерений с некоторой неопределенностью 5, то стремиться посредством закона больших чисел получить значение а с большей степенью точности является заблуждением, а сами произведенные при этом вычисления превращаются в арифметическую забаву. Мы ограничимся формулировкой теоремы Маркова; ее доказательство является очевидным следствием неравенства Чебышева. Теорема Маркова. Если последовательность случайных величин £ 19 %г,. •., £«,«.. такова, что при п -*-«> 4-D(Z fc)-0, (4) п *=i то, каково бы ни было положительное постоянное е, |<и... ton P - 2 %к 2 Щк \<е = -+«° \.\ П к =1 И * = 1 | ) п-* —
Если случайные величины £1} £2, ..., £„,. .. попарно независимы, то условие Маркова принимает вид: при п -► *> 1 п Отсюда видно, что теорема Чебышева является частным случаем теоремы Маркова. § 29, Необходимое и достаточное условие для закона больших чисел Мы уже указывали, что закон больших чисел является одним из основных предложений теории вероятностей. Отсюда становится понятным, почему так много усилий было положено на то, чтобы установить наиболее широкие условия, которым должны удовлетворять величины %\, %г) • •. , %т * • •» чтобы для них имел место закон больших чисел. История вопроса такова. В конце XVII - начале XVIII века Яков Бернул- ли нашел предложение, получившее его имя. Теорема Бернулли была впервые опубликована в 1713 г., после смерти автора, в трактате "Ars Conjectandi" (Искусство предположений). Затем в начале XIX века Пуассон доказал аналогичную теорему в более широких условиях. До середины XIX века не было достигнуто каких-либо новых успехов. В 1866 г. великий русский математик П.Л. Чебышев нашел метод, изложенный нами в предыдущем параграфе. Позднее А.А. Марков заметил, что рассуждения Чебышева позволяют получить более общий результат (см. § 27). Дальнейшие усилия долго не приносили принципиальных успехов, и лишь в 1926 г. А.Н. Колмогоров получил условия, необходимые и достаточные для того, чтобы последовательность взаимно независимых случайных величин £i» £2> ♦ •» £«, ••• подчинялась закону больших чисел, В 1923 г. А.Я. Хинчин показал, что если случайные величины %п не только независимы, но и одинаково распределены, то существование математического ожидания М£п является достаточным условием для применимости закона больших чисел. В последние годы много работ было посвящено определению условий, которые следует наложить на зависимые величины, чтобы для них выполнялся закон больших чисвл. Теорема Маркова принадлежит к предложениям этого рода. Используя метод Чебышева, легко получить условие, аналогичное условию Маркова, но уже не только достаточное, но и необходимое для применимости закона больших чисел к последовательности произвольных случайных величин.
182 Глава 6. Закон больших чисел Теорема 1\ Для того чтобы для последовательности {как угодно зависимых) случайных величин при любом положительном е выполнялось соотношение lim p||iS&-^SM&l<ei = 1' <0 необходимость и достаточно, чтобы при п —> оо 2 (ё(6-мб)) М Ч*=1 ^—j -4 0. (2) п2 + ( £ (6 - Мб)) Доказательство. Предположим сначала, что (2) выполнено, и покажем, что в этом случае выполнено также (1). Обозначим через Фп(х) функцию распределения величины 1 п * = ;:!£(&- м&)- п *=. Легко проверить следующую цепочку соотношений: |х|^е l+£V'" " 1+ б:2 /* x2 \+e2 f x2 Это неравенство доказывает достаточность условия теоремы. '' Стоит отметить, что критерий устойчивости арифметических средних независимых случайных величин £nj, т. е. 1 п P(ln^*ni~fll <6) ~* ! ПРИ П^°° для любого е > 0 (а — постоянное число), интересовал в начале XX века многих математиков и, в частности, С. Н. Бернштейна. Этой проблеме была посвящена его работа «О законе больших чисел» (см. Собрание сочинений С. Н. Бернштейна. Т. IV. М.: Наука, 1964. С. 61-70), опубликованная в 1918 году в Харькове. В ней С. Н. Бернштейн формулирует, в частности, обший критерий устойчивости (с. 61), из которого вытекает и утверждение приведенной теоремы. ' Последнее равенство мы пишем на основании формулы M№ = f№dF((x) (см. теорему §24).
§ 29. Необходимое и достаточное условие 183 Покажем теперь, что условие (2) необходимо. Легко видеть, что \xfee \xfee \Х\<£ >/ т^ *>М -«"-м^-Л (3) Таким образом, ч2 ^л 1+Чп Выбирая сначала £ сколь угодно малым, а затем п достаточно большим, мы можем сделать правую часть последнего неравенства сколь угодно малой. Отметим, что зсе теоремы, доказанные в предыдущем параграфе, легко вытекают из только что доказанного общего предложения. Действительно, так как при любом п и любых £* имеет место неравенство ,2 ^«-[iEfc-ы]. то в случае существования дисперсий отсюда вытекает неравенство Таким образом, если условие Маркова выполнено, то выполнено также условие (2) и, следовательно, последовательность £ь 6,..., £п, • • • подчиняется закону больших чисел. Все же мы должны заметить, что в более сложных случаях, когда у величин &• не предполагается конечных дисперсий, доказанная теорема для фактической проверки применимости закона больших чисел весьма мало пригодна, так как условие (2) относится не к отдельным слагаемым, а к их суммам. Однако рассчитывать на то, что, не сделав никаких предположений о величинах & и о существующей между ними связи, удастся найти необходимые и достаточные условия, к тому же удобные для приложений, по-видимому, нельзя. Если предположить, что величины £i, £2, £ь • • • взаимно независимы, то можно показать, что условие (2) эквивалентно следующему: при п -> оо *=i n + ** где обозначено С* = 6 " Щк-
Практическое использование только что доказанных теорем встречает одно принципиальное затруднение: можем ли мы считать, что изучаемое нами явление или производственный процесс протекают под воздействием независимых причин? Не противоречит ли само понятие независимости нашим основным представлениям о взаимосвязи явлений внешнего мира? При математическом изучении тех или иных явлений природы» технических процессов или тех или иных общественных явлений мы прежде всего должны выводить наши основные предпосылки, опираясь на глубокое изучение существа самого явления, качественных его особенностей. Мы должны учитывать изменение внешних условий, в которых протекает изучаемое нами явление и изменять математический аппарат и предпосылки, лежащие в основе его применения, как только обнаружится, что условия осуществления явления изменились. Отбрасывая несущественные связи между причинами, под влиянием которых развивается изучаемое явление, мы приходим к возможности в качестве рабочего аппарата пользоваться независимыми случайными величинами. Насколько удачно мы произвели схематизацию явления, насколько удачно выбран нами математический аппарат для его изучения, мы можем судить по согласию созданной нами теории с практикой. Если наши теоретические результаты существенно расходятся с опытом, то мы должны пересмотреть предпосылки, в частности, если идет речь о применимости закона больших чисел, то быть может придется отказаться от предположения о полной независимости действующих причин и перейти к предположению об их зависимости, быть может и слабой. Мы уже говорили, что накопленный опыт использования теорем о законе больших чисел показьюает, что условие независимости удовлетворительно во многих важных задачах естествознания и техники. § 30. Усиленный закон больших чисел Нередко из теоремы Бернулли делают совершенно необоснованный вывод, что частота события А при безграничном увеличении числа испытаний стремится к вероятности события А. На самом же деле теорема Бернулли устанавливает только тот факт, что для достаточно большого числа испытаний п вероятность одного единственного неравенства: <€ может быть сделана больше чем 1 — т? при произвольном ??> 0. В 1909 г. французский математик Э. Борель обнаружил более глубокое предложение, согласно которому при любых е > 0 и т?> 0 можно указать такое и0, что, каково бы ни было s, вероятность одновременного выполнения неравенств <€ для всех я, удовлетворяющих неравенствам л0 < п < л0 + s больше чем 1 —??. Эту теорему мы выведем из теоремы Колмогорова об усиленном законе больших чисел.
Неравенство Колмогорова. Если взаимно независимые случайные величины £г, %г>... Лп имеют конечные дисперсии, то вероятность совместного осуществления неравенств I 2 (Ь-МЬ)Ке (*=l,2,...,#i) не меньше, чем 1 п 1-— 2 D^. е л -1 Доказательство. Введем обозначения Vk =fc -М§Л, 5fc= 2 ть. Пусть, далее, Ек обозначает событие, состоящее в том, что \Sj\<e для j<k~\ и \Sk\>e\ Е0 означает событие, состоящее в том, что 15) | < е для / < л. Так как событие, состоящее в том, что хотя бы при одном к (1 < к < п) будет выполнено неравенство \Sk\>e (*=1,2,...,л) п (иными словами, что max | Sk \ > е) равносильно событию 2 Ек9 то i<к <п л = * в силу несовместимости событий Ек Р{ max \Sk\>e}= 2 Р(Ек). 1 < fc < п к ~ 1 Согласно равенству ((5) § 23) D5W= 2 P(Ek)-M(S2n\Ek)> 2 P(£'fc) - M(S2n \ Ek). Очевидно, далее, что М<3£|£-Л)«М{5! + 2 2 Skn^ 2 т?2 + 2 2 т? т?J3t)> />к ' / > * ' / > h>k ! >M{S*+2 2 5Лт?. + 2 2 v§vH\Ek}. / > fc ' / > h>k '
186 Глава 6. Закон больших чисел Так как осуществление события Ек налагает ограничение только на значения первых к из величин £,, а последующие остаются при этом условии независимыми друг от друга и от 5*, то ЩЗкгц\Ек) = M(Sk\Ek) • Щгц\Ек) = О и ЩтМн\Ек) = 0 (h*j9 h>k, j>k^\). Кроме того, имеет место неравенство M(Sl\Ek)2e2 (к>\). Мы можем написать поэтому, что п Отсюда п . J2 Р(Ек) = P{max \Sk\ ^ Л ^ -jDS„. Неравенство Колмогорова доказано. Мы скажем, что последовательность случайных величин подчиняется усиленному закону больших чисел, если, каковы бы ни были е > О и г/ > 0, можно указать такое п0, что для любого s и всех п, удовлетворяющих неравенствам По ^ п ^ п0 + 5, вероятность неравенства max п0^.п^.п0+8 1 " 1 <£ больше, чем 1 - г/. Теорема Колмогорова. £сл</ последовательность взаимно независимых случайных величин £\, &> • • • удовлетворяет условию n=l /wo она подчиняется усиленному закону больших чисел. Доказательство. Положим п 1 Щ = 6 - М£ь $, = У^ г/л, vn = -Sn. ы п Рассмотрим вероятность Pm = P{max |v„| >e,2m^n< 2m+l}.
§ 30. Усиленный закон больших чисел 187 Так как Pm<CP{max|vn|^, Un<2m+l}. то согласно неравенству Колмогорова К ' j<2m+* Так как, далее, 00 P{max |vn| ^ € для п > и} ^ У^ Рт, где р определяется из неравенств 2Р ^v < 2р+], то ясно, что 1 °° 1 P{max|vn|^£r для ^ > */}<С — ]Г) ^ Е D^' m=p i;<2m+l После перемены порядка суммирования в правой части последнего неравенства получим: оо j °° / 1 \ Е^ Е °^ = Е°ЦЕ^Ь т=р j<2m+l .7=1 где сумма Y2j распространена нате значения га^р, для которых 2m+l > j. При j < 2^+| коэффициент при D£;- равен а при 2m°+l > j ^ 2m° ^ 2^+l этот коэффициент равен 3.4m°"1 16 16 < 3 . 22("»o4-i) ^ 3.^2 Таким образом: 00 1 1 2/,+ _1 16 °° D£ Е^ Е °&< ji^t E D^+y E -тг = m=p j<2m+l J=l j=2P+* 1 А 16^' Dfr _16 ^ D£ .7=1 я=р+| j=2"+' J 1 ^^ 162^'D^ 16 ^ Dfc ;=i j=/H-l j=2'+' ^ 00 D£ В силу сходимости ряда Y1 —г: п=1 ">
1°. Две последние суммы в написанном выше неравенстве могут быть сделаны сколь угодно малыми при р достаточно большом. 2°. Существует такая постоянная С, что Df „ < Сп2, откуда следует, что 3 ' 3 • Ср3 ipr,!,0**-**- т.е. и первая сумма может быть сделана сколь угодно малой при достаточно большом р. Из всего сказанного следует, что при п0 Достаточно большом P{max|u„|>6 для n>v} может быть сделана сколь угодно малой, что и требовалось доказать. Следствие. Если дисперсии случайных величин %к ограничены одной и той же постоянной Q то последовательность взаимно независимых случайных величин %и %г> %3, ... подчиняется усиленному закону больших чисел. Один окончательный результат, относящийся к усиленному закону больших чисел, был получен также А.Н. Колмогоровым для случая одинаково распределенных независимых слагаемых. Теорема. Существование математического ожидания является необходимым и достаточным условием для применимости усиленного закона больших чисел к последовательности одинаково распределенных и взаимно независимых случайных величин. Эту теорему мы можем вывести из уже доказанной нами теоремы Колмогорова. Действительно, из существования математического ожидания следует конечность интеграла f\x\dF(x), где F(x) - функция распределения случайных величин %п. Поэтому 2 Р{Ш>л}= S 2 И*<|$|<*+1> = п = Х л = 1 к>п - 2 АР{*<Ш<А: + 1)< 1 / \x\dF(x)< л = 1 fc = 0 к <|x|<fc + l <Л*1<ВД<°°. (1) Введем в рассмотрение случайные величины Но" при |£л|<л, при |£„|>л.
Тогда получим: D|*<M|*2= f"x2dF{x)< 2 (*+l)2PU<|£i<fc+l) -n fc«=0 E —•< 2 2 / P{K|{|a+l}< < |p{KUKJt+i}(it+l)2 Б 4"- fc=0 Так как n>k П* «11 1 2 n>k n2 кг к к то в силу (1) находим, что ~ D£* т.е. (£ удовлетворяют усиленному закону больших чисел. Далее Р{?„=£?* при каком-либо я >JV}< 2 Р{?л=£^} = п >N = 2 P(U„|>«}<7 при N>NQ(e). Выберем vQ столь большим, чтобы при v>vu{e,ri) 2 (fc-Mfo) fc«i (2) (3) (4) Наконец, так как £* удовлетворяет усиленному закону больших чисел, то Pjmaxl v* \> ■ — ; л>И< — при »>Р\(€,ц), (5) где »£=- £ (IS-МЙ). Из (2), (3), (4) и (5) выводим Р{тах I ии i > т?; я > ^ } < е при v > тах(^0, plf N0), т.е. и £„ удовлетворяют усиленному закону больших чисел.
190 Глава 6. Закон больших чисел Принципиальная роль усиленного закона больших чисел в теории вероятностей и в ее приложениях весьма велика. Действительно, предположим на минуту, что, скажем, в случае одинаково распределенных слагаемых, имеющих конечное математическое ожидание, усиленный закон не имеет места. Тогда с вероятностью, сколь угодно близкой к единице, можно утверждать, что будут повторяться моменты, когда среднее арифметическое результатов наблюдений будет далеко от математического ожидания. И это бы случилось даже в тех случаях, когда наблюдения производятся без систематической ошибки и с полной определенностью (величина б, о которой была речь в §28, равна 0). Можно ли было бы в таких условиях считать, что среднее арифметическое из результатов наблюдений сближается с измеряемой величиной, могли бы мы в этих условиях считать, что среднее арифметическое можно считать за приближенное значение измеряемой величины? Сомнительно. § 31. Теорема В. И. Гливенко Мы перейдем теперь к доказательству теоремы Гливенко, которая вскоре после ее обнаружения получила в математической литературе название основной теоремы математической статистики. Речь идет об оценке неизвестной функции распределения случайной величины £ на основе результатов независимых испытаний. Пусть функция распределения случайной величины равна F(x), а результаты последовательных независимых испытаний в неизменных условиях будут X\,X2,...,Xn. (0 Последовательность результатов испытаний мы расположим в возрастающем порядке. Обозначив fc-е по величине наблюденное значение через х*к, мы можем последовательность (1) записать в следующем виде: Х*^Х*2^...^Х*п. Эта последовательность, т. е. последовательность наблюденных значений исследуемой случайной величины, расположенных в возрастающем порядке, носит название вариационного ряда. Эмпирической функцией распределения Fn(x) мы назовем функцию, определенную следующими равенствами: Fn(x) ( 0 при х ^х\, к - при х*к<х<^х*к+и ть \ 1 при х > х*п. Ясно, что эмпирическая функция распределения монотонна, непрерывна слева и имеет точки разрыва только при значениях аргумента, равных членам вариационного ряда. Величины скачков в точках разрыва являются целыми кратными от \/п. Для дальнейшего подчеркнем то обстоятельство, что при каждом значении х ордината Fn(x) является случайной
§ 31. Теорема В. И. Гл и вен ко 191 величиной, возможные значения которой будут 0, —, ..., , — = 1. п п п к Вероятность равенства Fn(x) = —, как легко видеть, равна п p|f„(x) = £ } = C*[F(x)]*[l - F(x)]n-k. В простейшем частном случае, когда случайная величина £ может принимать лишь конечное число значений a\, ai,..., as, членами вариационного ряда обязательно будут только числа этой последовательности. Согласно закону больших чисел, если rai,ra2,...,ras (mi + Ш2 + ... + rns = n) будут обозначать соответственно числа испытаний, при которых £ = й|, £ = й2, ..., £ = as, то при достаточно большом значении п частоты будут представлять приближенные значения неизвестных нам вероятностей р\ = Р{£ = а,\}, pi = Р{£ = аг}, ..., ps — р{£ = as}. Более того, в нашем случае имеет место и усиленный закон больших чисел. Прежде чем переходить к формулировке и доказательству теоремы, составляющей содержание настоящего параграфа, мы установим несколько вспомогательных предложений. Рассмотрим некоторую последовательность случайных величин £ь 6, ••• ,6*> — Событие, заключающееся в том, что эта последовательность сходится к некоторой случайной величине £, имеет в силу принятых нами аксиом, как мы увидим при доказательстве леммы 1, определенную вероятность. Если эта вероятность равна единице, то мы скажем, что последовательность {£„} сходится к £ почти наверное 3К В другой форме утверждение о сходимости почти наверное можно выразить так: последовательность случайных величин £i>&>••• >£п> ••• сходится почти наверное к случайной величине £, если с вероятностью единица для каждого целого положительного числа г найдется такое число п, что при всех к > О будут иметь место неравенства |бн*-*!<;• Очевидно, что равенство Р{*« "+*} = ! (1) мы можем записать и в иной форме: Р{б.тН}=0. (2) 'Это понятие в точности соответствует понятию сходимости почти всюду в теории функций.
Это выражение означает, что вероятность того, что найдется такое число г, что при всех п и хотя бы при одном значении к имеет место неравенство |«я+* - *|>1/г, равна нулю. Лемма 1. Если при любом целом положительном г ее 2 Р{ЦИ- %\ > 1/г><+-, (3) Я~ 1 го кмдег люто (1) или, что то же самое, (2). Доказательство. Обозначим через Егп событие, состоящее в том, что выполняется неравенство Положим, далее, ое Из того, что мы в силу (3) выводим равенство lim P{^}= 0. (4) Л-*оо Пусть теперь Sr^S[S{Si . . . Из того, что событие Sr влечет за собой любое из событий Srn, в силу (4) получаем: Р{^}-0. (5) Положим, наконец, S = Sl + S2 + <S3 + . . . Как нетрудно установить, это событие означает, что найдется такое г, .что для каждого п (п = 1, 2, 3, ... ) хотя бы при одном к [к = к(п)] будут выполняться неравенства \tn+k - *|> 1/г. Так как РШ< Б 9{Sr),
§ 31. Теорема В. И. Гл и вен ко 193 то в силу (5) Р{5} = О, что и требовалось доказать. Лемма 2. (теорема Бореля). Пусть /х — число наступлений события А при п независимых испытаниях, в каждом из которых событие А может появиться с вероятностью р. Тогда при п -> оо '(И= Заметим, что теорема Бореля является простейшим частным случаем теоремы А. Н. Колмогорова об усиленном законе больших чисел; здесь же дана только иная формулировка этого частного случая, отличная от общей формулировки теоремы § 30. и /и \4 Доказательство. События р -> 0 и [ р ) -> 0, очевидно, п \п ) эквивалентны. Введем, как это мы уже неоднократно делали, вспомогательные величины //,, равные числу появлений события А при г-м испытании. Находим, что М • \ 4 * п п п п \п / п 1=1 j=\ k=\ /=1 Элементарный подсчет показывает, что М Согласно лемме Чебышева й-"),=^["(р,+',)+""<"1-")1<^- е Чебышева Р{(п-р)4^}^ГМ(п-Р)4<^ Отсюда мы делаем заключение о сходимости ряда МНЧ}- п=1 Применение предыдущей леммы доказывает наше утверждение. Лемма 3. Если событие Е эквивалентно совместному осуществлению бесконечного числа событий E\,Ei,... Е = E\Ei... и каждое последующее событие Еп+\ влечет за собой предыдущее Еп, то Р{Е} = lim P{#„}. п-юо 7 Курс теории вероятностей
194 Глава 6. Закон больших чисел Доказательство. Действительно, событие Е\ можно двумя следующими способами представить в виде суммы несовместимых событий: Е\ — Е\Е2 + Е2Е^ + ... + Еп-\Еп + Еп и _ _ _ _ Е\ = Е\Е2 + Е2Е$ + ... + Еп-\Еп + ЕпЕп+\ + ... + Е. Отсюда Р{#,} = Р{Е,Ё2} + Р{Е2Ё3} + ... + ?{Еп.,Ёп} + Р{#п} и Р{#,} = Р{Е1Ё2}+Р{Е2Ё3}+..ЛР{Еп-1Ёп}+Р{ЕпЁп+]}+...+Р{Е}. Сравнение последних двух равенств приводит нас к соотношению 00 P{E} = P{En}-'£fP{EkEk+l}. k=n Так как вычитаемое в правой части есть остаток сходящегося ряда, то Р{Е} = lim Р{Еп}. П-400 Лемма 4. Если каждое из событий конечной или бесконечной последовательности Е\,Е2,...,ЕП9... имеет вероятность, равную единице, то вероятность их совместного осуществления также равна единице. Доказательство. Рассмотрим сначала два события Е\ и Е2, для которых Р{#,} = Р{#2} = 1. Так как Р{Е] + Е2} = Р{#,} + Р{Е2} - Р{ЕХЕ2) и Р{Е] +Е2} = 1, то Р{Е\Е2) = 1. Отсюда заключаем по индукции, что для любых п событий, для которых Р{Я,} = Р{Д2} = ... = Р{ЯП}=1, выполняется также равенство 9{ЕУЕ1...ЕП}=\. Пусть теперь имеется бесконечная последовательность событий Е\, Е2,... ..., Еп,..., для которых Р{Я|} = Р{Я2} = ... = Р{Д.} = ... = 1. Так как очевидно, что Е\Е2Е$... = Е\(Е\Е2)(Е\Е2Е^)... и каждый последующий множитель в правой части равенства влечет за собой предыдущий, то согласно предыдущей лемме Р{ЕхЕ2Ег...} = lim P{ElE2... Еп}. п-юо Это равенство доказывает лемму.
§ 31. Теорема В. И. Гливенко 195 Теорема Гливенко. Пусть F(x) — функция распределения случайной величины £ и Fn(x) — эмпирическая функция распределения результатов п независимых наблюдений над величиной £. Тогда при п -> оо р{ sup \Fn(x)-F(x)\-+0\ = l. Доказательство. Обозначим через жгд наименьшее ж, удовлетворяющее неравенствам F(x-0) = F(x)<^-^F(x + 0) (k= 1,2,...,r). г Пусть А означает событие, состоящее в том, что £ < хГ>к- Ясно, что Р{А} = F(xr,k). Так как частота появления события А равна Fn(xrtk), то по теореме Бореля (лемма 2) p{Fn(xrtk) -> F(xr%k)} = 1. (6) l n-юо J Пусть теперь El есть событие, состоящее в том, что при п -»• оо Fn(xrtk) -> F(xrtk) (k =1,2,..., г) и .о — ^ j ^2 • • • *-*т • Ясно, что событие ЕГ равносильно тому, что при п -> оо max |^п(жгд.)-^(жгд)|->0. Так как согласно (6) P{E\} = P{Er2} = ... = P{Err} = \, то в силу леммы 4 Р{#г} = 1. Пусть далее Е = Е1Е2Е3... . Согласно лемме 4 Р{#}= 1. Обозначим, наконец, через S событие, состоящее в том, что при п -* оо sup \Fn(x) - F(x)\-> 0. -00<Ж«Х> Для любого х, заключенного между хг%к и хг,к+\, выполняются неравенства Fn(xr,k + 0) ^ Fn(s) ^ F„(zr,*+i) и ^(«r.* + 0) ^ F(a?) ^ F(xrf*+i),
196 Глава 6. Закон больших чисел причем O^F(zr9k+\)-F(xr9k + 0)^-. г Отсюда мы заключаем, что Fn(xr,k + 0) - F(xr9k+\) < Fn(x) - F(x) ^ F„(zr,*+i) - Fn(xr,k + 0), т. е. что \Fn(x)-F(x)\^ max \Fn(xryk) - F(xr,k)\ + - и что, следовательно, sup \Fn(x) - F(x)\ ^ max \Fn(xr,k) - F(xrtk)\ + -• -оо<Коо l^fc^r Г Поскольку г произвольно, то из последнего неравенства вытекает, что Е С S. Этим, очевидно, доказано, что р{ sup |ад-адио} = 1. Упражнения 1. Доказать, что если случайная величина £ такова, что М ехр {а£} существует (о > 0 — постоянная), то ехр {ае} 2. Пусть f(x) > 0 — неубывающая функция. Доказать, что если существует М/(|£-М£|),то 3. Последовательность независимых и одинаково распределенных случайных величин {£,} определена равенствами а) р{(. = 2*-'"*-21" '"*} = 1 (А = 1,2,3,...), ^=*>-^ (*« «"'=£*]?*)• *=2 Доказать, что к указанным последовательностям закон больших чисел применим. 4. Доказать, что к последовательности независимых случайных величин {£п} таких, что HS«=na} = P{S„ = -ne} = 1/2, закон больших чисел применим тогда и только тогда, когда а < 0,5.
Упражнения 197 5. Доказать, что если независимые случайные величины £,,..., (ПУ... таковы, что max / \х\ dFk(x) -» 0, когда А -»• оо, то к последовательности {£„} применим закон больших чисел. Указание. Воспользоваться методом, примененным при доказательстве теоремы Хинчина. 6. Используя результат предыдущей задачи, доказать, что если для последовательности независимых случайных величин {£п} существуют такие числа а > 1 и ру что M|£|q ^/?, то к последовательности {£„} применим закон больших чисел (теорема Маркова). 7. Дана последовательность случайных величин {£„}, мя которых D£n ^ С, Rij -»• 0 при \i - j\ -»• оо (Rij — коэффициент корреляции между & и £,). Доказать, что к данной последовательности применим закон больших чисел (теорема С. Н. Бернштейна).
Глава 7 Характеристические функции Мы видели в предыдущих главах, что в теории вероятностей широко используются методы и аналитический аппарат различных отделов математического анализа. Простое решение весьма многих задач теории вероятностей, особенно тех из них, которые связаны с суммированием независимых случайных величин, удается получить с помощью характеристических функций, теория которых развита в анализе и известна под именем преобразований Фурье. Настоящая глава посвящена изложению основных свойств характеристических функций. §32. Определение и простейшие свойства характеристических функций Характеристической функцией случайной величины £ называется математическое ожидание случайной величины ехр{г££} 1\ Если F(x) есть функция распределения величины £, то характеристическая функция равна по теореме § 24 /(«)= Iexp{itx}dF(x). (1) Мы условимся обозначать в дальнейшем характеристическую функцию и соответствующую ей функцию распределения одними и теми же буквами, но только соответственно малой и большой. Из того, что | exp {itx}\ = 1 при всех вещественных t, следует существование интеграла (1) для всех функций распределения; следовательно, характеристическая функция может быть определена для каждой случайной величины. Теорема 1. Характеристическая функция равномерно непрерывна на всей прямой и удовлетворяет следующим соотношениям: /(0)=1, 1/(01 «Л (-оо<*<оо). (2) Доказательство. Соотношения (2) немедленно вытекают из определения характеристической функции. Действительно, по (1) /(0)= fldF(x) = l ' t — действительный параметр. Математическое ожидание для комплексной случайной величины { + iff определяем как Щ + гЩ. Легко проверить, что теоремы 1, 2 и 3 § 25 справедливы и в этом случае.
§ 32. Определение и простейшие свойства 199 |/(0I = \[ ехр {itx} dF(x)\ <С Г \ exp {zta}| d^(«) = / dF(x) = 1. Нам остается доказать равномерную непрерывность функции f(t). С этой целью рассмотрим разность f(t + h) - /(0 = J exp {ito}(exp {гжЛ} - 1) dF(x) и оценим ее по модулю. Имеем: 1/(* + Л) - /(01 ^ / I ехр {гаЖ} - 1| dF(z). Пусть е > 0 произвольно; выберем столь большое Л, чтобы / dF(x)<6-, \х\>А и подберем столь малое Л, чтобы для |ж| < А е |ехр{гжЛ}- 1| < -. Тогда А \f(t + Л) - f(t)\ ^ Г | ехр {гаЖ} - 11 dF(x) + 2 Г dF(x) < е. -А \xfeA Это неравенство доказывает теорему. Теорема 2. Если г) = а£+ Ь, где а и b — постоянные, то U = f((at)exp{ibt}, где frj(t) и fz(t) означают характеристические функции величины rj и£. Доказательство. Действительно, fv(t) = М ехр {Щ} = М exp {it(a£ + b)} = exp {itb}M exp {ita£} = = Qxp{itb}f^(at). Теорема З. Характеристическая функция суммы двух независимых случайных величин равна произведению их характеристических функций. Доказательство. Пусть £ и rj — независимые случайные величины и £ = £ + г/. Тогда очевидно, что вместе с £ и г/ независимы также случайные величины ехр {Щ} и ехр {itrj}. Отсюда вытекает, что М ехр {UQ — М ехр {it(£ + г/)} = М(ехр {Щ} ехр {i^r/}) = = М ехр {it£}M exp {itrj}. Это доказывает теорему.
200 Глава 7. Характеристические функции Следствие. Если причем каждое слагаемое независимо от суммы предыдущих, то характеристическая функция величины £ равна произведению характеристических функций слагаемых. Отметим, что характеристические функции удовлетворяют равенству /(-*) = /(*)• Действительно, f(-t) = f exp {-itx} dF(x) = / exp {itx} dF(x) = f(t). Применение характеристических функций в значительной степени опирается на свойство, сформулированное в теореме 3. Сложение независимых случайных величин, как мы видели в §21, приводит к весьма сложной операции — композиции функций распределения слагаемых. Для характеристических функций эта сложная операция заменяется весьма простой — простым умножением характеристических функций. Теорема 4. Если случайная величина £ имеет абсолютный момент п-го порядка, то характеристическая функция величины £ дифференцируема п раз и при к ^ п f{k)(0) = 1кЩк. (3) Доказательство. Действительно, fc-кратное (k ^ п) формальное дифференцирование характеристической функции приводит к равенству /<*>(*) = i* J xk exp {itx} dF(x). (4) Но Г хк exp {Itx} dF(x)\ ^ [ \х\к dF(x) и, следовательно, в силу предположения теоремы ограничен. Отсюда следуют существование интеграла (4) и законность дифференцирования. Положив в (4) t = 0, находим, что f<*)(0) = t* J xkdF(x). Математическое ожидание и дисперсия весьма просто выражаются при помощи производных от логарифма характеристической функции. В самом деле, положим W) = ln/(«) (легко понять, что In f(t) существует в некоторой окрестности нуля). Тогда
§ 32. Определение и простейшие свойства 201 .„m f"(t)-№-lf'(t)}2 Приняв во внимание, что /(0) = 1 и равенство (3), находим, что ^'(0) = /'(0) = 1Щ V"(0) = /"(0) - [/'(О)]2 = i2M£2 - [*М£]2 = -D*. Отсюда м« = >), 1 (5) Df = -*"(0). J Производная fc-ro порядка логарифма характеристической функции в точке 0, умноженная на ik, называется семиинвариантом к-го порядка случайной величины. Как это непосредственно следует из теоремы 3, при сложении независимых случайных величин их семиинварианты складываются. Мы только что видели, что первыми двумя семиинвариантами являются математическое ожидание и дисперсия, т. е. момент первого порядка и некоторая рациональная функция моментов первого и второго порядков. Путем вычислений легко убедиться, что семиинвариант любого порядка к есть (целая) рациональная функция первых к моментов. Для примера приведем явные выражения семиинвариантов третьего и четвертого порядков: 1'У"(0) = -{М£3 - ЗМ£2 • Щ + 2[М£]3}, iVv(0) = Щ4 - 4М£3 • М£ - 3[М£2]2 + 12М£2 • [Щ]2 - 6[Щ]\ Рассмотрим теперь несколько примеров характеристических функций. Пример 1. Случайная величина £ распределена по нормальному закону с математическим ожиданием а и дисперсией а2. Характеристическая функция величины £ равна 1 Г Г (х-а)2 Л Подстановкой х — а z = ita а <p(t) приводится к виду <p(t) = expliat-a2->-j= J expj-yjdz. -oo-ita
202 Глава 7. Характеристические функции Известно, что при любом вещественном a oo-ia I exp |-у | dz = Vbr, следовательно, <p(t) = exp Uat - — У Пользуясь теоремой 4, мы можем без труда вычислить центральные моменты для нормального распределения и тем самым другим путем получить результат примера, рассмотренного в § 26. Пример 2. Найти характеристическую функцию случайной величины £, распределенной по закону Пуассона. Согласно предположению величина £ принимает только целочисленные значения, причем pftgfc}s *'«*<-*> (k = 0,1,2,...), где Л > 0 —■ постоянная. Характеристическая функция величины £ равна 00 00 д* f(t) = М ехр {Щ} = ^Г ехР {»*<}Р{£ = *> = X) ехР {Ш>Т7 ехр {-Л} = = exp{-A}f^ (AeXPJ^})' = ехр{-А + Аехр{й}} = = ехр {А(ехр {й} - 1)}. Согласно (5) отсюда находим, что Щ = V(0) = A; D£ = -^"(0) = А. г Первое из этих равенств было нами ранее (§ 23, пример 3) получено непосредственно. Пример 3. Случайная величина £ равномерно распределена в интервале (-a, a). Характеристическая функция равна а dx sin at /(t) = у «p{.«*>- = — Пример 4. Найти характеристическую функцию величины /х, равной числу появлений события А в п независимых испытаниях, в каждом из которых вероятность появления события А равна р.
§ 33. Формула обращения и теорема единственности 203 Величина /х может быть представлена как сумма // = //, +ji2+ ... + /!„ п независимых величин, каждая из которых принимает лишь два значения 0 и 1, соответственно с вероятностями q = 1 -р и р. Величина //* принимает значение 1, если событие А происходит в к-м испытании, и значение 0, если событие А в к-м испытании не происходит. Характеристическая функция величины //* равна fk(t) = м exp {itfik} = exp {it • 0}g + exp {it • \}p = q + p exp {г£}. Согласно теореме 3 характеристическая функция величины /х равна п № = l[fk(t) = (q + pcxp{it})n. *=i /х - пр Найдем еще характеристическую функцию величины п = —ш y/npq По теореме 2 она равна /, = exp<-i£A/— \[ q + pexp < i \ ) = I V ^ J V I >/np<i) / = Gex4^v^}+pex4"\/J}) • § 33. Формула обращения и теорема единственности Мы видели, что по функции распределения величины £ всегда можно найти ее характеристическую функцию; для нас важно, что имеет место также обратное предложение: по характеристической функции функция распределения определяется однозначно. Теорема 1. Пусть f(t) u F(x) — характеристическая функция и функция распределения случайной величины £. Если Х\ и х2 — точки непрерывности функции F(x), то с „, ^ ■„, ^ 1 ,. f exp{-itx\} -exp{-itx2} _/jt4 ,Л /f4 F(x2) - F(xx) = — hm / -^ s— 1 -/(*) dt. (1) 27Г c-*oo J it -c Доказательство. Из определения характеристической функции следует, что интеграл с 1 Г exp {-ttei} - exp {-itx2} , Jc=2^J it f{t) dt
204 Глава 7. Характеристические функции равен с Jc = — - [exp {it(z - ж,)} - exp {it(z - ж2)}] ^(г) <**• -с В последнем интеграле можно изменить порядок интегрирования, так как по z интеграл абсолютно сходится, а по t пределы интегрирования конечны. Таким образом, с -T.IU exp {it(z - х\)} - exp {it(z - хг)} it dt\dF(z) = 2wJ С I exp{it(z-X\)}-exp {-it(z-X\)} - - exp {it(z - Xi)} + exp {-it(z - x2)} it sin t(z - x2) dt dF(z) = 00 С __}_[[ rsin*(z-si) -oo 0 Из анализа известно, что при с -> оо dtdF(z). 1 /* sin - ж J ~i dt -, если а > О, --, если a < О, (2) и эта сходимость равномерна относительно а в каждой области a > <J > 0 (соответственно a < -<J), и при |a| ^ 69 при всех с 1 /* sin at \ч * dt < 1. (3) Положим для определенности, что х2 > Х\, и представим интеграл Jc в виде следующей суммы: Х\-6 Х\+б Х2~д Х2+6 00 Jc=J+J+f + J+j 1>(c,z;zux2)dF(z), -00 Ж|—J I|+J Х2-6 Хг+6 где для краткости обозначено с I /* fsin£(z -Х\) smt(z-Xi) ,, ч I /* f sin£(z-жО sinJOz-a^)! i>(c,z;XuX2) = -J | 1 dt и <5 > О подобрано так, что Х\ + 6 < x2 - 6.
§ 33. Формула обращения и теорема единственности 205 В области -оо < z < Х\ - 8 имеют место неравенства z - Х\ < -6 и z - Х2 < -б. Поэтому мы на основании (2) заключаем, что при с -4 оо Х\-6 I 4>(c,z;xl,x2)dF(z)->0. -00 Аналогично при Х2 + 6 < z < +оо и при с -> оо 00 / $(c9z;x\9x2)dF(z)->0. х2+б Далее, так как в области X\+6<z<X2-6 имеют место неравенства z - Х\ > 6 и z - х2 < б, то согласно (2) при с -> оо Х2—6 Х2~б J ^(c,z\хх,х2)dF(z) -> I dF(z) = F(x2 -б)-F(x\ + 6). Х\+б Х\+б Наконец, в силу (3) мы можем воспользоваться оценками Х\+б Х\+б Г ip(c,z;xt,x2)dF(z)\<2 f dF(z) = 2{F(x{ + 6) - F(x\ - 8)) X\-6 X\-6 И Xi+б Xi+б I J t/>(c, z; xux2) dF(z)\< 2 J dF(z) = 2[F(x2 + 6)- F(x2 - <*)]. Хг-б Х2-6 Таким образом, находим, что при любом 6 > О lim Jc = F(x2 -б)- F(xt +6) + R\ (6, ж,, x2) C-400 И Um Jc = H^i -8)- F(x\ +6) + R2(6, xx, x2), c->oo где \Ri(6,xux2)\<2{F(xl+6)-F(x]-6)+F(x2 + 6)-F(x2-6)} (2 = 1,2). Пусть теперь б -> 0. При этом из того, что Х\ и Х2 являются точками непрерывности функции F(x), следуют равенства lim F(x\ + 6) = lim F(xx -6) = F(x\) б->0 6-tO И lim F(x2 + <J) = lim F(x2 - <*) = F(x2). J-»0 6-+Q
206 Глава 7. Характеристические функции А так как Jc не зависит от 6, то lim Jc = F(x2)-F(Xi). С-т 00 Равенство (1) носит название формулы обращения. Мы используем эту формулу для вывода следующего важного предложения (теорема единственности). Теорема 2. Функция распределения однозначно определяется своей характеристической функцией. Доказательство. Действительно, из теоремы 1 непосредственно следует, что в каждой точке непрерывности функции F(x) применима формула +с F(x) = — lim lim / : f(t)dt, 27Г y->-oo c-400 J it -c где предел по у берется по множеству точек у, являющихся точками непрерывности функции F(x). В качестве приложения последней теоремы мы докажем следующие предложения. Пример 1. Если независимые случайные величины £\ и £2 распределены нормально, то их сумма £ = ^ + £2 также распределена нормально. Действительно, если М£, =а,, D£, =<т?; Щ2 = а2, D& = <т2, то характеристические функции величин £| и £2 равны /i(0 = exp I iaxt - -a2t2 У f2(t) = ехр < ia2t - -alt2 >. По теореме 3 § 32 характеристическая функция f(t) суммы равна /(0 = /i(<)' /2(0 = ехр {«(а, + в2) - ~(а? + <т22)*2}. Это — характеристическая функция нормального закона с математическим ожиданием а = а{ + а2 и дисперсией а2 = а] + а]. На основании теоремы единственности заключаем, что функция распределения величины £ нормальна. Обратное предложение, доказанное Г. Крамером и сформулированное нами в §21, в терминах характеристических функций может быть сформулировано следующим образом: если f\(t) и f2(t) — характеристические функции и /i(0-/2(0 = exp И}-
§ 33. Формула обращения и теорема единственности 207 то /i(0 = exp<iat-V- L f2(t) = exp{-iat-y 2 } j, Пример 2. Независимые случайные величины £| и £2 распределены по закону Пуассона, причем , _ , _ А* ехр {-А,} _ А*ехр{-А2} Р{Ь-к}- - , P{fc-*}- й • Докажем, что случайная величина £ = ^ + £2 распределена по закону Пуассона с параметром Л = Ai + Л2. Действительно, в примере 2 предыдущего параграфа мы нашли, что характеристические функции случайных величин £i и £2 равны /,(*) = exp {А, (ехр {Щ - 1)}, f2(t) = ехр {Л2(ехр {it} - 1)}. В силу теоремы 3 предыдущего параграфа характеристическая функция суммы £ = £i + £2 равна /(*) = /,(*) • /2(0 = ехр {(Л, + Л2)(ехр {it} - 1)}, т. е. является характеристической функцией некоторого закона Пуассона. Согласно теореме единственности единственное распределение, имеющее f(t) своей характеристической функцией, есть закон Пуассона, для которого рК = >}=(А.+А2)>ехр{-(Л,+Ла)} (^0) Д. А. Райков доказал обратное, более глубокое предложение: если сумма двух независимых случайных величин распределена по закону Пуассона, то каждое слагаемое также распределено по закону Пуассона. Пример 3. Характеристическая функция вещественна тогда и только тогда, когда соответствующая ей функция распределения симметрична, т. е. когда при любых х функция распределения удовлетворяет равенству F(x) = 1 - F(-x + 0). Если функция распределения симметрична, то ее характеристическая функция вещественна. Если £ имеет симметричную функцию распределения, то как £, так и -£ распределены одинаково. Значит, имеет место равенство ДО = М ехр {Щ} = М ехр {-Щ} = /(-*) = Ш которое и означает, что f(t) вещественна. Для доказательства обратного предложения рассмотрим случайную величину ч) — -£. Функция распределения величины г/ равна G(x) = Р{ту < х} = Р{£ > -х} = 1 - F(-x + 0).
208 Глава 7. Характеристические функции Характеристические функции величин £ и г/ связаны соотношением g(t) = М exp {itrj} = М ехр {-#£} = М ехр {#£} = /(£)• Так как по условию f(t) вещественна, то f(t) = f(t) и, значит, 9(1) = /(<)• Из теоремы единственности мы теперь заключаем, что функции распределения величин £ и г/ совпадают, т. е. что F(s)=l-F(-s + 0), что и требовалось доказать. § 34. Теоремы Хелли В дальнейшем нам потребуеются две теоремы чисто аналитического характера — первая и вторая теоремы Хелли. Условимся говорить, что последовательность неубывающих функций Fi(x), F2(x), ..., Fn(x), ... сходится в основном к неубывающей функции F(x), если при п -»• оо она сходится к этой последней в каждой ее точке непрерывности. Впоследствии мы всегда будем считать, что функции Fn(x) удовлетворяют добавочному условию Fn(-oo) = 0, и не станем далее этого оговаривать. Отметим сразу же, что для сходимости в основном достаточно, чтобы последовательность функций сходилась к функции F(x) на каком-нибудь всюду плотном множестве D. Действительно, пусть х — любая точка и х' и х" — какие-нибудь две точки множества D, такие, что х' ^ х ^ х". При этом также Fn(x')^Fn(x)^Fn(xH). Следовательно, lim Fn(x) ^ Ит Fn(x) ^ lim Fn(x) ^ lim Fn(x"). П-ЮО П-ЮО П-ЮО П-ЮО А так как по предположению lim Fn(x') = F(x') и lim Fn(x") = F(x"), п-юо п-юо TO И F(x') <C lim Fn(x) ^ lim Fn(x) ^ F{x"). п-юо п_>0° Но средние члены в этих неравенствах не зависят от х1 и х", поэтому F(x - 0) ^ Ит Fn(x) ^ Ш Fn(x) ^ F(x + 0). п-юо п->°°
§34. Теоремы Хелли 209 Если функция F(x) в точке х непрерывна, то F(x - 0) = F(x) = F(x + 0). Следовательно, в точках непрерывности функции F(x) lim Fn(x) = .Р(ж). П-+0О Первая теорема Хелли. Всякая последовательность ограниченных в совокупности неубывающих функций Fx(x)9F2(x)9...9Fn(x)9... (1) содержит по крайней мере одну подпоследовательность Fni(x),Fn2(x),...9Fnk(x)9...9 сходящуюся в основном к некоторой неубывающей функции F(x). Доказательство. Пусть D — какое-нибудь счетное всюду плотное множество точек х\, х'ъ..., х'п,.... Возьмем значения функций последовательности (1) в точке х\ Fx(x\)9F2(x\)9...9Fn(x\)9 ... . Так как множество этих значений, по предположению, ограничено, то оно содержит по меньшей мере одну подпоследовательность Fxx(j!x)9Fx2(x\)9...9FXn(x\)9 ..., (2) сходящуюся к некоторому предельному значению, которое мы обозначим через G(x\). Рассмотрим теперь множество чисел Fxx(^2)9FX2(x'2)9...9FXn(x'2)9 .... Так как и это множество ограничено, то существует в нем подпоследовательность, сходящаяся к некоторому предельному значению G(x'2). Таким образом, из последовательности (2) мы можем выделить подпоследовательность F2x(x)9 F22(x), ..., F2n(x), ..., (3) для которой одновременно lim F2n(x\) = G(x\) и lim F2n(x2) = G(x'2). П-+О0 П-ЮО Продолжим такое выделение подпоследовательностей Fkx(x)9 Fk2(x), ..., Fkn(x), ..., (4) для которых одновременно имели бы место равенства lim Fkn(xfr) = G(x'r) П-400 при всех г ^ к. Составим теперь диагональную последовательность Fxx(x)9 F22(x), ..., Fnn(x)9 .... (5)
210 Глава 7. Характеристические функции Вся она в конечном счете выделена из последовательности (1), поэтому для нее lim Fnn(x\) = G{x\). Далее, так как вся диагональная п-юо последовательность, за исключением лишь первого члена, выделена из последовательности (2), то lim Fnn(x?2) = G(x'2). Вообще, вся диагональная п-юо последовательность, за исключением первых ее к - 1 членов, выделена из последовательности (4); поэтому для нее также lim Fnn(x'k) = G(x'k) п-юо при каждом к. Полученный результат можно сформулировать так: последовательность (1) содержит по крайней мере одну подпоследовательность, которая во всех точках х'к множества D сходится к некоторой функции G(x), определенной на множестве D. При этом, так как функции Fnn(x) не убывают и равномерно ограничены, то, очевидно, и функция G(x) будет неубывающей и ограниченной. Теперь ясно, что функцию G(x), определенную на множестве D, можно продолжить так, что она будет определена на всей прямой -оо < х < оо, оставаясь неубывающей и ограниченной. Последовательность (5) сходится к этой функции на всюду плотном множестве D; следовательно, она сходится к ней в основном, что и требовалось доказать. Заметим, что функция, полученная продолжением функции G, может оказаться не непрерывной слева. Но мы можем изменить ее значения в точках разрыва так, чтобы восстановить это свойство. Подпоследовательность Fnn будет сходиться и к таким образом «поправленной» функции. Вторая теорема Хелли. Пусть f(x) — непрерывная функция и пусть последовательность неубывающих, ограниченных в совокупности функций Fl(x)9F2(x),...,Fn(x)9... сходится в основном к функции F(x) на некотором конечном интервале а ^ х ^6, где а и Ь — точки непрерывности функции F(x); тогда ь ь lim [ f(x) dFn(x) = I f{x)dF(x). п-юо J J a a Доказательство. Из непрерывности функции f(x) вытекает, что как бы мало ни было положительное постоянное £, найдется подразделение интервала а ^ х ^ Ь точками ж0 = a < Х\ < ... < xn = Ь на частичные интервалы хк ^ х ^ хк+\ такое, что в каждом интервале (хк, a^.+i) будет выполняться неравенство \f(x) - f(xk)\ < е. Пользуясь этим обстоятельством, мы можем ввести вспомогательную функцию fe(x), принимающую только конечное число значений, определив ее посредством равенств f£(x) = f(xk) при хк ^ х < хк+]. Очевидно, что для всех х в интервале а ^ х ^ Ь выполняется неравенство |/(х) - /£(х)| < е.
§34. Теоремы Хелли 211 При этом мы можем заранее выбрать точки деления Х\, xi,..., х^-\ так, чтобы они были точками непрерывности функции F(x). В силу сходимости функций F\(x), Fi(x), .Рз(ж), ••• к функции F(x), при достаточно больших п во всех точках деления будут выполняться неравенства \F{xk)-Fn(xk)\<-^-, (6) где М — максимум модуля f(x) в интервале а ^ х ^ Ь. Без объяснений ясно, что ь ь ь ь \f f(x) dF(x) - f f(x) dFn(x)\ ^ \f f(x) dF(x) - J fe(x) dF(x) a a a a b b b b + \f f£(x) dF(x) - J f£(x) dFn(x)\ + \J fe(x) dFn(x) - f f(x) dFn(x) a a a a Нетрудно подсчитать, что первое слагаемое правой части не превосходит e[F(b) - F(a)], а третье не превосходит e[Fn(b) - ^п(а)] • Что же касается второго слагаемого, то оно равно N-\ N-\ £ f(xk)[F(xk+}) - F(xk)] - £ f(xk)[Fn(xk+}) - Fn(xk)] .ЛГ-1 N-\ = £ f(xk)[F(xk+l) - F„(xk+i)] - J2 H^)[F(xk) - Fn(xk)] и, следовательно, при достаточно больших п не превосходит 2е, как это вытекает из неравенства (6). В силу ограниченности функций Fn(x) в совокупности, сумма e[F(b) - F(a)] + e[Fn(b) - Fn(a)] + 2e может быть сделана сколь угодно малой вместе с е. Обобщенная вторая теорема Хелли. Если функция f(x) непрерывна и ограничена на всей прямой — оо < х < оо, последовательность ограниченных в совокупности неубывающих функций Fl(x)9F2(x), ...,F„(s), ... сходится в основном к функции F(x) и lim Fn(-oo) = F(-oo), lim Fn(+oo) = F(+oo), mo lim f f(x) dFn(x) = f f(x) dF(x). n->oo J J
212 Глава 7. Характеристические функции Доказательство. Пусть А < О и В > О; положим А А JX = \J f(x) dF(x) - J f(x) dFn(x) -00 -00 В В J2 = |у /(ж) <ВД - У f(x).dFn(x) A A 00 00 h = \f № dF(x) - f f{x) dFn(x) Очевидно, что \Jf(x)dF{x)- j f(x)dFn(x) ^Jj + J2 + J3. Величины J\ и J$ можно сделать сколь угодно малыми, если выбрать А и В достаточно большими по абсолютной величине и притом такими, чтобы точки Aw В были точками непрерывности функции F(x), а п выбрать достаточно большим. В самом деле, пусть М — верхняя грань |/(ж)| при -оо < х < оо; тогда J,^M[FU) + Fn(^)], h ^ M [F(+oo) - F(B)] + M [F„(+oo) - Fn(B)]. Но lim F(4) = 0, lim F(B) = F(+oo). j4-+-oo B-+00 А так как, по предположению, lim Fn(A) = F(A), lim Fn(5) = F(B), П-400 П-400 то наше утверждение об J\ и J3 доказано. Величина Ji при достаточно большом п может быть сделана сколь угодно малой в силу теоремы Хелли для конечного интервала. Теорема доказана. § 35. Предельные теоремы для характеристических функций Важнейшими с точки зрения приложений характеристических функций к выводу асимптотических формул теории вероятностей являются две предельные теоремы — прямая и обратная. Эти теоремы устанавливают, что соответствие, существующее между функциями распределения и характеристическими функциями, не только взаимно однозначно, но и непрерывно.
§ 35. Предельные теоремы для характеристических функций 213 Прямая предельная теорема. Если последовательность функций распределения Fx{x)9 F2(x)9 ..., Fn(x)9 ... сходится в основном к функции распределения F(x), то последовательность характеристических функций /.(*), /2(«), ...,/„(*), ... сходится к характеристической функции f(t). Эта сходимость равномерна на каждом конечном интервале t. Доказательство. Так как fn(t) = J exp {itx} dFn(z), f(t) = f exp {itx} dF(x) и функция exp {itx} непрерывна и ограничена на всей прямой -оо < < х < оо, то согласно обобщенной второй теореме Хелли для любого t при п -> оо /»(*) -> /(О- Утверждение, что эта сходимость равномерна на каждом конечном интервале t9 проверяется буквально теми же рассуждениями, какие мы провели при доказательстве второй теоремы Хелли. Обратная предельная теорема. Если последовательность характеристических функций /l(<),/2(0. -./.(*). - (1) сходится к непрерывной функции f(t), то последовательность функций распределения Fl(x),F2(x)9...9Fn(x)9... (2) сходится в основном к некоторой функции распределения F(x) (в силу прямой предельной теоремы f(t) = / exp {itx} dF(x)). Доказательство. На основании первой теоремы Хелли заключаем, что последовательность (2) непременно содержит подпоследовательность Fni(x), Fn2(x)9 ...,Fnk(x), ..., (3) сходящуюся в основном к некоторой неубывающей функции F(x). При этом понятно, что функцию F(x) мы можем считать непрерывной слева: (lim F(x') = F(x). Вообще говоря, функция F(x) может и не быть функцией распределения, так как для этого должны удовлетворяться еще условия F(-oo) = О и F(+oo) = 1. Действительно, для последовательности функций ад = { 0 при х ^ -п, 1 - при -п < х^п9 1 при х > п9
214 Глава 7. Характеристические функции предельная функция F(x) = 1/2 и, следовательно, F(-oo) и F(+oo) также равны 1/2. Однако в условиях нашей теоремы, как будет сейчас показано, обязательно будет F(-oo) = 0 и F(+oo) = 1. В самом деле, если бы это было не так, то, приняв во внимание, что для предельной функции F(x) должно быть F(-oo) ^ 0 и F(+oo) ^ 1, мы имели бы: 6 = F(+oo) - F(-oo) < 1. Возьмем теперь какое-нибудь положительное число е, меньшее 1 - 6. Так как по условию теоремы последовательность характеристических функций (1) сходится к функции /(£), то /(0) = 1. А так как, сверх того, функция f(t) непрерывна, то можно выбрать достаточно малое положительное число г такое, что будет иметь место равенство т 2t\J f(t) dt > 1-z ><5+r- 2 2 (4) Но в то же время можно выбрать X > — и настолько большое К, чтобы те при к > К было 6k = Fnk(X)-Fnk(-X)<6 + -. Так как fnk(t) есть характеристическая функция, то т т f fnk{t) dt = / [/ exp {itx} dt\ dFnk(x) Интеграл, стоящий в правой части этого равенства, можно оценить следующим способом. С одной стороны, так как | exp {itx}\ = 1, то т I/ exp {itx} dt <2r. С другой стороны, т I exp {itx} dt = — sin тх, х и так как | sin тх\ ^ 1, то при \х\ > X т I/ exp {itx} dt <
§ 35. Предельные теоремы для характеристических функций 215 Отсюда, применив первую оценку при \х\ ^ X и вторую при \х\ > X, получаем: т \Jfnk(t)dtU\ f (Jexv{itx}dt\dFnk(x)\ \хКХ + I ( Г exp {itx} dt) dFnk(x) \x\>X -T < 2тбк + j и, следовательно, -т Это неравенство сохраняется и в пределе \dt <s + i. Ш'«>' „ € что, очевидно, противоречит неравенству (4). Таким образом, функция F(x), к которой сходится в основном последовательность Fnit(x), есть функция распределения; согласно прямой предельной теореме ее характеристическая функция равна f(t). Чтобы закончить доказательство теоремы, нам остается доказать, что и вся последовательность (2) сходится в основном к функции F(x). Предположим, что это не так. Тогда найдется подпоследовательность функций Fn.{x), F„-(x) *■„.(*),..., (5) сходящаяся в основном к некоторой функции F*(x), отличной от F(x) по крайней мере в одной из точек непрерывности. По уже доказанному F*(x) должна быть функцией распределения с характеристической функцией /(£). По теореме единственности должно быть F*(x) = F(x). Это противоречит сделанному предположению. Заметим, что условия теоремы выполнены в каждом из двух следующих случаев: 1) последовательность характеристических функций fn(t) сходится к некоторой функции f(t) равномерно на каждом конечном интервале t; 2) последовательность характеристических функций /п(£) сходится к характеристической функции /(£). Пример. В качестве примера использования предельных теорем рассмотрим доказательство интегральной теоремы Муавра—Лапласа.
216 Глава 7. Характеристические функции В примере 4 § 32 мы нашли характеристическую функцию случайной a - пр величины rj = /npq fn Воспользовавшись разложением в ряд Маклорена, находим, что '.(«)= (ff«p{-ifyj}+pexp{e^}) . вшись разложением в ряд Маклорена, находим, ч ?ехр{-"\/5}+рехр{г'</5}=1"^(1+Дп)' „ .f 4il V~2pg*+g(-p>* *=3 Так как при п -> оо то /»(*) = ['-^1+Д»)] ->ехр|-^|. В силу обратной предельной теоремы отсюда вытекает, что при любом х -оо когда п -> оо. Из непрерывности предельной функции легко вывести, что эта сходимость будет равномерна по ж. § 36. Положительно определенные функции Цель настоящего параграфа — дать исчерпывающее описание класса характеристических функций. Приводимая нами ниже основная теорема была одновременно найдена А. Я. Хинчиным и С. Бохнером и опубликована впервые С. Бохнером. Для формулировки и доказательства этой теоремы нам нужно ввести новое понятие. Мы скажем, что непрерывная функция f(t) вещественного аргумента t положительно определена в интервале -оо < t < оо, если каковы бы ни были вещественные числа t\, ti,..., tn, комплексные числа £i, 6, • • •, £п и целое число п п п Перечислим несколько простейших свойств положительно определенных функций.
§36. Положительно определенные функции 217 1. /(0)^0. В самом деле, положим п = 1, t\ = 0, 6 = 1; тогда из условия положительной определенности функции f(t) находим, что п п k=\ j=\ 2. При любых вещественных t f{-t) = W)- Для доказательства положим в (1) п = 2, t\ = 0, ^ = *, £ь 6 произвольны. Имеем по предположению 2 2 = /(о - <%£, + /(о - 066 + f{t - o)6li + /(* - 066 = = /(0)(1612 + I6I2) + /(-066 + /(01.6, (2) поэтому величина /(-066 + /(066 должна быть вещественной. Таким образом, если положить f(-t) = = е*| + i/?i, f(t) = а2 + i/?2, 66 = 7 + W» 66 = 7 - М, т<> должно быть «i<* + /?i7 - «2^ + &7 = 0. Так как £\ и &, а следовательно, 7 и ^ произвольны, то должно быть а!-а2 = 0, /?,+/?2 = 0. Отсюда следует наше утверждение. 3. При любых вещественных t 1/(01 ^ /(0). Положим в неравенстве (2) £\ = f(t), & = ~1/(01> тогда согласно предыдущему 2/(0)|/(0l2 - l/(0l2l/(0l - l/(0l2l/(0l £ о. Отсюда при |/(01 Ф 0 получаем: /(0) £ 1/(01- Если же |/(0| = 0, то опять-таки в силу свойства 1 /(0)^1/(01- Из доказанного следует, между прочим, что если положительно определенная функция такова, что /(0) = 0, то f(t) = 0. Теорема Бохнера—Хинчина. Для того, чтобы непрерывная функция f(t), удовлетворяющая условию /(0) = 1, была характеристической, необходимо и достаточно, чтобы она была положительно определенной.
218 Глава 7. Характеристические функции Доказательство. В одном направлении теорема тривиальна. Действительно, если f(t) = Г ехр {itx} dF(x), где F(x) — некоторая функция распределения, то при любом целом п, произвольных вещественных t\,t2,... ,tn и комплексных числах £ь6>--->6» имеем: п п = £ £ {/ ехр М'* - *>)> <и*)}ь6 = = I ( Eexp (Й*ЖН* ) ( £exP {-^Ж} I; J dF(x) = r\n I2 = / Eexp {"**}& <вд^°- 1 A:= 1 Доказательство достаточности условий теоремы требует более сложных рассуждений. Рассмотрим последовательность чисел /1 — 1, зависящую от целочисленного параметра п. В силу положительной определенности функции f(x) мы имеем при любом N: Легко подсчитать, что в этой сумме имеется N - \г\ слагаемых, для которых разность к - j равна г. Далее очевидно, что число г может изменяться от —JV -I-1 до N - 1. Таким образом, имеет место равенство ^п)(*)=£ 0-£)'(£) «р<-<гх>- Умножим обе части полученного равенства на ехр {tra} и проинтегрируем по ж в пределах от -7г до ж: w N * I exp{isx}i?>x(x)dx= ^P ( ^"лг )«Ч / / QXP{-irx}Qxv{isx}dx. r=-N
§36. Положительно определенные функции 219 Известно, что 7Г / Г •/ \ 1 А ) ° ДЛЯ Г ^ 5, ехр {-гут - 5)ж} da: = < „ 7 1 27Г ДЛЯ Г = 5. Поэтому I1" l4)f (£) = i / ^")(х) ехр {tsx} dx=/ехр {isx} dF*)(x)' где х -Ж есть неубывающая функция с полным изменением, равным HnV) = ^/4n)(«)^ = /(0) = i, -7Г т.е. является функцией распределения. На основании первой теоремы Хелли мы можем найти последовательность Nk -> оо при к -> оо, для которой функции Fjy* (ж) (п фиксировано!) сходятся к предельной; обозначим ее через F^n\x). Функция F^(x) снова является функцией распределения, так как при любых N и произвольном € > О F$\-*-e) = 0, F%\* + e)=l и, значит, при произвольном е > О также F(n)(-7T - £Г) = 0, F{n)(7T+ €)={. Согласно второй теореме Хелли lim /" ехр {isx} dF$(x) = Г ехр {isx} dF{n)(x). -7Г -7Г Таким образом 2\ /(-) = fexp{isx}dF{n\x) -7Г при всех целочисленных s (s = 0, ±1, ±2,...). ' Заметим, что попутно нами доказана следующая теорема Герглотца. Если последовательность чисел сп (п = 0,±1,...) обладает тем свойством, что при любом выборе комплексных чисел f |, &> • • •»&\г и произвольном N N N
220 Глава 7. Характеристические функции Рассмотрим теперь последовательность характеристических функций fn{t), определенных посредством равенства 1ГП /„(*) = Г exp {itx} dFn(x), где Легко проверить, что при всех целочисленных к чэ-о Но каково бы ни было t, мы можем подобрать такую последовательность к = к(п, t)3\ что * 1 (К*-- < -. п п Из непрерывности функций f(t) следует, что /W= ton/(£) = ton/,(£). (4) п-+оо \П/ п-юо \TlJ Если мы докажем, что при всех вещественных t f(t) = ton /„(0, (5) n-юо то доказательство теоремы будет завершено, так как f(t) — непрерывная функция и поэтому, в силу обратной предельной теоремы для характери- стичеких функций, будет характеристической функцией. С этой целью заметим, что из (3) и (4) следует равенство П-ЮО '•»-*(;)]• = /(()+ Вт /„<<)-/„ - . (6) то последовательность сп может быть записана в форме Сп = / exp {inx} da(x), -ж где а(х) — неубывающая функция с ограниченной вариацией. 3' Всюду дальше под к мы понимаем числа k(n, t).
§36. Положительно определенные функции 221 к 1 Обозначим в = t . Согласно выбору величин к имеем 0 ^ в < —. По определению функции fn(t) 7ГП /»(*) - Л QJ = У ехр WxHexp {iOx} - 1) <£Fn(x) -7ГП ^ J \exp{i8z}-l\dFn{z). Воспользовавшись неравенством Буняковского, находим, что 1ГП 7ГП J | ехр {i6x} - 11 dFn(x) ^ /" | ехр {ite} - 112 dFn(x) = -7ГП ^-ТГП П (7) . У 2(l - cos Ox) dF„(x) = y/2(l - Rfn(0)), (8) ^-тгп где символ Rfn(0) означает вещественную часть Д(0). Так как cosz ^ ^ cos az при 0 ^ а < 1 и -тг ^ z < 7г, то 1 - Д/„(0) = / (1 - cos Ox) dF„(x) = -7ГП 7Г 7Г = Ml - cos (в • nz)) dFn(zn) ^ / (1 - cos z) ^„(zn). -7Г F„(zn) = .F(n)(z), А так как то 1 - Д/nW ^ / (1 - cosz) dF(n)(z) = 1 - R Г ехр {zz} dF(n)(z). -тг -тг Отсюда в силу (3) находим, что 1-Д/п(*К1-Д/(^). (9) Собрав вместе неравенства (7), (8) и (9), находим, что I/. f.»-/.(s)|<^('-v(i)).
222 Глава 7. Характеристические функции Из непрерывности функции f(t) отсюда следует, что lim \fn(t)-fn(-)}=0. Соотношение (5), как это видно теперь из (6), доказано. § 37. Характеристические функции многомерных случайных величин В настоящем параграфе мы излагаем без доказательств основные сведения о характеристических функциях многомерных случайных величин. Характеристической функцией n-мерной случайной величины (£ь 6> •••>&») называется математическое ожидание величины exp{t(£i£i + + Ы2 + • • • + tn€n)}> где t\, ti,... Лп — вещественные переменные: Если F(x\ ,ж2,... ,хп) есть функция распределения величины (^ ,£2,-.. • • ->£п), то, как мы знаем из предыдущего4), /(«I, «2, • • •, *п) = / • • • / (ехр г ^2 '***) dF(xu ..., хп). (2) Подобно тому как и в одномерном случае, характеристическая функция n-мерной случайной величины равномерно непрерывна во всем пространстве (-оо < tj < +00, 1 ^j ^ n) и удовлетворяет следующим соотношениям: /(0,0 0)= 1, |/(М2,...Л)1^1 (-оо < ** <+оо, к =1,2,...), /Hi, ~*2, • • •, -«») = /(*i,*2,...,*n). По характеристической функции f(t\,t2, • • • , *п) случайной величины (£ь 6, • • •»£п) легко найти характеристическую функцию любой fc-мерной (к < п) величины (£/,,£;2,... ,£/*), компонентами которой являются величины £s (1 ^ 5 ^ п). Для этого в формуле (2) нужно положить равным нулю все аргументы ts при s ф jr (1 ^ г ^ к). Так, например, характеристическая функция величины ^ равна /i(*i) = /(*i,0 0). Из определения вытекает, что если компоненты величины (£ь &,... ..., £п) являются независимыми случайными величинами, то ее характеристическая функция равна произведению характеристических функций См. теорему § 24 и замечание о многомерных интегралах Стилтьеса в § 23.
§37. Многомерные характеристические функции 223 компонент /(«I, «2,.-, <») = /|(«|)'/2(«2).../»(«»)• Так же как и в одномерном случае, многомерные характеристические функции позволяют легко находить моменты различных порядков. Так, например, = («')■ dftdt*2 ...dtKnn *>г< Для вычисления характеристических функций полезно знать следующую теорему, доказательство которой без труда проведет читатель. Теорема 1. Если характеристическая функция величины (^i, ^2» - • • • • •, £п) равна f(t\,t2i... ,tn), то характеристическая функция величины \а\£\ + а\, <т26 + о2,..., (Tnin + an), где а;- и <tj (\^j ^ri) - вещественные постоянные, равна ехр < i ]Г akh \ ' /(<Mi, *2*2, • • > <rntn)- Пример 1. Вычислим характеристическую функцию двумерной случайной величины, распределенной по нормальному закону: Р(Х'У) = 2тг(1-Н) СХР {"2(1-Н)^2 " 2ГХУ + УЧ' (3) По формуле (2) f(t\,t2)= // t\Q{i{t\X + t2y)}j>{x,y)dxdy. Заменой переменных мы можем привести f(t\,t2) к виду f{UM) = zxx>i-\{t] + 2rUt2 + ^ = ехр{-^ + 2гМ2 + *22)}. Пример 2. Применяя теорему 1, мы найдем характеристическую функцию величины (т)\,т)2), распределенной по нормальному закону: р(х, у) = 2тга\а2(\ -г2) х ср {- ' [fcyg - 2," - «* ' » + <^Д}. <4) I 2(1 -Г2) L ff? <7|*2 0-2 J/
224 Глава 7. Характеристические функции Если мы положим rj\ = <7|£i + а, щ = <т2£2 + &» т0 величина (£i, £2) будет распределена по закону (3). Согласно теореме 1 характеристическая функция величины (г/ьг/г) равна vCh *2) = ехр < iat\ + iftf2 - х (^fri + 2<7i<r2rM2 + 0*2*2) f • Из определения характеристической функции вытекает следующая Теорема 2. Если f(t\,t2, -. ,tn) есть характеристическая функция величины (£ь &,..., &») /ио характеристическая функция суммы 6 + 6 + • • • + 6» /ююю ДО = ДМ,..., О- Примечание. Заметим, что /(*) = /(«I. «2 «») есть характеристическая функция суммы t\£\ + £2£2 + • • • + tn£n- Пример 3. Применим теорему 2 к определению функции распределения суммы г)\ + г/2, если (r/i, г/2) распределена по закону (4). Согласно теореме 2 характеристическая функция суммы г)\ + г/2 равна /(<) = ехр | ft (а + 6) - - {*] + 2г<7, а2 + <т22) } • Мы знаем (пример 1 § 32), что это — характеристическая функция нормального закона с математическим ожиданием, равным а + Ь, и дисперсией, равной а\ 4- 2г(Т\(Т2 + а?. Этот результат был нами получен ранее непосредственно (§21, пример 2). Важно заметить, что в многомерном случае сохраняется следующая теорема. Теорема 3. Функция распределения F(x\,X2,..., хп) однозначно определяется своей характеристической функцией. Доказательство этого предложения основывается на формуле обращения. Теорема 4. Если f{t\,t2,... Лп) — характеристическая функция, a F{x\,Xi9...yxn) — функция распределения случайной величины (£\,Ь,---Лп),гпо P{ak^tk<h, fc=l,2,...,n} = т т п - нт l f />T7e^{*W-exp{ftA} f( ... rp гр K-— I где a,k и bk — любые вещественные числа, удовлетворяющие единственному требованию: вероятность попадания на поверхность параллелепипеда dk^tk <h (к = 1, 2,..., п) равна нулю. Точно так же, как и в одномерном случае, имеют место прямая и обратная предельные теоремы для характеристических функций. Мы не будем на этом останавливаться.
§37. Многомерные характеристические функции 225 Пример 4. Говорят, что п-мерная случайная величина (£i,&,...,6») имеет невырожденное (собственное) n-мерное нормальное распределение, если ее плотность распределения имеет вид р(хи хъ..., хп) = Сехр I --<?(Ж|, х2,..., хп) >, Q(x{, х2,..., хп) = J2 М** - <**)(*> - aj) где *>.? — положительно определенная квадратичная форма, С, а, и Ь,-;- — действительные постоянные. Несложные подсчеты показывают5), что С = {у/ъупу/Ъ, где D = Ь\\ Ь\2 ... Ь\п Ь2\ &22 • • • Ь2п \Ьп\ Ьп2 ... ЬПП| Обозначим через Д; минор D, соответствующий элементу Ьу, тогда М$ = о,-, ^ = D£ = -^ (j = U 2,... ,п), г» = М(6 - o,-)(fr - Qj) (7,(7 ,i/j y/Wjj (i9j= 1,2,...,n). Определитель D и главные миноры его положительны. Обычными подсчетами легко проверить, что характеристическая функция величины (£i, £2, • • •, 6») равна /(«I, <2, • • •, tn) = ехр < %I ]Г азЧ " 2 ^ ^ VjVkTjktjtk У Таким образом n-мерное нормальное распределение вполне определяется заданием математического ожидания и дисперсии. Из выражения для характеристической функции n-мерной нормально распределенной случайной величины мы видим, что распределение величины (sin st2> • • • > si*) при любых 1 ^ i\ < i2 < ... < ik ^ n будет А;-мерным нормальным распределением. ^Обычный прием при подобного рода подсчетах заключается в том, что заменой переменных приводят форму Q к сумме квадратов и все вычисления производят в новых переменных. 8 Курс теории вероятностей
226 Глава 7. Характеристические функции § 38. Преобразование Лапласа—Стилтьеса Для случайных величин, которые принимают только неотрицательные значения, во многих случаях предпочтительнее, чем характеристическими функциями, пользоваться преобразованиями Лапласа—Стилтьеса. Пусть случайная величина £ — неотрицательная и F(x) — ее функция распределения. Преобразованием Лапласа—Стилтьеса для F(x) называется интеграл 00 f(s) = / exp {-sx} dF(x). (1) -о Преобразование Лапласа—Стилтьеса обладает рядом полезных свойств, в значительной мере повторяющих свойства характеристических функций. 1. Преобразование Лапласа—Стилтьеса является аналитической функцией в правой полуплоскости; для него нечетные производные отрицательны, а четные — положительны. 2. Д0)=1. 3. Функция распределения однозначно определяется по своему преобразованию Лапласа—Стилтьеса. 4. Чтобы последовательность функций распределения сходилась в каждой точке непрерывности, необходимо и достаточно, чтобы последовательность их преобразований Лапласа—Стилтьеса сходилась равномерно в каждом конечном отрезке аргумента. 5. Преобразование Лапласа—Стилтьеса суммы независимых случайных величин равно произведению преобразований Лапласа—Стилтьеса слагаемых. 00 6. /W(0) = (-l)n fxndF(x). -о Приведем преобразования Лапласа—Стилтьеса для некоторых распределений. 1. Единичное распределение: F(x) = 0 при х^.а и F(x) = 1 при х > а; f(t) = Qxp{-as}. 2. Показательное распределение: F(x) = 1 - exp {-\х} при х ^ 0; раха-] 3. Гамма-распределение: F'(x) = exp {-/?#}, а и /3 — положительные постоянные; 0а
§38. Преобразование Лапласа—Стилтьеса 227 4. Распределение Пуассона: р* = — > Л: = 0, 1,2,...; f(s) = ехр {-Л(1 - ехр {-*})}. 5. Геометрическое распределение: р* = Р{£ = к} = qpk, к = 0,1,...; /(8)=1-Ре?р{-*Г <7=1_Р- Проиллюстрируем использование теории преобразований Лапласа— Стилтьеса на примере одной технической задачи. В современном инженерном деле одним из важнейших свойств технических систем принято считать их высокую надежность, т. е. способность длительное время выполнять без ущерба для дела положенные рабочие функции. Для увеличения надежности технических устройств используется широкий спектр мер, в том числе так называемое резервирование с восстановлением. Предположим, что А\ представляет собой какой-нибудь элемент технической системы (или саму систему в целом). Для увеличения его надежности мы подключаем точно такой же элемент Ai, который принимает на себя рабочие функции в момент, когда А\ исчерпывает свой рабочий ресурс (отказ элемента Aj). В момент отказа А\ немедленно 1) А\ отправляется на ремонт (восстановление рабочих функций) и 2) подключается в работу элемент Ai, который и берет на себя всю рабочую нагрузку. Спрашивается, какой эффект дает резервирование (введение дополнительного элемента Ai) и восстановление отказавших элементов, если после ремонта восстановленный элемент немедленно передается в резерв? Для решения этой задачи нам придется сделать некоторые предположения. А именно мы предположим, что 1) длительность безотказной работы элемента представляет собой случайную величину с функцией распределения F(x); 2) оба элемента А\ и А2 обладают одинаковыми техническими данными и после ремонта полностью восстанавливают свои рабочие свойства; 3) длительность восстановления rj является случайной величиной с распределением G(x); 4) отказавший элемент после отказа немедленно начинает ремонтироваться; после восстановления элемент немедленно переходит в резерв. Обозначим через £ длительность безотказной работы пары элементов А\ и А2 и через Ф(х) ее функцию распределения. Заметим, что под безотказной работой пары элементов мы понимаем период от начала работы до момента, когда оба элемента окажутся в состоянии отказа. Наша ближайшая задача состоит в том, чтобы вывести уравнения для неизвестной функции Ф(ж). Нам будет удобно искать не функцию Ф(х), а функцию Ф(х) = 1 -Ф(ж). (И вообще, для функции распределения F^(x) введем обозначение F^(x) = 1 - F^(x) = Р{£ ^ х}.)
228 Глава 7. Характеристические функции Событие £ ^ х может наступить двумя принципиально различными способами: во-первых, может случиться, что элемент А\ сам проработает время большее, чем х, а, во-вторых, А\ может отказать до момента х, но система, состоящая из А\ (отправленного на ремонт) и Ai (взявшего на себя нагрузку), проработает безотказно оставшееся до момента х время. Обозначим через ш(и) вероятность того, что только что описанная система проработает безотказно время, большее и. Собрав все вместе, мы получаем следующее равенство: Ф(х) = F(x) + X fu(x-z)dF(z). (2) Полученного равенства для решения стоящей перед нами задачи недостаточно, поскольку при его составлении мы ввели дополнительную неизвестную вероятность ш. Для ее определения составим новое уравнение. Найдем и(х). Здесь также можем случиться, что интересующее нас событие может наступить двумя различными путями: описанная нами система проработает больше, чем время х, поскольку элемент А\ проработает время, большее х\ элемент Л2 откажет до момента ж, но до этого момента будет восстановлен элемент А\ и система, состоящая из отказавшего элемента А2 и вступившего в работу отремонтированного элемента А\, проработает по меньшей мере до момента х. Сказанное приводит нас к равенству X ш(х) = F(x) + Гш(х- z)G(z) dF{z). (3) о Для решения полученных уравнений мы воспользуемся преобразованиями Лапласа—Стилтьеса. С этой целью введем в рассмотрение преобразования 00 00 (p(s) = / exp{-sx} dФ(x), f(s) = / exp {sx} dF(x), о о 00 00 u(s) = / exp {-sx} du(ж), g(s) = / exp {-sx)G(x) dF(x). о о В терминах этих преобразований уравнения (2) и (3) принимают следующий вид: Ф) = f(s)w(s), u(s) = f(s) - g(s) + ui(s)g(s). Из них находим
§38. Преобразование Лапласа—Стилтьеса 229 Формально задача решена, поскольку мы нашли преобразование Лапласа—Стилтьеса распределения Ф(х) и, значит, по формуле обращения можем найти и саму функцию Ф(ж). Однако полученный результат позволяет получить многочисленные следствия, на которых мы остановимся. Мы сейчас ограничимся определением средней длительности Т безотказной работы системы с резервом. Из формулы (4) находим М>) = Г(>) , П»)-№ . № Ф) /0») f(s)-9(s) 1 -9(a)' Отсюда, положив s = О, приходим к равенству Но мы знаем, что 00 Т = Щ = -У (0), а = Г х dF(x) = -/'(0) о и что оо а = 1 - д(0) = Г G(x) dF(x) о есть ни что иное как вероятность того, что длительность восстановления окажется больше, чем длительность безотказной работы элемента. Таким образом. 1—(| + ±). (5) Из этой формулы мы видим, что среднюю длительность безотказной работы дублированной системы можно повысить двумя различными путями: 1) увеличивать среднюю длительность безотказной работы элементов; 2) уменьшать продолжительность ремонта. Как правило, первый способ достается большой ценой, тогда как второй — нуждается только в хорошей организации работ. К тому же он приносит, как это видно из формулы, более ощутимые результаты; особенно, если а « 0, т. е. если длительность восстановления оказывается, как правило, меньше длительности безотказной работы элемента. Предположим теперь, что мы совершенствуем процесс восстановления и на п-й стадии достигаем функции распределения Gn(x) такой, что ап -> 0, не обращаясь при этом в 0. Докажем, что если математическое ожидание длительности безотказной работы элемента конечно и равно а, а ап -> 0, то имеет место
230 Глава 7. Характеристические функции следующее предельное соотношение: Р1 т~ > х i "^ ехр{-ж} при х^О (п->оо). Иными словами, мы докажем, что асимптотически длительность безотказной работы рассматриваемой системы двух элементов имеет показательное распределение. Согласно сформулированным нами свойствами преобразований Лапласа—Стилтьеса нам следует показать, что преобразование Лапласа— Стилтьеса для величины (>п/Тп стремиться к 1/(1 + s). С этой целью преобразуем выражение следующим образом: "Ш •■Ш-'(£)—— i + Ш £ '•(/(£)-*Ш) Но очевидно, что i-/(f) /(f)-/(0) ^/=--^24. >-/'(0) = а (»-юо). Т„ Тп Ясно, что Теперь ,.КжЬШ=±/(,.ехр{.|})(|_ад)^,
Упражнения 231 Оценим интеграл, стоящий в правой части последнего соотношения. С этой целью разобьем его на два слагаемых: у/Т^ оо (/ + /) 0"~eXP{~f })(l-Gn(x))dF(x). о /С В первом слагаемом воспользуемся неравенством 1 - ехр {-ж} ^ х, а во втором — неравенством 1 - ехр {-х} ^ 1. В результате получим, что у/Тп 00 /(l-exp{-g})(l-G„(a;))dF(x)^^y(l-Gn(x))dF(x)=o(an)) О О оо оо у/Тп у/Тп Собрав все оценки вместе, окончательно получаем *"Ш = ТТ7(1+<,(1))' что и требовалось доказать. Упражнения 1. Доказать, что функции 00 00 /i(о = ]Сa*cos *'» лw = ]Са*ехр {*Л**ь где ак ^ 0, 5^ а* = 1, являются характеристическими. Определить соответствую- щие распределения вероятностей. 2. Найти характеристические функции для следующих плотностей вероятностей: а) р(ж) = -ехр{-ф|}; б) р(х) = 7Г(02 + Ж2) ' f ° в) р(х) = i a-\x\ К а2 „ . 2 аХ 2 sin — г) р(х) = i. О при \х\ ^ о, - \х\ — при |ж| < о; 7гаж2
232 Глава 7. Характеристические функции Замечание. Внимательный читатель заметит, что примеры а) и б), а также в) и г) являются, так сказать, обратными. 3. Доказать, что функции являются характеристическими соответственно для плотностей распределения Р*(х) = тгж' Л(з) = -Ш> Рз(») = тгж- 2ch — 4ch2— 2sh — 2 2 2 4. Найти распределения вероятностей случайных величин, характеристические функции которых равны . . , . о . sin at a) cos J; б) cos'J; в) -; г) ——. 7 ' f a + %t ' at 5. Доказать, что функция, определяемая равенствами ДО = /(-*), f(t + 2а) = /(0, /(0 = — при 0 ^ U в, а является характеристической. Замечание. Характеристические функции примеров 2 г и 5 обладают следующим замечательным свойством: они совпадают при \t\ ^ о и различны при |*|>ви*^±2в,.... Таким образом, существуют характеристические функции, значения которых совпадают в сколь угодно большом отрезке [-а, о] и не равные тождественно. Первый пример таких двух характеристических функций был указан Б. В. Гнеден- ко; затем М. Г. Крейн указал необходимые и достаточные условия, при которых из равенства двух характеристических функций в каком-либо отрезке [-а, о] следует их тождественное равенство. 6. Доказать, что можно найти такие независимые случайные величины £i>&>£b что распределения £2 и £3 различны, а функции распределения сумм £i + & и £| + £3 одинаковы. Указание. Воспользоваться результатами примеров 2 г и 5. 7. Пусть f(t) — характеристическая функция, равная нулю при \t\ ^ о. Доказать, что функция у?(2), совпадающая с f(t) для \t\ ^ a и вне этого отрезка продолженная периодически с периодом 2а, также является характеристической. Указание. Воспользоваться теоремой Бохнера—Хинчина. 8. Доказать, что если функция f(t) является характеристической функцией, то функция У>(*) = ехр{/(*)-1} также является характеристической. 9. Доказать, что если функция f(t) является характеристической функцией, то функция t <p(t) = jff(z)dz о также является характеристической.
Упражнения 233 10. Доказать, что для любой вещественной характеристической функции (p(t) имеет место неравенство I-<p(2t) ^4(1-<p(t)), а, значит, для любой характеристической функции — неравенство 1-|/(2<)|Ч4(1-|/(<)|2). 11. Доказать, что для любой вещественной характеристической функции имеет место неравенство l + f(2t)2 2[№]2. 12. Доказать, что если F(x) — функция распределения, a f(t) — ее характеристическая функция, то при любом значении х верно равенство т ;im ^ J № exp {-ite} dt = F(x + 0) - F(x - 0). lim Г-юо -Г 13. Доказать, что если F(x) — функция распределения, a f(t) — ее характеристическая функция и Хк — абсциссы скачков F(x), то т Ит ^ У |/(012« = £ И** + 0) - *■<** - 0)]2. 14. Доказать, что если случайная величина имеет плотность распределения, то ее характеристическая функция при t -> оо стремиться к 0. 15. Случайная величина ( распределена по закону Пуассона; Щ = А. Дока- зать, что при А -> оо распределение величины —^=- стремиться к нормальному vA с параметрами a = 0 и о1 = 1. 16. Случайная величина ( имеет плотность распределения 0 при х ^ 0, ~^тжа_1 exp {-/to} при х > 0, где а > 0. Доказать, что при а -> оо распределение величины —=— сходится к нор- у/а мальному с параметрами а = 0, а2 = 1. Замечание. Результаты упр. 15 и 16 позволяют при вычислении вероятностей Р{о ^ £ < 6} для больших значений А (соответственно а) использовать таблицы нормального распределения. В частности, оказывается, что для распределения х2 уже при n ^ 30 указанное предельное распределение дает прекрасную точность. Это последнее замечание постоянно используется в статистике. 17. Доказать, что если <p(t) — характеристическая функция и функция t/>(t) такова, что для некоторой последовательности {hn} (hn -> оо при п -> оо) произведения fn(t) = <p(t)t/>(hnt) также являются характеристическими функциями, то функция ip(t) — характеристическая.
Глава 8 Классическая предельная теорема § 39. Постановка задачи Интегральная предельная теорема Муавра—Лапласа, доказанная нами в главе 2, послужила источником большого цикла исследований, имеющих фундаментальное значение как для самой теории вероятностей, так и для ее многочисленных приложений в естествознании, технических и экономических науках. Для того, чтобы составить себе представление о направлении этих исследований, мы придадим теореме Муавра—Лапласа несколько иную форму. А именно, если, как это мы неоднократно делали, через //* обозначить число появлений события А в к-м испытании, то число появлений события А в п последовательных испытаниях п п равно ^2 //*. Далее, в примере 5 §25 мы подсчитали, что М ^2 р,к = пр к=\ к=\ п и D ^2 ць = npq. Поэтому теорема Муавра—Лапласа может быть записана к=\ в таком виде: при п -> оо п 52 (fik - м/х*) яг/"" И}* <'> и словами сформулирована так: вероятность того, что сумма уклонений независимых случайных величин, принимающих два значения О и 1 с вероятностями, соответственно равными q и р = 1 - q (0 < р < 1), от их математических ожиданий, деленная на квадратный корень из суммы дисперсий слагаемых, будет заключаться в пределах от а до Ь, при увеличении числа слагаемых до бесконечности, равномерно относительно а и Ь 1 / / *2\л стремится к интегралу —= I ехр < —- > dz. а Естественно возникает вопрос: насколько тесно связано соотношение (1) со специальным выбором слагаемых //*, не будет ли оно иметь место и при более слабых ограничениях, наложенных на функции распределения слагаемых? Постановка этой задачи, а также ее решение являются, в основном, делом П.Л.Чебышева и его учеников А.А.Маркова и А. М. Ляпунова. Их исследования показали, что на слагаемые
§ 39. Постановка задачи 235 следует наложить лишь самые общие ограничения, смысл которых состоит в том, что отдельные слагаемые должны оказывать незначительное влияние на сумму. В следующем параграфе мы дадим точную формулировку этого условия. Причины, в силу которых эти результаты приобрели огромное значение в приложениях, лежат в самом существе массовых явлений, изучение закономерностей которых, как мы говорили ранее, и составляет предмет теории вероятностей. Одной из важнейших схем, по которой идет использование результатов теории вероятностей в естествознании и технике, состоит в следующем. Считают, что процесс протекает под влиянием большого числа независимо действующих случайных факторов, каждый из которых лишь ничтожно мало изменяет течение явления или процесса. Исследователь, интересующийся изучением процесса в целом, а не действием отдельных факторов, наблюдает лишь суммарное действие этих факторов. Приведем два типичных примера. Пример 1. Пусть производится некоторое измерение. На результат неизбежно действует большое количество факторов, порождающих ошибки в измерении. Сюда относятся ошибки, вызванные состоянием измерительного прибора, которое может нечувствительно изменяться под влиянием различных атмосферных или механических причин. Сюда относятся личные ошибки наблюдателя, вызванные особенностями его зрения или слуха и также могущие незначительно изменяться в зависимости от психического или физического состояния наблюдателя, и т.д. Каждый из этих факторов породил бы ничтожную ошибку. Но на измерении сказываются сразу все эти ошибки, наблюдается «суммарная ошибка». Иначе говоря, фактически наблюдаемая ошибка измерения будет случайной величиной, являющейся суммой огромного числа ничтожных по величине и независимых между собой случайных величин. И хотя эти последние неизвестны, так же как неизвестны их функции распределения, их влияние на результаты измерений заметно и поэтому должно быть подвергнуто изучению. Пример 2. В процессе массового производства, существующего во многих отраслях промышленности, изготовляются большие партии одинаковых предметов. Обратим внимание на какую-нибудь числовую характеристику интересующего нас продукта. Поскольку это изделие находится в соответствии с техническими нормами, существует некоторая нормальная величина избранной нами характеристики. В действительности же наблюдается некоторое отклонение от этой нормальной величины. При правильно поставленном процессе производства такие отклонения могут вызываться лишь случайными причинами, каждая из которых производит лишь незаметный эффект. Суммарное же их действие производит заметное уклонение от нормы. Подобных примеров можно привести сколько угодно. Таким образом, возникает задача изучения закономерностей, свойственных суммам большого числа независимых случайных величин, каждая их которых оказывает лишь малое влияние на сумму. Этому послед-
236 Глава 8. Классическая предельная теорема нему требованию мы придадим позднее более точный смысл. Вместо того чтобы изучать суммы очень большого, но конечного числа слагаемых, мы будем рассматривать последовательность сумм со все большим и большим числом слагаемых и считать, что решения интересующих нас задач даются предельными функциями распределения для последовательности функций распределения сумм. Такого рода переход от конечной постановки задачи к предельной является обычным как для современной математики, так и для многих отделов естествознания. Итак, мы пришли к рассмотрению следующей задачи: дана последовательность взаимно независимых случайных величин о которых мы предположим, что они имеют конечные математические ожидания и дисперсии. В дальнейшем мы станем придерживаться следующих обозначений: п п *=1 k=\ Спрашивается, какие условия нужно наложить на величины &., чтобы функции распределения сумм сходились бы к нормальному распределению? В следующем параграфе мы увидим, что для этого достаточно выполнения условия Линдеберга: при любом т > О п БГЁ / (x-ak)2dFk(x) = 0, lim n-*oo _„ к~*\х-ак\>тВ, где Fk(x) обозначает функцию распределения величины £к. Выясним смысл этого условия. Обозначим через Ак событие, состоящее в том, что \Ь-ак\>тВя (fc = l,2,...,n) и оценим вероятность р{ max |&-а*| >тВп\. Так как р{ max \£к - ак\> тВп\ = Р{А{ + А2 + ... + Ап} И п Р{А, + А2 + ... + А„} ^ X) РМ*>> fc=i
§ 40. Теорема Линдеберга 237 то, заметив, что Р{Ак}= J dFk{x)^j^j2 f (x-ak)2dFk{x), \х-ак\>тВп \х-ак\>тВп находим неравенство 1 п г P{™gn I& - *к\ > тВп} <: -^ Yl J (* - а*? ***(*)• к=]\х-ак\>тВп В силу условия Линдеберга, каково бы ни было постоянное т > 0, последняя сумма при п -> оо стремится к нулю. Таким образом, условие Линдеберга представляет собой своеобразное требование равномерной малости слагаемых —(& - ак) в сумме (2). Отметим еще раз, что смысл условий, достаточных для сходимости функций распределения сумм (2) к нормальному закону, был вполне выяснен уже исследованиями А.А. Маркова и А. М.Ляпунова. § 40. Теорема Линдеберга Мы начнем с доказательства достаточности условия Линдеберга. Теорема. Если последовательность независимых случайных величин £ь 6> • • •, £п> • • • при любом постоянном т > 0 удовлетворяет условию Линдеберга lim -rV / (х- lim^T^ / (x-ak)2dFk(x) = 0, (1) к-Х\х-ак\>тВп mo при п -> оо равномерно относительно х X *—' -оо Доказательство. Для краткости введем обозначения Очевидно, что Щпк = 0, 0£пк = jp D& и, следовательно, £D*„* = 1. (2') к=\
238 Глава 8. Классическая предельная теорема Легко убедиться, что условие Линдеберга в этих обозначениях принимает следующий вид: HmV / x2dFnk(x) = 0. (1') k-[\x\>r Характеристическая функция суммы , n n ТГ ^ (6 - «*) = ^2 %пк равна n Нам нужно доказать, что lim pn(0 = exp<-- >. n-+oo ^ 2 J С этой целью мы установим прежде всего, что множители /п*(0 при п -> оо равномерно относительно А; (1 ^ А; ^ п) стремятся к 1. Действительно, принимая во внимание равенство ЩПк = О, находим, что fnk(t) - 1 = / (ехр {г*ж} - 1 - itx) dFnk(x). Так как при любом вещественном а ^ | ехр {га} - 1 - ia\ ^ а2/2, (3) то ? \fnk{t)-\\^f x2dFnk{x). 1' Это неравенство и целую серию ему подобных можно вывести хотя бы следующим путем. Из того, что | ехр {ia} - 1| = / ехр {ix} dx ^ a (a > 0) 0 вытекает неравенство | ехр {га} - 1 - га| = / (ехр {ix} - 1) dx Из последнего неравенства далее следует, что * 2 I a \ \ Г \ f f x a exp{ia}-l-m+— = / (ехр{гя}- \-ix)dx ^ / |exp{iz}-l -ix\dx^. / —dx=—, I 2 I |y I У У 2 6 ooo О') и т.д.
§ 40. Теорема Линдеберга 239 Пусть е — произвольное положительное число; тогда очевидно, что Г x2dFnk(x)= J x2dFnk(x)+ J x2dFnk(x)<^e2 + J x2 dFnk(x). \x\^e \x\>e \x\>e Последнее слагаемое может быть, согласно (I7), при достаточно больших п сделано меньше, чем е2. Таким образом, для всех достаточно больших п равномерно относительно к (Х^к^п) и t в любом конечном интервале \t\ ^Т \fnk(t)-\\^e2T2. Отсюда мы заключаем, что равномерно относительно к (1 ^ к ^ п) Нт /„*(*) = 1 (4) П-+00 и что для всех достаточно больших п при t, лежащих в произвольном конечном интервале \t\ ^Т, выполняется неравенство \fnk(t) - Ц < \. (5) Мы можем, следовательно, в интервале \t\ ^ Т написать разложение (In обозначает главное значение логарифма) п п in vn(t) = J2ln /■*(') = J2ln i{+(/«*(') - *)] = Ar= 1 k=\ n *=1 где = £(ыо-0+Дп> (6) п оо / .v, В силу (5) Так как \ г Y, !/»*(') - *i = !£ / <ехрtfte> -* - itx>>dFnkM к=\ \J ^i>2fx2dFnk(x) = -9 к=\ то ^2 |i^- max |/„*(0-М- 2 l^fc^n
240 Глава 8. Классическая предельная теорема Из (4) вытекает, что равномерно относительно t в произвольном конечном интервале \t\ ^ Т, при п -> оо Но где Rn -> 0. (7) Е (Л* W-!) = "+*. (8) ?п = Т + X) / (еХР {^ " 1 ~ itX>> dFn*(X)- k=\ J Пусть е > 0 произвольно; тогда в силу (2') Рп = Е / (exp {ite} - 1 - ite - ^у-J dft*(») + v^ Г ft2*2 \ 22 I ( — + exp {ite}- 1-itel k=]\xKe + E / (-г-+ехр {»'*} -] -itx) ^л(ж). Неравенства (3) и (3') позволяют получить следующую оценку: 13 " Ы ^ Е / М3 dFnk(x) + t2JT, J х2 dFnk(x) ^ k=l\x\^e k=*\x\>e ^'*E j x2dFnk(x) + t2it f X2dFnk(x) = *=,M<* k=]\x\>e k=*\x\>e Согласно условию (1) второе слагаемое при любом € > 0 может быть сделано меньше любого г/ > 0, лишь бы п было достаточно большим. А так как € > 0 произвольно, то мы можем его выбрать настолько малым, чтобы, каковы бы ни были г/ > 0 и Т, для всех t, заключенных в интервале \t\ ^ Г, выполнялось неравенство \рп\<2г) (п^По(£г,г/,Г)). Это неравенство показывает, что равномерно в каждом конечном интервале значений t ton pn = 0. (9) П-ЮО
§ 40. Теорема Линдеберга 241 Собрав вместе соотношения (6), (7), (8) и (9), мы получаем окончательно, что равномерно в каждом конечном интервале t t2 lim \n<pn(t) = --. n->oo z Теорема доказана. Следствие. Если независимые случайные величины £ь &, • • •, £п> • • • одинаково распределены и имеют конечную, отличную от нуля дисперсию, то при п —у оо равномерно по х *-' -оо Доказательство. Нам достаточно проверить, что при сделанных предположениях выполнено условие Линдеберга. С этой целью заметим, что в нашем случае Вп = bVn, где Ь2 обозначает дисперсию отдельного слагаемого. Положив М& = а, мы можем написать следующие очевидные равенства: Ебт / (*-«)2<*ВД = k~] n J *-' \х-а\>тВп = in / {х"а)2 dFx {x)=h I {x"a)1 m {x)' \х-а\>тВп \х-а\>тВп В силу предположения о конечности дисперсии и ее положительности заключаем, что интеграл, стоящий в правой части последнего равенства, стремится к нулю, когда п -> оо. Теорема Ляпунова. Если для последовательности взаимно независимых случайных величин £\, &, • • • > €п> • • • можно подобрать такое положительное б > О, что при п -> оо то при п -» сю равномерно по х К^ |> - «*> < *Ь ж / еЧ_т} <**• *-' -оо Доказательство. Нам снова достаточно проверить, что условие Ляпунова (условие (10)) влечет за собой выполнение условия Линдеберга.
242 Глава 8. Классическая предельная теорема Но это ясно из следующей цепочки неравенств: "Й2 Е / (*-<ь)2Щ*)< °П k_, J *-'|i-e|>rB„ £/l*-afc|2+'dFfc(x) ^в£ / ъ-чГт»^*^-^ k=] \x-ak\>TBn § 41. Локальная предельная теорема Мы приведем теперь достаточные условия для применения другой классической предельной теоремы — локальной теоремы. При этом мы ограничимся рассмотрением только случая взаимно независимых слагаемых, имеющих одно и то же распределение вероятностей. Условимся говорить, что дискретная случайная величина £ имеет решетчатое распределение, если существуют такие числа а и h > О, что все возможные значения £ могут быть представлены в виде а + kh, где параметр к может принимать любые целые значения (-оо < к < оо). К решетчатым относятся, например, распределения Пуассона, Бер- нулли и др. Выразим теперь условие решетчатости распределения случайной величины £ в терминах характеристических функций. С этой целью докажем следующую лемму. Лемма. Для того чтобы случайная величина £ имела решетчатое распределение, необходимо и достаточно, чтобы при некотором t Ф О модуль ее характеристической функции был равен единице. Доказательство. Действительно, если £ распределена решетчато и р* есть вероятность равенства £ = a + kh, то характеристическая функция величины £ равна 00 00 f(t) = ^2 Vk exp {it(a + kh)} = exp {iat} ^ p* exp {itkh}. fc=-oo fc=-oo Отсюда находим, что /1 — J = exp l 2тгг- > ^ pk exp {2ттгА:} = exp I 2ni- I. Мы видим, таким образом, что для каждого решетчатого распределения Kf)h Предположим теперь, что при некотором t\ Ф О
§ 41. Локальная предельная теорема 243 и докажем, что при этом £ имеет решетчатое распределение. Последнее равенство означает, что при некотором в /(*,) = ехр{г0}. Таким образом, / exp {it\x} dF(x) = ехр {гв} и, следовательно, f exv{i{Ux-0)}dF{x)= 1. Отсюда вытекает, что J cos (t]x-0)dF(x)= 1. Для того чтобы это равенство было возможно, необходимо, чтобы функция F(x) могла расти только при тех значениях ж, при которых cos(t\X -в) = 1. Это означает, что возможные значения £ должны быть вида в 2тг что и требовалось доказать. Число Л мы будем называть шагом распределения. Шаг распределения h максимален, если ни при каких Ь (-оо < Ь < оо) и h\ > h нельзя представить все возможные значения £ в виде Ь + kh\. Для иллюстрации различия между понятиями шага распределения и максимального шага распределения рассмотрим такой пример. Пусть £ может принимать в качестве своих значений все нечетные числа. Очевидно, что все значения £ могут быть записаны в виде а 4- kh, где а = О, Л = 1. Шаг Л, однако, не будет максимальным, так как все возможные значения £ можем записать также в виде Ь 4- kh\, где Ь = 1, h\ = 2. Условия максимальности шага распределения можно выразить и в других терминах. Во-первых, шаг распределения будет максимальным тогда и только тогда, когда общий наибольший делитель попарных разностей возможных значений величины £, поделенных на Л, равен единице. Во-вторых, шаг распределения Л максимален тогда и только тогда, когда модуль характеристической функции в промежутке 0 < |£| < 27г/Л меньше единицы и при t = 2n/h равен единице. Последнее утверждение немедленно вытекает из только что доказанной леммы. В самом деле, если при 0 < t\ < 2n/h то согласно доказанному величина 2n/t\ должна быть шагом распределения, а так как h < 2ir/t\, то шаг h не может быть максимальным.
244 Глава 8. Классическая предельная теорема Отсюда мы можем сделать такой вывод: если Л — максимальный шаг распределения, то для каждого е > О найдется такое число <% > О, что при всех t в интервале € ^ \t\ ^ 2n/h - € имеет место неравенство |/(t)Kexp {-(*}. (1) Пусть теперь случайные*величины £ь &,..., £п> •• • взаимно независимы, решетчато распределены и имеют одну и ту же функцию распределения F(x). Рассмотрим сумму Очевидно, что она также является решетчатой случайной величиной и возможные ее значения могут быть записаны в виде na+kh. Обозначим через Pn(k) вероятность равенства (n = na + kh; в частности, Р\(к) = Р{£\ = a + kh} = р*. Обозначим далее _ an + kh - An где An = MC„, Bl = DC„ = nD£,. Мы можем теперь доказать следующее предложение, очевидным образом обобщающее локальную теорему Муавра. Теорема. Пусть независимые решетчатые случайные величины {ьб ^ имеют одну и ту же функцию распределения F(x) и их математические ожидания и дисперсии конечны. Тогда для того, чтобы равномерно относительно к (-оо < к < оо) при п -> оо имело место соотношение необходимо и достаточно, чтобы шаг распределения h был максимальным. Доказательство. Необходимость условия теоремы почти очевидна. Действительно, если шаг Л не максимален, то возможные значения п суммы (п = J2 & будут содержать систематические пропуски: разность между ближайшими возможными значениями суммы не может быть меньше dh, где d есть общий наибольший делитель разностей возможных значений £„, деленных на Л. Если Л — не максимальный шаг, то d > 1 при всех значениях п. Доказательство достаточности условия теоремы требует несколько более сложных рассуждений.
§ 41. Локальная предельная теорема 245 Характеристическая функция величины & (к = 1, 2,...) равна 00 00 f(t) = ]Г^ р* ехр {iat + itkh} = ехр {iat} ^ р* ехр {itkh}, fc=-00 fc=-00 а характеристическая функция суммы £„ есть 00 /"(*) = ехр {г'опО ^ Р„(к) ехр {ЙЛЛ}. Л=-00 Умножив последнее равенство на ехр {-iant - itkh} и проинтегрировав его в пределах от -ж/h до 7г/Л, находим, что тг/Л / -тг/Л тг/Л у P»(fc) = f f(t) ехр {-mn* - itkh} dt. Заметив, что hk = Bnznk + An- an (вместо znk мы будем дальше писать z), можем написать тг/Л уРя(*) = У rn(t)exp{-itzBn}dt, -тг/Л где обозначено /•<«) = ехр{-^}/(«). Положив, наконец, х = £ВП, находим окончательно: nBn/h -Р„(*) = / csxpHz»}/-^)^ 2тгД -P..W = -7ГВ„/Л Легко подсчитать, что 1 л/2тг Представим разность ^Л'^)=^1а9{'"х'^\лх- *-*'[тл<*)-^-р{-т}] в виде суммы четырех интегралов ^=75+72 + 73 + ^4,
246 Глава 8. Классическая предельная теорема где Ji=fcv{-izx}[r(j^ -exp j-y}] dx, -А J2 = - / exp < -izx —— > dx, \x\>A J3= I exp {-izx}f*n ( — ) dx, J4= / exp {-izx}f*n ( — j dx, A^.\x\<eBn где A > 0 — достаточно большое, ае>0- достаточно малое постоянные числа, более точные значения которых будут выбраны нами позднее. В силу следствия из теоремы, доказанной в предыдущем параграфе, в любом конечном интервале значений t равномерно относительно t выполняется соотношением г0:ЬЧ-т} (""оо)' Но отсюда следует, что каково бы ни было постоянное А, J\ -> 0 (п -> оо). Интеграл J2 оценивается посредством неравенства 00 \J2\ ^ I ехр | -у i dx ^ - I жехр | -у \ dx = -exp | -у |. \х\>А Л Выбрав достаточно большое А, мы можем сделать 32 сколь угодно малым. Согласно неравенству (1) имеем 7з^ / K*(f) ^^ехр{-псо}2БпЦ-А eBn^\x\^(wBn)/h Отсюда ясно, что при п -»• оо J3->0 Для оценки интеграла J4 мы заметим, что существование дисперсии влечет за собой существование второй производной у функции f*(t). Мы можем, следовательно, в окрестности точки t = 0 воспользоваться согласно (3) § 32 разложением Л«)= l-^ + of*2).
Упражнения 247 и при \t\ ^ е, если е достаточно мало, получим: 1/(01<1- —<ехр|-—|. Тогда при |х| ^ еВ„ KUJI <еХР{-45ГГеХР{-4)- Поэтому |J4| ^ 2 у ехр |-Ц df < 2 У ехр |-Ц dt. Выбором достаточно большого А мы можем добиться, чтобы интеграл 3^ был сколь угодно мал. Теорема доказана. Имеется еще другой случай, когда естественно ставить вопрос о локальном поведении функций распределения сумм. Это — случай непрерывных распределений. Здесь ставится вопрос о том, когда плотности распределения нормированных сумм сходятся к плотности нормального распределения, если соответствующие функции распределения сходятся к нормальной. Оказывается, что для случая одинаково распределенных независимых случайных слагаемых с конечной дисперсией достаточным является условие интегрируемой плотности слагаемых в какой-либо степени S > 1. Если отказаться от этого условия, то легко указать примеры случайных величин, имеющих плотности распределения вероятностей и принимающих значения только в ограниченном интервале, но для которых локальная теорема не имеет места (см. монографию Б. В. Гнеденко и А. Н. Колмогорова). Упражнения 1. Доказать, что при п -> оо V 2 / ° -°° Указание. Применить теорему Ляпунова к распределению %2. 2. Случайные величины t — } " с веР°ятностыо 0,5, " ' ' ~" с вероятностью 0,5 независимы. Доказать, что при a ^ —0,5 к ним применима теорема Ляпунова.
248 Глава 8. Классическая предельная теорема 3. Доказать, что при п -> оо exp{-n}]£ji 2* Указание. Применить теорему Ляпунова к сумме независимых случайных величин, распределенных по закону Пуассона с параметром А = 1. 4. Вероятность появления события А в t-м испытании равна pit ц — число появлений события А в п независимых испытаниях. Доказать, что м-Ер* *=1 Р< —j=£ <х Y,PkQk 7b/expH}dz тогда и только тогда, когда ]£Р«0« = °°- 5. Доказать, что в условиях предыдущей задачи требование Yl PiQi = °° достаточно не только для интегральной, но и для локальной теоремы.
Глава 9 Теория безгранично делимых законов распределения Долгое время центральной задачей теории вероятностей считали отыскание наиболее общих условий, при выполнении которых функции распределения сумм независимых случайных величин сходятся к нормальному закону. Весьма общие условия, достаточные для этой сходимости, были найдены, как мы говорили об этом в главе 8, А. М.Ляпуновым. Попытки расширить условия Ляпунова увенчались успехом лишь в тридцатые годы, когда были найдены условия, являющиеся не только достаточными, но и, при весьма естественных ограничениях, необходимыми. Параллельно с завершением классической проблематики возникло и развилось новое направление в теории предельных теорем для сумм независимых случайных величин, тесно связанное с возникновением и развитием теории стохастических (случайных) процессов. В первую очередь возник вопрос о том, какие законы, помимо нормального закона, могут быть предельными для сумм независимых случайных величин. Оказалось, что класс предельных законов далеко не исчерпывается нормальным законом. Затем возник вопрос об определении условий, которые следует наложить на слагаемые, чтобы функции распределения сумм сходились к тому или иному предельному закону. В настоящей главе мы ставим своей целью изложение некоторых исследований, посвященных предельным теоремам для сумм независимых случайных величин. При этом мы ограничиваемся случаем, когда слагаемые имеют конечные дисперсии. Рассмотрение задачи без этого ограничения требует более громоздких вычислений; для ознакомления с ее решением мы отсылаем читателя к упоминавшейся монографии Гне- денко и Колмогорова. В качестве простого следствия излагаемых нами общих теорем мы получим упомянутое нами необходимое и достаточное условие сходимости функций распределения сумм к нормальному закону. Последний параграф главы посвящен новому направлению исследований — предельным теоремам для сумм случайного числа случайных слагаемых. §42. Безгранично делимые законы и их основные свойства Закон Ф(х) называется безгранично делимым, если при любом п его характеристическая функция является n-й степенью некоторой другой характеристической функции.
250 Глава 9. Теория безгранично делимых законов распределения Исследования последних лет показали, что безгранично делимые законы играют значительную роль в различных вопросах теории вероятностей. В частности, оказалось, что класс предельных законов для сумм независимых случайных величин совпадает с классом безгранично делимых законов. Мы перейдем теперь к изложению необходимых нам для дальнейшего свойств безгранично делимых законов. Это изложение мы начнем с доказательства того, что законы нормальный и Пуассона безгранично делимы. Действительно, характеристическая функция нормального закона, имеющего математическое ожидание а и дисперсию а2, равна (p(t) = ехр < iat - ~o-2t2 f. При любом п корень n-й степени из <p(t) есть снова характеристическая функция нормального закона, только с математическим ожиданием а/п и дисперсией а2/п. Мы несколько обобщим встречавшееся ранее понятие закона Пуассона и скажем, что случайная величина £ распределена по закону Пуассона, если она может принимать только значения ак + 6, где а и Ь — вещественные постоянные, а к = 0,1, 2,... и Ч{_Л + „_3±М, („ где Л — положительное постоянное. Характеристическая функция для закона (1), как легко подсчитать, дается формулой <p(t) = ехр {Л(ехр {iat} - 1) + ibt}. Мы видим, что при любом п корень n-й степени из (p(t) есть снова характеристическая функция закона Пуассона, но с другими параметрами: а, — и -6. п п Теорема 1. Характеристическая функция безгранично делимого закона не обращается в нуль. Доказательство. Пусть Ф(х) — безгранично делимый закон и (p(t) — его характеристическая функция. Тогда, по определению, при любом п мы имеем равенство <P(t) = {<Pn№n, (2) где <pn(t) — некоторая характеристическая функция. В силу непрерывности функции <p(t) существует область значений аргумента \t\^a, в которой (p(t) Ф 0; понятно, что в этой же области <pn(t) ф 0. При достаточно большом п мы можем величину \<p(t)\ = \/M0l сделать сколь угодно близкой к единице равномерно по t (\t\^ a). Возьмем теперь две взаимно независимые случайные величины т)\ и г/2, распределенные по некоторому закону F(x), и рассмотрим их разность г) = r/i - г/2- Характеристическая функция величины г/ равна Г(0 = М ехр {Й(Ч| - т/2)} = |М ехр {itm}\2 = |/(*)|2.
§ 42. Безгранично делимые законы и их основные свойства 251 Мы видим, таким образом, что квадрат модуля любой характеристической функции является характеристической функцией. Далее, так как вещественная характеристическая функция имеет вид /(«)= Г cos xtdF(x), то, следовательно, мы можем написать неравенство 1 - /(2*) = Г (\-cos 2xt) dF(x) = 2 Г sin2 xt dF(x) = = 2 Ml - cosxt)(\+cosxt) dF(x)^4 Ml- cos art) dF(x) = 4(1-/(0). Из сказанного мы видим, что функция |у?п(012 удовлетворяет неравенству 1-Ы2<)|2<4(1-Ы0|2)- Из этого неравенства следует, что если п столь велико, что 1 - \<pn(t)\ < € при |£| ^ а, то в этой же области 1 - \Vn{2t)\ ^ 1 - \<pn(2t)\2 ^ 4(1 - \Vn(t)\2) ^ 8(1 - \Vn(t)\) < Ze. Итак, в области \t\ ^ 2а 1 - Ы*)\ < *е. Таким образом, при достаточно больших п в области \t\ ^ 2а, (pn(t), а вместе с тем и (p(t) в нуль не обращаются. Подобным же способом мы докажем, что (p(t) Ф 0 в области \t\ < 4а, и т.д. Это доказывает нашу теорему. Теорема 2. Функция распределения суммы независимых случайных величин, имеющих безгранично делимые функции распределения, также безгранично делима. Доказательство. Очевидно, что для доказательства теоремы достаточно ограничиться случаем двух слагаемых. Если (p(t) и xj)(t) — характеристические функции слагаемых, то по условию теоремы при любом п имеем: <p(t) = i<Pn№\ № = Ш*)УЯ, где (pn(t) и ^п(0 — характеристические функции. Поэтому характеристическая функция суммы при любом п удовлетворяет равенству x(t)=vm(t) = Wn(t) ■№)}"■ Теорема 3. Функция распределения, предельная (в смысле сходимости в основном) для последовательности безгранично делимых функций распределения, сама является безгранично делимой.
252 Глава 9. Теория безгранично делимых законов распределения Доказательство. Пусть последовательность ф(кЦх) безгранично делимых функций распределения сходится в основном к функции распределения Ф(х). Тогда ton ¥><*>(*) = *>(*) (3) равномерно в каждом конечном интервале t. По условию теоремы при любом п функции (под у/~~ понимается его главное значение) <p{n\t) = yW) (4) являются характеристическими функциями. Из (3) заключаем, что при каждом п ton *><*>(*) = <p„(t). (5) fc-+oo Из непрерывности (pn (t) следует непрерывность (pn(t). В силу предельной теоремы для характеристических функций, <pn(t) есть характеристическая функция. Из (3), (4) и (5) находим, что при каждом п имеет место равенство <f(t) = {<Pn(t)}n, что и требовалось доказать. § 43. Каноническое представление безгранично делимых законов В дальнейшем мы ограничимся изучением безгранично делимых законов с конечной дисперсией. Целью настоящего параграфа является доказательство следующей теоремы, найденной в 1932 г. А. Н. Колмогоровым и дающей полную характеристику интересующего нас класса законов распределения. Теорема 4. Для того чтобы функция распределения Ф(х) с конечной дисперсией была безгранично делимой, необходимо и достаточно, чтобы логарифм ее характеристической функции имел вид In <p(t) = ijt + / (exp {itx} - 1 - itx)— dG(x), (1) где 7 — вещественная постоянная, a G(x) — неубывающая функция ограниченной вариации. При х = 0 подынтегральная функция считается равной -t2/2. Доказательство. Предположим сначала, что Ф(х) — безгранично делимый закон и ip(t) — его характеристическая функция. Тогда при любом п <P(t) = {<Pn(t)}n,
§ 43. Каноническое представление 253 где <pn(t) — некоторая характеристическая функция. Так как (p(t) Ф О, то это равенство эквивалентно следующему1): In <p(t) = n In (pn(t) = n In [1+ ((pn(t) - 1)]. Каково бы ни было Т, при п -> оо равномерно в интервале |£| < Т поэтому в любом конечном интервале значений t величина \<pn(t) - 1| может быть сделана меньше любого наперед заданного числа, лишь бы п было достаточно велико. Мы можем, следовательно, воспользоваться равенством in [1 + Ы*) - 01 = ЫО - 0(1 + о(\)), которое дает: In (p(t) = lim n((pn(t) - 1) = lim n / (exp{ito} - 1) ^Ф«(ж), (2) п-кэо n-+oo J где Фп(#) — функция распределения, имеющая <pn(t) своей характеристической функцией. Из определения математического ожидания и связи между функциями Фп(х) и Ф(х) следует, что п / хйФп(х) = / хйФ(х). Обозначим эту величину через у; тогда равенство (2) мы можем переписать в следующем виде: \n<p(t) = iyt + lim n / (exp {itx} - 1 - г£ж) с1Фп(х). n-юо J Положим теперь x <?„(*) = п/«2<*Фп(«). -00 Очевидно, что функции Gn(x) не убывают с возрастанием аргумента и G„(-oo) = 0. Кроме того, функции Gn(x) ограничены в совокупности. Последнее утверждение вытекает из свойств дисперсии и связи между функциями Ф(х) и Фп(ж). Действительно, Gn(+oo) = п и2 (1Фп(и) = = п Г У и2 <*Ф„(и) - ( / " <*Ф*(и)) 1 + п ГI u йФ„(нЛ = <т2 + ^у2, (3) где <г2 — дисперсия закона Ф(ж). Логарифм здесь понимается в смысле главного значения.
254 Глава 9. Теория безгранично делимых законов распределения В новых обозначениях (см. свойство 6 интеграла Стилтьеса в §22) In <p(t) = iyt + lim / (exp {itx} - 1 - itx)—z dGn(x). n-too J X Согласно первой теореме Хелли из последовательности функций Gn(x) можно выбрать подпоследовательность, сходящуюся к некоторой предельной функции G(x). Если А < О и В > О являются точками непрерывности функций G(x), то в силу второй теоремы Хелли при к -> оо в в I (exp {itx} - 1 - itx)— dGnk(x) -> / (exp {itx} - 1 - itx)— dG(x). A A (4) Мы знаем, что | exp {itx} - 1 - itx\ ^ | exp {itx} - 1| + \tx\ ^ \tx\ + \tx\ = 2\t\ • \x\, поэтому A oo .. _ 1 .1 / + / (exp{itx} - 1 - itx)— dGnk(x)\ -oo Б A oo .A oo -oo Б -оо В 4 oo ^ T ( / +/ dG"'(X)) ^ ^ .""oo/ dG"'(X)' -oo В где Г = min(|i4|,5). Так как вариации функций Gnit(x) равномерно ограничены, то, каково бы ни было е > О, мы можем, выбирая А и В достаточно большими, добиться выполнения неравенства А оо € \[+[ (exp {itx} - 1 - itx)-^ dGnk{x) <2 (5) для всех t, заключенных в каком-либо конечном интервале, и для всех к. Из (4) и (5) следует, что, каково бы ни было € > О, для всех £, заключенных в произвольном конечном интервале, при достаточно больших п имеет место неравенство / (exp {itx} - 1 - itx)— dGnk(x) - / (exp {itx} - 1 - itx)— dG(x)\ < e, т.е., иными словами, lim / (exp{itx} - 1 - itx)-r dGnAx) = / (exp{itx} - 1 - itx)-z dG(x). k-HX)J X1 J XL
§ 43. Каноническое представление 255 Мы показали, таким образом, что логарифм характеристической функции любого безгранично делимого закона может быть записан в виде (1). Нам предстоит теперь доказать обратное предложение, что всякая функция, логарифм которой представим по формуле (1), является характеристической функцией некоторого безгранично делимого закона. Для любого € (О < € < 1) интеграл 1/* / (ехр {itx} - 1 - itx) — dG(x) (6) € по определению интеграла Стилтьеса является пределом сумм п 1 ]Р (ехр [itxs] - 1 - itxs)4(G(xs+l) - G(xs)), s=\ x* где х\ = e, жп+1 = 1/e, xx ^ xs ^ xs + 1, и max (жв+| - жв) -> О. Каждое слагаемое этой суммы является логарифмом характеристической функции некоторого закона Пуассона. Согласно теоремам 2 и 3 интеграл (6) является логарифмом характеристической функции некоторого безгранично делимого закона. Переходя к пределу при € -> 0, мы убеждаемся, что то же самое имеет место для интеграла / (ехр {itx} - 1 - itx)— dG{x). (7) х>0 Подобным же образом доказываем, что интеграл J (ехр {itx} - 1 - itx)— dG(x). (8) х<0 есть логарифм характеристической функции некоторого безгранично делимого закона. Интеграл, стоящий в правой части формулы (1), равен сумме интегралов (7) и (8) и величины i7t-l-t2(G(+0)-G(-0)). Последнее слагаемое есть логарифм характеристической функции нормального закона. Из теоремы 2 следует, что функция y>(t), представимая формулой (1), является характеристической функцией некоторого безгранично делимого закона2К Нам остается теперь убедиться, что представление \n(p(t) формулой (1) единственно, т.е. что функция G(x) и постоянное у однозначно определяются заданием (p(t). ' Мы только что доказали, что всякий безгранично делимый закон является либо композицией конечного числа законов Пуассона и нормального закона, либо пределом равномерно сходящейся последовательности таких законов. Таким образом, мы видим, что законы нормальный и Пуассона являются теми основными элементами, из которых составлен каждый безгранично делимый закон.
256 Глава 9. Теория безгранично делимых законов распределения Путем дифференцирования формулы (1) находим, что ^ In p(t) = - J exp {ite} dG(x). (9) Из теории характеристических функций мы знаем, что функция G(x) d2 в этой формуле однозначно определяется через —r\rup(t). В процессе at1 доказательства теоремы мы видели, что постоянное у является математическим ожиданием и, значит, также однозначно определяется посредством функции (p(t). Отметим, наконец, вероятностный смысл полной вариации функции G(x). Мы знаем, что если случайная величина £ распределена по закону Ф(ж), то (см. (5) §32) ч-[гЧм: из (9), следовательно, вытекает, что D£ = / dG(x) = G(+oo). В качестве примеров мы приведем каноническое представление нормального закона и закона Пуассона. Для нормального закона с дисперсией а2 и математическим ожиданием а nt ч ]0 для х < О, 7 = а и G(x) = < 2 v ' 1 <Г для х > 0. Действительно, эта функция и постоянное 7 приводят к данному закону, так как / (ехр [Их] - 1 - itx)— dG(x) = х ,. ехрШм} -1 - itur„. . Л/ ЛЧ1 £2<т2 =йа —Чр |G(+0) - G(-0)]=-—' а в силу единственности канонического представления другие функции G(x) не могут дать нормального закона. Подобным же способом легко убедиться, что закону Пуассона с характеристической функцией (p(t) = ехр {Л(ехр {ita} - 1) + ibt} соответствует функция G(x) с единственным скачком в точке а: ■а од = < I при х<а- 7 1JA при г>а и 7 = Ь + аЛ.
§ 44. Предельная теорема для безгранично делимых законов 257 § 44. Предельная теорема для безгранично делимых законов Мы уже знаем, что если последовательность безгранично делимых законов распределения сходится к предельному закону распределения, то этот предельный закон сам является безгранично делимым. Теперь мы укажем условия, при выполнении которых данная последовательность безгранично делимых функций распределения будет сходиться к предельной. Теорема 5. Для того чтобы последовательность {Фп(х)} безгранично делимых функций распределения сходилась при п -> оо к некоторой функции распределения Ф(х) и дисперсии их сходились к дисперсии предельного закона, необходимо и достаточно, чтобы существовали такие постоянное у и функция G(x), для которых при п -> оо 1) Gn(x) сходится в основном к G(x) (-оо ^ х ^ +оо), 2) Gn(oo)^G(oo), 3) 7п->7, где 7n w Gn(x) определяются формулой (1) £43 для закона Фп(#), а постоянное у и функция G(x) определяют по той же формуле предельный закон Ф(х). Доказательство. Достаточность условий теоремы является непосредственным следствием второй теоремы Хелли. Действительно, из условий теоремы и формулы (1) §43 следует, что при п -> оо ln(pn(t)->\nip(t) равномерно в каждом конечном интервале t. В предыдущем параграфе мы видели, что интегралы Г dGn(u) и / dG{u) равны дисперсиям законов Фп(х) и Ф(ж); поэтому второе условие теоремы есть не что иное как требование сходимости дисперсий. Пусть теперь нам известно, что при п -> оо Фп(х)->Ф(х) (1) и дисперсии законов Фп(х) сходятся к дисперсии предельного закона Фп(ж). Мы докажем, что эти требования влекут за собой выполнение условий теоремы. В отношении условия 2, как мы только что заметили, это не требует дополнительных рассуждений. Отсюда следует, что полные вариации функций Gn(u) ограничены в совокупности. Мы можем, следовательно, воспользоваться первой теоремой Хелли и из последовательности функций Gn(u) выбрать подпоследовательность Gnk(u), сходящуюся при к -> оо к некоторой предельной функции Goo (и). Наша цель состоит в том, чтобы доказать равенство Соо(и) = ад. 9 Курс теории вероятностей
258 Глава 9. Теория безгранично делимых законов распределения Для этого установим сначала, что Jk = / (exp {itu} - 1 - itu) — dGnk(u) -> Joo = = Г (exp {itu} - 1 - itu)— dGoo(u) (2) при к -> оо. Пусть л4<0иБ>0 — точки непрерывности функций Goo(m); тогда по второй теореме Хелли при к -> оо в в I (exp {itu} - 1 - itu)— dGnk(u) -> / (exp {itu} - 1 - itu)— dGoo{u). A A (3) С другой стороны, из неравенства | exp {itx} - 1 - itx\ ^ 2\tx\ мы видим, что А оо Lk = \ f + / (exp {zb} - 1 - itu)— dGnk(u)\ <C \ J J u I -оо Б Л оо Л oo ^2|<|| I + f JLd(7nt(u)|^ШЦ+J dGnk{u)^ ^1 dGnk(u)t -оо Б -оо Б где Г = min(-;4, Б). В силу ограниченности вариаций функций Gn(u) в совокупности для любого € > 0 можно подобрать столь большие по абсолютной величине А и В, что Точно так же при любом е > 0 для достаточно больших по абсолютной величине А и В имеет место неравенство А оо / + / (exp {itu} - 1 - itu)— dGoo(u) -оо В < е. (5) Из соотношений (3), (4) и (5) выводим, что каково бы ни было е > О, при достаточно больших значениях к \Jk-Joo\<le. Соотношение (2), таким образом, доказано. Из (1) видим, что lim In (pn(t) = lim (iynt + / (exp {itu} - 1 - itv)-r dGJu)) = n-юо n-+oo\ J Ul J = In (p(t) = ijt + / (exp {itu} - 1 - itu)— dG(u),
§ 44. Предельная теорема для безгранично делимых законов 259 или Hmfi'Tn* + / (exp {itu} - 1 - itu)j^ dGnk(u)j = = 17 + / (exp {itu} - 1 - itu)—; dG(u). (6) Из неравенства t2u2 | exp {itu} - \ -itu\^ —— и ограниченности в совокупности полных вариаций функций Gnk(u) заключаем, что при t -»• О I/ (exp {itu} - 1 - itu)—$ dGnk(u) £ I f 1 \t / (exp {им} - 1 - itu)-r-z dG(u) I J t ul равномерно по п. Поэтому при t -> 0 (6) дает lim 7nt = 7, (7) а, с другой стороны, по (2) и (7) In <p(t) = iyt + / (exp {г£м} - 1 - itu)— dGoo(u). В силу единственности представления безгранично делимых законов формулой (1) §43 мы заключаем, что G^u) = G(u). Итак, любая сходящаяся последовательность функций Gnk(u) сходится к функции G(u) и одновременно постоянные уПк сходятся к 7- Теперь легко доказать, что вся последовательность Gn(u) также сходится к G(u) и, значит, одновременно lim 7n = 7- Если бы это было не так, то нашлась бы точка непрерывности п-юо функций G(u), назовем ее с, и подпоследовательность функций Gnk(u), которая в точке и = с при к -> оо сходится к числу, отличному от G(c). По первой теореме Хелли мы можем из этой подпоследовательности выбрать сходящуюся подпоследовательность Gnkr(u). Из предыдущего следует, что во всех точках непрерывности функции G(u) Hm Gnkr(u) = G(u). Это противоречит сделанному нами допущению. Таким образом, во всех точках непрерывности функции G(u) lim Gn(u) = G(u); п-юо как мы видели, отсюда немедленно следует, что lim 7« = 7- п-юо Теорема доказана.
260 Глава 9. Теория безгранично делимых законов распределения §45. Постановка задачи о предельных теоремах для сумм Дана последовательность серий €и £12 ••• £i*,, 6i 62 ••• 6*2> Sn 1 S«2 • • • snfc„> (i) независимых в каждой серии случайных величин. Спрашивается, к каким предельным функциям распределения могут сходиться функции распределения сумм Сп = €п\ + £п2 + • • • + €nkn при п -> оо и каковы условия этой сходимости? В дальнейшем мы ограничимся изучением элементарных систем, т.е. последовательностей серий (1), для которых выполнены следующие условия: 1) величины £пк имеют конечные дисперсии, 2) дисперсии сумм £п ограничены не зависящей от п константой С, 3) /?„ = max D£nk -»• 0 при п -> оо. \^.к^.кп Последнее требование означает, что влияние отдельных слагаемых на сумму становится все меньше и меньше с возрастанием п. Рассмотренные нами ранее предельные теоремы для сумм, очевидно, укладываются в эту общую схему. Так, в теоремах Муавра—Лапласа и Ляпунова мы имели следующую последовательность серий: snl> sn2> • • • > snn> где U = & ~^fe_ (\^к^п; n=l,2,...). В теоремах Бернулли, Чебышева и Маркова о законе больших чисел мы также имели дело с последовательностью серий, в которых в качестве £п* взяты величины t ь - щк £пк = •
§ 46. Предельные теоремы для сумм 261 § 46. Предельные теоремы для сумм Пусть имеется элементарная система; обозначим через Fnk(x) функцию распределения случайной величины £пк и через Fnfi(x) — функцию распределения величины £п* = £„* - М£п*; очевидно, что Fnk(x) = Fnk(x + Щпк). Теорема 6. Для того чтобы функции распределения сумм Сп=£»1+£»2 + ...+6,*п (1) при п -»• оо сходились к предельной функции распределения, необходимо и достаточно, чтобы к предельному закону сходились безгранично делимые законы, логарифмы характеристических функций которых определяются формулой *n(t) = J2 {itM*nk + f (exp {itx} - 1) dFnk(x)\3 . (2) Предельные законы для обеих последовательностей совпадают. Доказательство. Характеристическая функция суммы (1) равна Ш = П /»*(') = ехР \и J2 м&* г П 7nk(t), (з) к=\ ^ к=\ ' к=\ где fnk(t) — характеристическая функция случайной величины £пк, а /п*(0 — характеристическая функция величины £пк. Мы знаем, что для сходимости функций распределения сумм (1) к предельной Ф(х) необходимо и достаточно, чтобы при п -> оо Ш -> <№, где у>(£) — непрерывная функция; (p(t) при этом оказывается характеристической функцией закона Ф(х). Положим _ <*пк = /n*(0- L 3' Если ввести обозначения и заметить, что f xdFnk(x) = 0, то функции ^п(0 могут быть записаны в виде tn(t) = tint + / (exp {itu} - 1 - itu)-^ dGn(u). Как мы знаем, это означает, что ipn(t) является логарифмом характеристической функции некоторого безгранично делимого закона. Отметим, что дисперсии £п и безгранично делимых законов (2) совпадают.
262 Глава 9. Теория безгранично делимых законов распределения Для величин £nk равномерно в каждом конечном интервале t an= max \ank\ -> 0. Действительно, <*nk = / (exp {itx} - 1) dFnk(x) = / (exp {itx} - 1 - itx) dFnk(x), так как M|„*= /xdFnk(x) = 0. Мы знаем, что при всех вещественных a a* поэтому |ехр{ш}- 1-т|^ —\ t2 Г - t1 \<*nk\^- J x2 dFnk(x) = -DU- Из (5) и третьего условия элементарности системы следует (4). Из (4) мы прежде всего выводим, что при любом Т мы можем считать, что для достаточно больших п и \t\^.T \<*nk\ < ^ (6) В силу этого мы можем воспользоваться разложением логарифма в ряд In fnk(t) = ln (1 + (*nk) = ank Очевидно, что <fe + ^L = ank + rnk. Rn = In fn(t) - £ («+ Щпк + «nib) = £(ln /„*(*) - ank) n=l 'n=l «tt^it^ l«»*l2 *=r| 11=1 ~ " 11=1 ' I""*! Формулы (5) и (6) приводят к неравенству (7) П=1 2 ia-^*„ В силу (4) мы заключаем, что равномерно в каждом конечном интервале t при п -> оо |1п/„(*)-^п(<)|->0. (8)
§ 46. Предельные теоремы для сумм 263 Таким образом, мы установили, что в каждой элементарной системе функции распределения сумм £п и безгранично делимые функции распределения, определяемые формулой (2), неограниченно сближаются при п -4 оо, чем, собственно, теорема 6 и доказана. Доказанная теорема позволяет заменять исследование сумм (1) случайных величин с, вообще говоря, произвольными функциями распределения исследованием безгранично делимых законов. Последнее, как мы увидим, во многих случаях оказывается весьма простым. Теорема 7. Всякий закон распределения, предельный для функций распределения сумм элементарной системы, является безгранично делимым с конечной дисперсией и, обратно, каждый безгранично делимый закон с конечной дисперсией является предельным для функций распределения сумм некоторой элементарной системы. Доказательство. Из предыдущей теоремы мы знаем, что предельный закон для функций распределения сумм (1) является предельным для безгранично делимых законов и, значит, по теореме 3 является безгранично делимым; его дисперсия конечна, так как дисперсии сумм по второму условию элементарности системы ограничены в совокупности. Обратное предложение, что каждый безгранично делимый закон с конечной дисперсией является предельным для сумм, немедленно вытекает из определения безгранично делимых законов. Теорема 8. Для того чтобы функции распределения сумм (1) при п -> оо сходились к какой-нибудь предельной функции распределения и их дисперсии сходились к дисперсии предельного закона, необходимого и достаточно, чтобы существовали такие функция G(u) и постоянное у, что при п -> оо 1) Е / x2dFnk(x)->G(u) k=\-oo в точках непрерывности функции G(u), 2) Jzfx2dFnk(x)-+G(+OQ), k=\ 3) f:fxdFnk(x)-><y. k=\ Логарифм характеристической функции предельного закона определяется формулой (1) £43 с только что определенными функцией G(u) и постоянной j. Доказательство. Если ввести обозначения Gn(u) = J2 [ x2dFnk(x)
264 Глава 9. Теория безгранично делимых законов распределения и n = Yl X dFnk(x), In k=] то мы придем к условиям теоремы 5. Теорема этим доказана. Несколько видоизменив формулировку последней теоремы, мы можем получить не только условия существования предельного закона, но также и условия сходимости к каждому данному предельному закону. Теорема 9. Для того чтобы функции распределения сумм (1) при п -> оо сходились к данной функции распределения Ф(х) и дисперсии сумм сходились к дисперсии предельного закона, необходимо и достаточно, чтобы при п -> оо выполнялись следующие условия: 1) Е / x2dFnk(x)->G(u) *=1-00 в точках непрерывности функции G(u), 2) J2fx2dFnk(x)->G(oo), k=\ 3) f:fxdFnk(x)-><y, k=\ где функции G(u) и постоянное j определяются формулой (1) §43 для функции Ф(х). § 47. Условия сходимости к законам нормальному и Пуассона Мы применим результаты предыдущего параграфа к выводу условий сходимости функций распределения сумм к законам нормальному и Пуассона. Теорема 10. Пусть дана элементарная система независимых случайных величин. Для того чтобы функции распределения сумм Сп = €п\ + £п2 + • • • + €пкп при п -> оо сходились к закону х ф(ж)=тЬ/ехрН}^ -оо необходимо и достаточно, чтобы при п -> оо были выполнены условия 1) f:fxdFnlt(x)->0, 2) Е / x2dFnk(x)^0, *=1|*1>г
§ 47. Условия сходимости к законам нормальному и Пуассона 265 3) Ё / x2dFnk(x)->\, k=\\x\<r где т — любая положительная постоянная. Доказательство. Из теоремы 9 следует, что искомые условия состоят в выполнении при п -»• оо соотношений J2 / xdFnk(x)->0, *=1 k u Ь_1 «^ ж2 <£Рп*(ж) 0 для и < О, 1 для и > О, J2 J J Mnk(x) к=\ Первое из них совпадает с первым условием теоремы, равносильность двух остальных второму и третьему условиям теоремы очевидна. Особенно простую форму эта теорема принимает, если элементарная система, рассматриваемая нами, нормирована заранее условиями J2 x2dFnk(x)=l, k=iJ (l^k^kn; n=l,2,...). (2) / xdFnk(x) = 0 Теорема 11. Если элементарная система нормирована соотношениями (2), то для сходимости функций распределения сумм (1) к нормальному закону необходимо и достаточно, чтобы для всех т > О при п -> оо J2 J x2dFnk(x)->0. (3) k=]\x\>r Доказательство теоремы очевидно. Требование (3) носит название условия Линдеберга, так как им в 1923 г. была доказана его достаточность для сходимости функций распределения сумм к нормальному закону. В 1935 г. В. Феллером была доказана необходимость этого условия. В качестве другого примера использования общих теорем предыдущего парафафа мы рассмотрим сходимость функций распределения
266 Глава 9. Теория безгранично делимых законов распределения Р{х) = { А* - (4) элементарных систем к закону Пуассона О для х ^ О, А* У^ ехр {-А}— для ж > 0. Если £ — случайная величина, распределенная по закону (4), то, как мы знаем, Щ = D£ = Л. Мы ограничимся элементарными системами, для которых *„ ^ к=\ кп к=\ Теорема 12. Пусть дана элементарная система, подчиненная условиям (5). Функции распределения сумм Сп = €п\ + £п2 + • • • + £п*„ /иогдя и только тогда сходятся к закону (4), когда при любом т > 0 (5) / ж2 dFnk(x + M£njk) -> оо (n -> оо). *=1|*-1|>г Доказательство этой теоремы мы предоставляем читателю. В § 13 нами была доказана теорема Пуассона. Легко убедиться, что при прп = А она является частным случаем только что доказанного предложения. Действительно, пусть £п* (1 ^ k ^ п) есть случайная величина, принимающая значения 0 или 1 в зависимости от того, появится или не появится при fc-м испытании n-й серии наблюдаемое нами событие А. При этом р{6.* = 1} = £ и р{£п* = о}=1-£. п п Очевидно, что сумма Цп = €п\ + £п2 + ... + £пп представляет собой число появлений события А в n-й серии испытаний. Согласно теореме Пуассона, функции распределения величин цп при п -> оо сходятся к закону Пуассона (4). Этот результат следует из только что сформулированной теоремы, так как все ее требования в данном случае выполнены. Общие теоремы о сближении функций распределения сумм (1) с некоторыми безгранично делимыми функциями распределения, доказанные в более широких, чем у нас, предположениях, позволяют также получить необходимое и достаточное условие для закона больших чисел (в случае независимых слагаемых). См. об этом уже упоминавшуюся монографию Б. В. Гнеденко и А. Н. Колмогорова.
§ 48. Суммирование в случайном числе 267 § 48. Суммирование независимых случайных величин в случайном числе В разнообразных задачах практики приходится сталкиваться с задачей суммирования случайных величин не в заранее заданном, а в случайном числе. Приведем примеры. Пример 1. Для начала рассмотрим следующую задачу: счетчик Гейгера (см. задачу 4, § 8) начинает свою работу в момент времени 0. Найти время его работы до первого пропуска частицы. Мы сейчас несколько обобщим условия задачи по сравнению с тем, как она была поставлена в гл. 1. Предположим, что промежутки времени & между поступлениями последовательных частиц в счетчик независимы и имеют одно и то же распределение. Длительность разряда, вызываемого зарегистрированной частицей, является случайной величиной щ, независимой от &. Обозначим через £ длительность искомого промежутка времени. Легко подсчитать, что £ = £i + & + • • • + &/, где v — случайная величина, распределенная геометрически. Пример 2. Возвратимся к задаче, рассмотренной в § 38. Там речь шла о длительности безотказной работы дублированной системы с восстановлением. Внимательно разберемся в структуре величины £ — длительности безотказной работы резервированной системы. Заметим, что в зависимости от случая £ может принимать различные значения, а именно: • если rj\ > £2 (восстановление основного элемента продолжалось дольше, чем проработал резервный элемент), то £ = £i + £2; • если rj\ < &, но г/2 > 6, т.е. восстановленный основной элемент проработал меньше, чем длился ремонт резервного элемента, то C = £i+6 + 6; • вообще при п^2 будет £ = £i+£2+•••+& с вероятностью ап"2(1-а) (первые п - 2 раз элемент восстанавливался прежде, чем работающий элемент отказывал, в последний же раз ремонт занял больше времени, чем проработал вступивший в работу элемент). Мы вновь видим, что длительность безотказной работы дублированной системы с восстановлением представляет собой сумму независимых случайных величин в случайном числе. Число слагаемых распределено по геометрическому закону. В этих двух примерах число слагаемых в сумме и сами слагаемые не являются независимыми случайными величинами. Однако можно привести большое число примеров, где число слагаемых стохастически не зависит от суммируемых случайных величин. Упомянем некоторые из них. Пример 3. За день в магазин приходит случайное число покупателей, и сумма, на которую каждый из них делает покупки, также случайна. Выручка магазина за день является суммой случайного числа случайных слагаемых. Заметим, что число покупателей и суммы, которые они оставляют в магазине, представляют собой независимые случайные величины.
268 Глава 9. Теория безгранично делимых законов распределения Пример 4. Предположим, что мы наблюдаем за работой некоторой ремонтной мастерской. В течение дня в эту мастерскую обращается v клиентов, число которых зависит от случая. Пусть & — объем работы, которую необходимо выполнить для удовлетворения заявки клиента, пришедшего i-м по порядку. Тогда общий объем работ, который должна выполнить мастерская в течение дня, равен С = 6 + • • • + 6" Пример 5. Число космических частиц, попадающих на определенную площадку на поверхности космического корабля за единицу времени, случайно. Обозначим его и. Энергию, которая выделяется при ударе об обшивку корабля t-й частицы, обозначим е%. Ясно, что суммарная энергия, полученная обшивкой корабля, равна е = б\ + ... + ev. Как мы видели выше, в первых двух примерах распределение рассматриваемых характеристик (время до пропуска первой частицы счетчиком Гейгера и длительность безотказной работы дублированной системы с восстановлением) при определенных условиях сходилось к показательному. Теперь мы можем заметить, что соответвующие утверждения должны нами восприниматься как реальные теоремы о сходимости функций распределения последовательных сумм случайного числа случайных слагаемых. Приведем формулировку простейшего варианта такой предельной теоремы для сумм случайного числа независимых слагаемых, в которых число слагаемых является случайной величиной с геометрическим распределением, не зависящей от слагаемых. Теорема. Пусть случайные величины £ь £2— независимы и одинаково распределены, причем М£, = а > 0. Пусть, далее, {ип} — последовательность целочисленных случайных величин, причем vn имеет геометрическое распределение с параметром ап: Р{ип = к} = (I - ап)а%~\ к = 1,2, Предположим, что при каждом п случайная величина vn независима от последовательности £\, &, Положим Cn = ?i + ••• + £vn- Обозначим Gn(x) = Р{(1 - ап)а~*(п < х}. Если ап -> 1, то функции распределения Gn(x) сходятся к показательному распределению равномерно по х: lim sup\Gn(x) - (1 - ехр {-ж})| = 0. П-ЮО х ' Рассмотрим теперь более общую ситуацию. Пусть {£п*} — последовательность независимых и одинаково при каждом п распределенных случайных величин. Введем обозначения 00 Fn(x) = P{£nk < x}, fn(t) = J exp {itx} dFn(x). о Рассмотрим далее неограниченно возрастающую последовательность целых положительных чисел {кп} и последовательность {ип} целочисленных положительных случайных величин, которые обладают тем свойством, что при каждом п величины vn независимы от £п*, 1 ^ к < оо.
§ 48. Суммирование в случайном числе 269 Наша цель состоит в выяснении условий, при которых сходимость (при п -> оо) функций распределения сумм ^п, кп = 2^ €пк к=\ влечет за собой сходимость (при п -> оо) функций распределения сумм к=\ Предложение, которое сейчас будет доказано, носит название теоремы с переноса. Символом -»• мы будем обозначать сходимость функций распределения в основном (см. §34). Теорема переноса. Если существуют такие функции распределения Ф(х) и А(х), что А(+0) = О и при п -> оо 0) Р{5^<|}4ф(х) и (2) р{^<х}АЛ(х), то (3) Р{5п,„л<х}Аф(х). Функция распределения Ф(ж) определяется через свою характеристическую функцию tp(t): 00 № = f<PZ«)dA(t), О где <p(t) — характеристическая функция для Ф(х). Доказательство. Характеристическая функция суммы Sn%Vn равна 00 где pnj = Р{ип = j}. Положим Ап(х) = P{vn < х). Тогда очевидно, что Пусть теперь 00 Ш = f fn{t)dAn{z). о Mx) = p№<x\=An(knx).
270 Глава 9. Теория безгранично делимых законов распределения Тогда 00 *»(*) = f[fln'{t)]ZdAn{z). О В математическом анализе известна теоремаА\ согласно которой, если последовательность равностепенно ограниченных непрерывных функций 9п(х) сходится к функции д(х) во всех точках прямой, а монотонные ограниченные функции Нп(х) при всех х сходятся к функции Н(х), то при п -> оо 00 00 J gn(x) dHn(x) -> J g(x) dH(x). о о В силу этой теоремы и условий (1) и (2) теоремы переноса при п -> оо 00 1>n(t)-> f<pz(t)dA(z). о Теорема доказана. Укажем теперь некоторые следствия из теоремы переноса. Следствие 1. Пусть функция Ф(х) — безгранично делима и <p(t) — ее характеристическая функция; тогда функция № = 1 1 - In ip(t) является также характеристической (и, как позднее будет показано, также безгранично делимой). Действительно, мы знаем, что для любой безгранично делимой функции Ф(х) можно найти такую последовательность {кп} и независимые величины £nk, что выполняется условие (1) теоремы переноса. Выберем теперь такие j/n, чтобы А(х) = 1 - ехр {-х}. Это можно сделать многими способами, например, выбрав vn распределенными геометрически с соответственным значением параметра. Этим самым выполнено и условие (2) теоремы переноса. Тогда мы знаем, что, в силу (3), функция 00 00 т = { МОГ *А(г) = У ехр {-*(1 - In p(0)} dz = t_^ (<) 0 0 является характеристической. 4* См. Дубровский В. Л/. О некоторых свойствах вполне аддитивных функций множества и их предельном переходе под знаком интеграла // Изв. АН СССР. Серия матем. 1945. Т. 9. С. 311-320; 1947. Т. 11. С. 101-104.
§ 48. Суммирование в случайном числе 271 В частности, если функция Ф(х) является нормальной (<p(t) = 2 = ехр{-£2/2}), то rp(t) = -—-j. Соответствующая ей функция рас- пределения Ф(ж) определяется формулой Ф(ж) = < - ехр {ху/2} при х ^ О, 1 - - exp {-xV2} при ж^О. Обычно такое распределение называют распределением Лапласа. Как правило, распределение Лапласа определяют, указывая его плотность распределения. В нашем случае она равна р(х) = ехр {-|ж|\/2}. Позднее мы увидим, что при А(х) = 1 -ехр{-ж} распределение Лапласа при суммировании до случайного индекса играет такую же роль, как и нормальное распределение в классической постановке предельных теорем для сумм одинаково распределенных независимых слагаемых. Следствие 2. Условия, при которых функции распределения сумм одинаково распределенных независимых слагаемых сходятся к предельному распределению Ф(х), достаточны для того, чтобы функции распределения сумм svn = £п\ + 6»2 + • • • + invn сходились к распределению Ф(ж). Следствие непосредственно вытекает из теоремы переноса. Следствие 3. Пусть {£п} — последовательность одинаково распредели "* a ленных независимых случайных величин и £п* = ———, где действи- Вп тельные постоянные а и Вп > О таковы, что функции распределения 1 *П сумм sn = — У^ (& - а) сходятся к Ф(х). Пусть далее, выполнено условие (2) теоремы переноса. Тогда при сделанном выборе постоян- 1 "" ных а и Вп функции распределения сумм sUn = — \_) (£* — о) также Впы сходятся к предельной Ф(ж). Следствие непосредственно вытекает из теоремы переноса. Заслуживает внимания то обстоятельство, что при всех возможных предельных распределениях А(х) нормирующие множители Вп и центрирующие коэффициенты а могут быть выбраны раз и навсегда одинаковыми.
272 Глава 9. Теория безгранично делимых законов распределения Замечание В. Феллера. На с. 642 второго тома замечательной книги В. Феллера «Введение в теорию вероятностей и ее приложения» (М.: Мир, 1984) имеется такое замечание: если в формуле (1) функция А(х) безгранично делима, то и функция Ф(ж) безгранично делима. Доказательство этого факта вытекает из того факта, что если случайная величина v с функцией распределения А(х) представима в виде суммы v = v\ + vi независимых случайных величин V\ и и2, то ip(t) = ^\(t)^2(t) из определения безграничной делимости. Упражнения 1. Доказать, что распределения а) Паскаля (упр. 1 а к гл. 5), б) Пойа (упр. 1 б к гл. 5), в) Коши (пример 5 §21) безгранично делимы. 2. Доказать, что случайная величина с плотностью распределения {О при х ^ О, ^*<-'еХр{-/?*} при *>0, где а > О, Р > О — постоянные, безгранично делима. Примечание. Отсюда, в частности, следует, что безгранично делимы распределения Максвелла (упр. 7 к гл. 5) и распределение х2 (§21, пример 3) (при любом значении п). 3- Доказать, что каковы бы ни были постоянные а > 0 и /3 > О, является безгранично делимой характеристической функцией. Примечание. Отсюда, в частности, следует, что распределение Лапласа (упр. 6 к гл. 5) безгранично делимо. 4. Найти функцию G(x) и параметр 7 в формуле Колмогорова для логарифма безгранично делимой характеристической функции для распределений: а) упражнения 2, б) Лапласа. 5. Доказать, что если сумма двух независимых безгранично делимых случайных величин распределена: а) по закону Пуассона б) по нормальному закону, то каждое слагаемое распределено в случае: а) по закону Пуассона б) по нормальному закону. 6. Найти условия сходимости функций распределения сумм случайных величин, составляющих элементарную систему, к распределению: а) упражнения 2, б) Лапласа.
Глава 10 Теория стохастических процессов §49. Вводные замечания Совершенствование физической статистики, а также ряда отраслей техники, поставило перед теорией вероятностей большое число новых, не укладывающихся в рамки классической теории, задач. В то время как физика и техника интересовало изучение процесса, т. е. явления, протекающего во времени, теория вероятностей не имела ни общих приемов, ни разработанных частных схем для решения задач, возникающих при изучении таких явлений. Появилась настоятельная необходимость в разработке общей теории случайных процессов, т. е. теории, которая изучала бы случайные величины, зависящие от одного или нескольких непрерывно изменяющихся параметров. Перечислим несколько задач, иллюстрирующих необходимость построения теории случайных процессов. Представим себе, что мы задались целью проследить за движением какой-либо молекулы газа или жидкости. Эта молекула в случайные моменты времени сталкивается с другими молекулами и меняет при этом свои скорость и положение. Состояние молекулы, таким образом, подвержено случайным изменениям в каждый момент времени. Многие физические явления требуют для своего изучения умения вычислять вероятности того, что определенное число молекул успеет за тот или иной промежуток времени переместиться на то или иное расстояние. Так, например, если приведены в соприкосновение две жидкости, то начинается взаимное проникновение молекул одной жидкости в другую: происходит диффузия. Как быстро протекает процесс диффузии, по каким законам, когда образующаяся смесь становится практически однородной? На все эти и многие другие вопросы дает ответ статистическая теория диффузии, в основе которой лежит теория случайных процессов, или, как принято теперь говорить, теория стохастических процессов. Очевидно, что подобная же задача возникает в химии, когда изучают процесс химической реакции. Какая часть молекул уже вступила в реакцию, как реакция протекает во времени, когда практически реакция уже закончилась? Весьма важный круг явлений протекает по принципу радиоактивного распада. Это явление состоит в том, что атомы радиоактивного вещества распадаются, превращаясь в атомы другого элемента. Распад каждого атома происходит мгновенно, подобно взрыву, с выделением некоторого количества энергии. Многочисленные наблюдения показывают, что распад
274 Глава 10. Теория стохастических процессов различных атомов для наблюдателя происходит в случайно взятые моменты времени. При этом расположение этих моментов времени независимо друг от друга в смысле теории вероятностей. Для изучения процесса радиоактивного распада существенно определить, какова вероятность того, что за определенный промежуток времени распадется то или иное количество атомов? Формально, если задаваться только выяснением математической картины явлений, точно так же протекают и другие явления: число вызовов, поступающих на телефонную станцию за определенный промежуток времени (загрузка телефонной станции), обрывность нитей на ватере (ватер — прядильная машина) или изменение числа частиц, находящихся в броуновском движении, оказавшихся в какой-либо момент времени в заданной области пространства. Мы дадим в этой главе простое решение тех математических задач, к которым приводят указанные явления. К тому, с чем мы только что познакомились, добавим следующее: первые задачи физического характера, являющиеся одновременно задачами теории случайных процессов, были рассмотрены выдающимися физиками начала XX века. Изложим сейчас вкратце, как, исходя из рассмотрения весьма схематической проблемы блуждания по прямой, Максом План- ком и Адрианом Фоккером было получено дифференциальное уравнение теории диффузии. Пусть частица, находящаяся в момент времени t = 0 в точке х = 0, в моменты кт (к = 1,2,...) испытывает случайные толчки, в результате которых она каждый раз перемещается с вероятностью р на величину Л вправо и с вероятностью q = 1 - р также на величину Л влево. Обозначим через f(x, t) вероятность того, что частица в результате п толчков окажется в момент t (t = пт) в положении х (ясно, что при четном числе толчков величина х может равняться только четному числу шагов Л, а при п нечетном — только нечетному числу шагов Л). Если через га обозначим число шагов, сделанных частицей вправо (соответственно п - га есть число шагов, которые частица совершила влево), то согласно формуле Бернулли x,t) = Cnp q Ясно, что величины га, n, x и h связаны равенством х га — (п — га) = —. h Легко убедиться непосредственным подсчетом, что функция /(ж, t) удовлетворяет разностному уравнению f(x, t + r) = pf(x - К t) + qf(x + Л, *) (1) и начальным условиям /(0,0) = 1, f(x, 0) = 0 при х ф 0. Посмотрим, во что превратится написанное разностное уравнение, если заставить стремиться к 0 как Л, так и г. Физическая природа заставит, оказывается, наложить на h и г некоторые ограничения. Точно так же величины р и q не могут быть взяты произвольно. Несоблюдение
§49. Вводные замечания 275 условий, о которых пойдет речь, может привести к тому, что за конечный промежуток времени частица с вероятностью единица уйдет в бесконечность. Для того чтобы избежать такую возможность, наложим следующие требования: при п -> оо Л2 v — а с x = nh, t = nr, ~^2D9 ?-^-1-> (2) где с и D — некоторые постоянные. Величина с носит наименование скорости течения, a D — коэффициента диффузии. Отнимем от обеих частей равенства (1) величину /(ж, t). В результате получаем f(x, t + r)-f(x,t)=p [f(x - Л, t) - f(x, t)] + q [f(x + ft, t) - /(*, 0]. (3) Предположим, что f(x, t) дифференцируема по t и дважды дифференцируема по х. Тогда df(x, t) f(xj + T)-f(xJ) = T^^ + o{T)9 -,(*,(>+л*-м, = -^ + >да+.(>'), После подстановки этих равенств в (3) получаем Отсюда, в силу соотношений (2), находим, что в пределе dfjxj) _ df(x9t) d2f(x,t) dt ~~ дх + дх2 ' Мы получили уравнение, носящее в теории диффузии наименование уравнения Фоккера—Планка. Интересно отметить, что при довольно искусственной постановке задачи получен физически осмысленный результат, хорошо отражающий истинную картину процесса диффузии. Позднее мы дадим вывод общих уравнений, которым подчиняются распределения для случайных процессов при весьма общих предположениях об их протекании. Начало общей теории стохастических процессов было положено фундаментальными работами советских математиков А. Н. Колмогорова и А. Я. Хинчина в начале тридцатых годов. В статье А. Н. Колмогорова «Об аналитических методах в теории вероятностей» было дано систематическое и строгое построение основ теории стохастических процессов без последействия или, как часто говорят, процессов марковского типа. В ряде работ А. Я. Хинчина была создана теория так называемых стационарных процессов.
276 Глава 10. Теория стохастических процессов Заметим, что прежде чем подвергнуть математическому изучению те или иные явления природы или технические процессы, нужно их схематизировать. Причина этой необходимости лежит в том, что математический анализ применим к исследованию процесса изменения некоторой системы только в том случае, если предположено, что каждое возможное состояние этой системы вполне определено посредством некоторого определенного математического аппарата. Понятно, что такая математически определимая система не есть сама действительность, но лишь схема, пригодная для ее описания. С такой картиной мы встречаемся, скажем, в механике, когда предполагаем, что реальные движения системы материальных точек полностью могут быть описаны для любого момента времени указанием этого момента времени и ее состояния в любой предыдущий момент времени £о. Иными словами, схема, которая принимается в теоретической механике для описания движения, состоит в следующем: принимается, что для любого момента времени t состояние системы у полностью определяется ее состоянием х в любой предыдущий момент времени t0. При этом под состоянием системы в механике понимается задание положения точек материальной системы и их скоростей. Вне классической механики, собственно, во всей современной физике, приходится иметь дело с более сложным положением, когда знание состояния системы в какой-либо момент времени £0 уже не определяет однозначно состояния системы в последующие моменты времени, а лишь определяет вероятность того, что система будет находиться в одном из состояний некоторого множества состояний системы. Если через х обозначить состояние системы в момент t0, а через Е — некоторое множество состояний системы, то для только что описанных процессов определена вероятность P{to,x;t9E} системе, находящейся в момент £0 в состоянии х, в момент t перейти в одно из состояний множества Е. Если дополнительное знание состояний системы в моменты t < £0 не изменяет этой вероятности, то естественно назвать выделенный нами класс случайных процессов процессами без последействия или за их аналогию с цепями Маркова — процессами марковского типа. Общее понятие случайного процесса, базирующееся на изложенной ранее аксиоматике теории вероятностей, может быть введено следующим образом. Пусть Q — множество элементарных событий и t — непрерывный параметр. Случайным процессом называется функция двух аргументов £(*) = (р(ш, t) (и € Q). Для каждого значения параметра t функция (р(ш, t) является случайной величиной. Для каждого фиксированного значения ш (т. е. для каждого заданного элементарного события) <р(ш, t) зависит только от t и является, таким образом, обычной функцией одного вещественного аргумента. Каждая такая функция называется реализацией случайного процесса £(t). На случайный процесс можно смотреть либо как на совокупность случайных величин £(£), зависящих от параметра t, либо как
§50. Процесс Пуассона 277 на совокупность реализаций процесса £(£). Естественно, что при этом для определения случайного процесса необходимо задать вероятностную меру в пространстве реализаций процесса. Почти вся настоящая глава будет посвящена изучению процессов без последействия и только в последнем параграфе мы дадим представление о стационарных процессах. § 50. Процесс Пуассона Мы начнем краткое знакомство с некоторыми фактами теории случайных процессов с рассмотрения одного важного примера процесса без последействия, играющего большую роль в ряде вопросов физики, теории связи, теории надежности. По-видимому, впервые этот процесс был подвергнут исследованию в начале XX столетия физиками А. Эйнштейном и М.Смолуховским в связи с задачами броуновского движения. Предположим, что в случайные моменты времени происходит некоторое событие. Нас интересует число появлений этого события в промежуток времени от 0 до t. Обозначим это число через £(£). Относительно процесса появления события мы предположим, что он: 1) стационарен, 2) без последействия и 3) ординарен. В перечисленные условия вкладывается следующий смысл. 1. Стационарность означает, что для любой группы из конечного числа непересекающихся промежутков времени вероятность наступления определенного числа событий на протяжении каждого из них зависит только от этих чисел и от длительности промежутков времени, но не изменяется от сдвига всех отрезков времени на одну и ту же величину. В частности, вероятность появления к событий в течение промежутка времени от г до т 4-1 не зависит от г и является функцией только к и t. 2. Отсутствие последействия означает, что вероятность наступления к событий в течение промежутка времени (г, г +1) не зависит от того, сколько раз и как появлялись события ранее. Это предположение означает, что условная вероятность появления к событий за промежуток времени (r,T+t) при любом предположении о наступлении событий до момента г совпадает с безусловной вероятностью. В частности, отсутствие последействия означает взаимную независимость появления того или иного числа событий в непересекающиеся промежутки времени. 3. Ординарность выражает собой требование практической невозможности появления двух или более событий за малый промежуток времени At. Обозначим через P>i(A£) вероятность появления более чем одного события за промежуток времени At. Тогда условие ординарности в точном его выражении состоит в следующем: Р>,(А*) = o(At). Наша ближайшая задача состоит в определении вероятностей Р*(<) того, что за промежуток времени длительности t произойдут к событий. В силу сделанных предположений эти вероятности не зависят от того, где
278 Глава 10. Теория стохастических процессов расположен этот отрезок времени. Для этого покажем, что при малых At имеет место равенство Р,(Д0 = АД* + о(Д0, где Л — постоянное. Действительно, рассмотрим промежуток времени длительности 1 и обозначим через р вероятность того, что за этот срок не наступит ни одного события. Разобьем наш промежуток на п равных непересекающихся частей. В силу первого и второго предположений имеет место равенство р = целом к Pol — 1 , откуда Р0( — 1 = р1*п. Отсюда при любом ■(=)■ рк/п. Пусть теперь t — некоторое неотрицательное число. При любом п к — 1 к можно найти такое к, что < t < —. Так как вероятность Р0(0 есть п п убывающая функция времени, то Таким образом, Р0(£) удовлетворяет неравенствам p(k-x)ln>Po{t)>pkln. Пусть теперь кип стремятся к бесконечности так, чтобы к lim — = t. П-400 П Из предыдущего ясно, что при любом t Po(t)=pl. Так как Po(t) как вероятность удовлетворяет неравенствам 0^Р0(£)^ 1, то могут представиться три следующих случая: 1) р = 0, 2) р = 1, 3) 0 < р < 1. Первые два случая малоинтересны. В первом из них при любом t имеет место равенство Po(t) = 0 и, значит, вероятность за промежуток времени любой длительности произойти хотя бы одному событию равна единице. Другими словами, с вероятностью единица за промежуток времени любой длительности происходит бесконечно много событий. Во втором случае Po(t) = 1 и, следовательно, события не наступают. Интерес представляет лишь третий случай, в котором положим р = ехр {-Л}, где Л — некоторое положительное число (Л = - 1пр). Итак, из предположений стационарности и отсутствия последействия мы вывели, что при любом t > 0 Р0(0 = ехр{-А*}. (1)
§50. Процесс Пуассона 279 Понятно, что при любом t имеет место равенство Р0(0 + Р,(*) + Р>|(0 = 1. Из (1) вытекает, что при малых t P0(t) = l-\t + o(t). (1') Следовательно, в силу условия ординарности, Pi(t) = M + o(t). (2) Теперь мы можем перейти к выводу формул для вероятностей Pk(t) при к ^ 1. С этой целью определим вероятность того, что за время t + At событие наступит ровно к раз. Это может осуществиться к+1 различными способами, а именно: 1) за промежуток времени длительности t произойдут все к событий, а за время At — ни одного; 2) за время t произойдет к - 1 событие, а за время At — одно; &+ 1) за время t событие не наступит ни одного раза, а за время At произойдет к раз. По формуле полной вероятности к Р*(* + Д0 = £Р;(0П-;(Д*) (при этом принято во внимание как условие стационарности, так и условие отсутствия последействия). Положим к-2 Очевидно, что к-2 к 00 ;=0 а=2 а=2 согласно условию ординарности. Таким образом, Pk(t + ДО = Pk(t)Po№ + Р*_,(*)Р1(Д*) + о(Д*). Далее, согласно (1') и (2) Р0(Д*) = 1 - АД* + o(At), Pi (ДО = АД* + о(Д*),
280 Глава 10. Теория стохастических процессов поэтому Pk(t + At) = (1 - XAt)Pk(t) + XAtPk.^t) + o(At). Отсюда р»(1 + д.>-р,(о = .лд(,)+лп_|(() + »(ао Поскольку при At -> 0 предел правой части равенства существует, существует и предел левой части. В результате получаем уравнение dPM) -~£l = -\Pk(t) + \Pk_i(t) (3) at для определения Pk(t). Начальные условия мы выберем такие: Р0(0)=1, Р,(0) = 0 при *£1. (4) Решение системы уравнений (3) проще всего осуществить посредством замены ВД = ехр{-А*Н(0, (5) где vk(t) — новая искомая функция. Заметим, что, в силу (1), v0(t) — 1. Соотношения (4) приводят нас к таким начальным условиям: v0(0) = 1 и vk(0) = 0 при * ^ 1. (6) Подстановка (5) в (3) приводит нас к уравнению dvk(t) dt В частности, dvx{t) dt Последовательное решение уравнений (7') и (7) приводит нас при учете начальных условий к равенствам: = Atfc-,(*). (7) = А. (Г) и вообще Таким образом, окончательно PS) = Чг ехр{_А'} <8> при любом к ^ 0. Задача, стоявшая перед нами, решена. Высказанные нами в начале параграфа условия с большой точностью выполняются в многочисленных естественнонаучных явлениях и технических процессах. Для примера укажем на число спонтанно распавшихся атомов радиоактивного вещества за тот или иной промежуток
§50. Процесс Пуассона 281 времени (когда этого вещества не слишком мало и не слишком много); на число космических частиц, попавших на определенную площадку за промежуток времени t. Если мы имеем дело с какой-нибудь сложной радиотехнической системой, состоящей из большого числа элементов, каждый из которых лишь с малой вероятностью может отказать в работе за единицу времени, независимо от состояния других элементов, то число элементов, отказавших за промежуток времени (0, £), представляет собой случайный процесс. Этот процесс во многих случаях будет хорошо описываться только что рассмотренным процессом Пуассона. Промежуток времени между появлениями двух последовательных интересующих нас событий представляет собой случайную величину, которую мы обозначим через т. Найдем распределение вероятностей т. Так как очевидно, что событие г ^ t эквивалентно тому, что за промежуток времени длительности t событие не появится ни разу, то Р{т^*} = ехр{-А*}. Искомая функция распределения, таким образом, задается формулой Р{г <*} = 1-ехр{-А*}. (9) Полученный результат мы можем физически трактовать многими способами. Например, мы можем смотреть на него как на распределение времени свободного пробега молекулы или как на распределение времени, протекшее между двумя отказами элементов в сложной радиотехнической схеме. Заметим, что теория, развитая в настоящем параграфе, может быть применена не только в предположении, что параметр t играет роль времени. С этой целью рассмотрим дополнительный пример. Пример. В пространстве разбросаны точки с соблюдением следующих требований: 1) вероятность к точкам оказаться в области G зависит только от объема v этой области, но не зависит ни от ее формы, ни от ее положения в пространстве; эту вероятность обозначим Pk(v); 2) числа точек, попавших в неперекрывающиеся области, являются независимыми случайными величинами; 00 3) 52pk(Av) = o(Av). Наложенные условия являются ничем иным, как условиями стационарности, отсутствия последействия и ординарности. Отсюда Pk(v) = -j^-exp{-av}. Если в жидкости взвешены мельчайшие частицы какого-либо вещества, то под влиянием ударов окружающих молекул эти частицы находятся в непрерывном хаотическом движении (броуновское движение). В результате в каждый момент времени мы имеем случайное распределение частиц
282 Глава 10. Теория стохастических процессов в пространстве, о чем только что была речь. Согласно теории настоящего примера следует считать, что распределение частиц, попадающих в некоторую определенную область, будет подчинено закону Пуассона. В табл. 14 сравниваются результаты опыта с частицами золота, взвешенными в воде, заимствованные нами из статьи Смолуховского, и результаты вычислений по закону Пуассона. Таблица 14 Число частиц 0 1 2 3 4 5 6 7 Число наблюдавшихся случаев 112 168 130 69 32 5 1 1 Частота га 518 0,216 0,325 0,251 0,133 0,062 0,010 0,002 0,002 Апехр{-А} п! 0,213 0,328 0,253 0,130 0,050 0,016 0,004 0,001 Вычисленное число случаев ПО 173 131 67 26 8 2 1 Постоянное А = av, которым определяется закон Пуассона, выбрано равным среднему арифметическому из наблюдающегося числа частиц, т.е. . 0,112 + 1,168 + 2,130 + 3,69 + 4,32 + 5,5 + 6,1+7,1 §51. Процессы гибели и размножения В начале текущего столетия в связи с задачами биологии и телефонной связи возникла простая, но весьма полезная схема, получившая наименование процессов гибели и размножения. В качестве весьма частного случая она включает в себя задачу предшествующего параграфа о процессе Пуассона. Несмотря на узость исходных предположений процессов гибели и размножения, они находят широкое применение в ряде прикладных задач, позволяя получить не только схематическое представление о происходящих изменениях системы, но и расчетные формулы. Представим себе, что интересующая нас система может находиться в одном из состояний Д),Е\,Е2,..., множество которых конечно или счетно. Со временем состояния системы изменяются, причем за промежуток длительности h система из состояния Еп переходит в состояние Еп+\ с вероятностью \nh + o(h) и в состояние Еп-\ с вероятностью vnh + o(h). Вероятности того, что за промежуток (£, t + Л) система перейдет в состояние En±k с к > 1, бесконечно малы по сравнению с h. Отсюда следует, что вероятность остаться в том же состоянии Еп за промежуток времени h равна 1 - \nh-vnh+o(h). Постоянные Ап и vn мы предполагаем зависящими
§ 51. Процессы гибели и размножения 283 от п, но не зависящими от t и от того, каким путем система пришла в это состояние. Последнее обстоятельство означает, что рассматриваемый процесс является марковским. Теория, которая будет здесь изложена, может быть распространена и на тот случай, когда А„ и vn зависят также и от t. Случайный процесс, о котором только что шла речь, носит название процесса гибели и размножения. Если под Еп понимать событие, состоящее в том, что численность популяции равна п, то переход Еп -> Еп+\ означает, что численность популяции увеличивается на единицу. Точно так же на переход Еп -> Еп-\ следует смотреть как на гибель одного члена популяции. Если при любом п ^ 1 имеет место равенство vn = 0, т. е. если возможны только переходы Еп -> Еп или Еп -> Еп+\ в момент изменения состояния, то процесс называется процессом размножения (иногда говорят о процессе чистого размножения; именно таким является процесс Пуассона). Если же все Ап=0, то говорят, что имеет место процесс гибели. Обозначим через Pk(t) вероятность того, что изучаемая нами система в момент t находится в состоянии Е^. Рассуждениями, подобными тем, которые мы провели в предыдущем параграфе, мы придем к системе уравнений, управляющей процессом гибели и размножения Ро(0 = -Аол(«) + ^Р|(«) 0) и при к ^ 1 Pk(t) = -(А* + Pk)Pk(t) + \k-\Pk-\(t) + Vk+\Vk+\{t). (2) Наши обозначения несколько неполны, поскольку мы не указываем, из какого состояния Ej начала изменяться система. Исчерпывающим было бы такое обозначение: p%j{t) — вероятность того, что система окажется в момент t в состоянии Ej, если в момент 0 она находилась в состоянии Е{. В задаче о процессе Пуассона мы предположили, что в начальный момент 0 система находилась в состоянии Eq. Уравнения (1) и (2) принимают особенно простой вид для процессов чистой гибели и чистого размножения. Во втором случае, проведя последовательное интегрирование, получим (формулы написаны в предположении, что все Ап различны) p0(t) =ехр{-А0*Ь Pi(*) = Л °Л [ехр{-А0*} - ехр {-А^}], й(0 = АпА >(И1 Ai — Ао [Аг — Ао 1 (ехр {-А0£} - ехр {-А2*}) + А2-А 2-*1 (ехр {-А^}- ехр {-А2*}) Мы предположили при этом, что при t = 0 система находится в состоянии Eq. Без труда можно выписать и общее решение, убедившись при этом, что функции pk(t) неотрицательны при всех к и t. Однако,
284 Глава 10. Теория стохастических процессов если Xk растут слишком быстро при возрастании к, может случиться, что 00 Теорема В. Феллера. Для того чтобы при всех значениях t решения Pk(t) уравнений чистого размножения удовлетворяли соотношению 00 £p*(0 = i, (з) необходимо и достаточно расходимости ряда 00 £**"'• (4) Доказательство. Рассмотрим частичную сумму ряда (3) M*)=ft(*)+Pi(*) + ---+A(0. (5) Из уравнений размножения вытекает, что *»(*) = -KPn{t). Отсюда находим, что t \-sn(t) = Xnfpn(t)dt (6) о (если вместо начального условия р0(0) = 1 взять другое, а именно р,(0) = 1, то равенство (6) имеет место при п ^ г). Так как все члены суммы (5) неотрицательны, то при каждом фиксированном значении t сумма sn(t) с возрастанием п не убывает. Следовательно, существует предел lim [1 - sn(t)] = //(*). (7) t В силу (6) мы заключаем, что An / pn(t) dt ^ //(£). Отсюда ясно, что о / sn(z) dz ^ fi(t) (т- + т- + ««« + т-")' ^ак как ПРИ лю^ых * и п имеет о \Ао Ai Хп/ место неравенство sn(t) ^ 1, то <»"4i+i+ ■■■*£)■ Если ряд (4) расходится, то из последнего неравенства вытекает, что при всех t должно быть p,(t) = 0. Из (7) теперь следует, что расходимость ряда (4) приводит к (3).
§ 51. Процессы гибели и размножения 285 t t i Из (6) ясно, что Лп /pn(t) dt^.\ и, следовательно, / sn(z) dz ^ — + о о ^о 11 t °° + — + ••• + т~ • в пределе при п -> оо получаем / [1 - /z(z)] dz ^ JZ An . *1 Лп 0 п=0 Если fi(t) = 0 при всех t, то левая часть неравенства равна t, а поскольку £ произвольно, ряд, стоящий в правой части, расходится. Теорема доказана. В предыдущем параграфе мы имели Лп = Л. Следовательно, ряд (4) 00 расходится и при всех t имеет место равенство ^2 pn(t) = 1. п=0 00 На сумму ^2 pn(t) можно смотреть, как на вероятность того, что п=0 за время t произойдет лишь конечное число изменений состояний систе- 00 мы. Таким образом, разность 1 - Y2 Рп(0 следует интерпретировать как п=0 вероятность бесконечного числа изменений состояний системы за время t. В явлениях радиоактивного распада такая возможность означает лавинный распад. Пример 1. Резервирование без восстановления. Представим себе техническую систему, состоящую из одного основного элемента и п таких же резервных. Основной прибор за промежуток времени (£, t + Л) отказывает с вероятностью АЛ + о(Л), а каждый из резервных приборов — с вероятностью \'h + o(h). На смену отказавшему прибору немедленно ставится прибор из резерва, отказавший же прибор дальнейшего участия в работе системы не принимает. Система в целом отказывает в момент, когда все элементы — основной и резервные — окажутся в состоянии отказа. Найти вероятность того, что в момент t в системе имеется к отказавших элементов (событие JE?*). Мы имеем дело со случаем чистого размножения. При этом \к = Л + (п - k)Xf при 0 ^ к ^ п, Ап+* = 0, при к^\. Несложные вычисления приводят к равенствам Pk{t) = ^Ш^"1 ™*>{-Ы}(1-™Р{-Х'*})к> <К*0, и * Pn+i(0= п'А'""1 У ^{-^Hl-expf-A'z})"^. о В частности, если Л' = 0 (резерв называется ненагружениым или холодным; элементы в таком резерве не отказывают), то имеют место равенства \к+к п (\+)к Р*(0 = — ехр {-АО (0 ^ к ^ п), рп+1 (0 = 1 - J2 Чг ехр {"A*}-
286 Глава 10. Теория стохастических процессов При Л' = Л (нагруженный или горячий резерв; в таком резерве все элементы находятся в том же состоянии, что и основной) Pk(t) = С*+| ехр {-(п + 1 - k)Xt}(\ - exp {-\t})k. Обозначим через & длительность жизни fc-го элемента в период работы. Для ненагруженного резервирования длительность жизни системы равна £o + £i +••• + &»• Так как средний срок службы одного прибора 00 1 равен f exp{-\t} dt = — то средний срок службы системы при холод- 0 * п + 1 ном резервировании равен —-—, т.е. пропорционален общему числу элементов системы. Среднюю продолжительность безотказной работы резервированной системы при нагруженном резервировании вычислим следующим способом: отметим моменты последовательных отказов элементов — <i,<2» • •• ...,£n+i и введем обозначения т\ = t\, тг = ti - t\, тз = £з — *2> •••» rn+1 = £n+i - £п. Поскольку в первом отрезке времени работают все приборы, вероятность того, что за время t не откажет ни один из них, равна ехр{-(п+ \)Xt}\ вероятность того, что во втором интервале не откажет ни один из работоспособных элементов, равна ехр {-\nt}. Наконец, вероятность того, что за время t не будет отказов в последнем интервале, равна ехр{-А£}. Теперь легко подсчитать, что время работы резервированной системы до отказа равно 2±" 1/ 1 1\ Если п велико, то 1 1 2 п где с — постоянная Эйлера, с = 0,577215.... Пример 2. Система обслуживания с потерями. Мы рассмотрим теперь одну из задач новой прикладной математической дисциплины, получившей название теории массового обслуживания. Первые ее задачи были рассмотрены датским ученым Эрлангом — долголетним сотрудником лаборатории Копенгагенской телефонной компании. Предположим, что на телефонную станцию поступают вызовы от абонентов. Если в момент поступления вызова аппарат вызываемого абонента свободен, то происходит мгновенное соединение и начинается разговор, который продолжается столько, сколько необходимо для его завершения. Если же вызываемый абонент занят, то вызывающий абонент получает отказ. Нам важно подчеркнуть две особенности, с которыми необходимо считаться при рассмотрении возникающих здесь вопросов. Во-первых, вызовы на станцию поступают в случайные моменты времени, и предсказать
§ 51. Процессы гибели и размножения 287 заранее, когда поступит очередной вызов, нет возможности. Во-вторых, длительность разговора не постоянна, а меняется в зависимости от случая. Мы предположим, что имеется п равноправных линий связи у каждого из абонентов и если хотя бы одна из них свободна, то соединение наступает мгновенно. Каждая линия доступна для любого требования, каждое требование обслуживается лишь одной из линий. Вероятность того, что вызов от какого-то абонента поступит в промежуток времени от t до t + h, равна АЛ + о(Л). Если в момент t заняты к линий, то вероятность того, что к моменту t + Л освободиться одна из них, равна kvh + о(Л). Мы находимся в условиях теории процессов гибели и размножения. В нашем случае А* = А, vk — ки при 1 ^к^п и щ = 0 при к > п. Система обслуживания может находиться лишь в состояниях Е0, Е\,Е2,..., Еп. Уравнения (1) и (2) для нашей задачи записываются в следующем виде: Й(0 = -Аро(0 + *ф|(<). (8) при 1 ^ к ^ п Pk(t) = -(А + kv)pk(t) + Aft-i(t) + (fc + l)fft+i(0 (9) и при к = п p'n(t)=\pn-](t)-nvpn(t). (10) К этим уравнениям мы должны добавить еще одно п £>(*) = и смысл которого прост: в любой момент времени возможны только события Ео,Е\,... ,Еп. Обычно интересуются изучением установившегося процесса, т. е. рассматривают решение при t -> oo. Как мы увидим позднее, в условиях нашей задачи существуют пределы рк = lim pk(t) к->оо и эти предельные вероятности удовлетворяют следующей системе алгебраических уравнений, получающихся из (8)-(10) путем замены функций pk(t) на постоянные рк, а производных p'k(t) на нули: -Аро + vpx = 0, Ар*_, - (А + kv)pk + (k+ \)vpk+\ =0, 1 ^ к ^ п, Арп_, - nvpn = 0, Обозначением zk = Ap*_i - kvpk мы приводим систему наших алгебраических уравнений к следующей: zx =0, zk - zk-\ = 0 при 1 ^ к < п, zn = 0,
288 Глава 10. Теория стохастических процессов откуда находим, что kvpk = \pk-\, k = 1,2,..., п. Простые преобразования приводят нас к равенствам Pk=uPo (k>x' p = $)- Теперь (11) позволяет найти нормирующий множитель р<ь Ро = fc=0 Окончательно: Рк = Е^ Lfc=0 0 £ А; £ п. Эти формулы были найдены Эрлангом и носят название формул Эр- ланга; они находят широкое применение в задачах телефонии. При к = п мы получаем вероятность того, что все линии заняты и, следовательно, вероятность того, что вновь прибывшее требование будет потеряно. Таким образом, вероятность получить отказ равна р" п! Е^ L*=o Для иллюстрации быстроты потерь с увеличением р (загрузка, приходящаяся на одну линию равна р/п) приведем небольшие таблички (табл. 15). При этом мы ограничимся случаями п = 2ип = 4и такими значениями р, при которых в соответствующих колонках приходятся одинаковые загрузки на прибор. Таблица 15 п = 2 р Рп п Р Рп 0,1 0,0045 = 4 0,2 0,0001 0,3 0,0335 0,6 0,0030 0,5 0,0769 1,0 0,0154 1,0 0,2000 2,0 0,0952 2,0 0,4000 4,0 0,3107 3,0 0,5294 6,0 0,4696 4,0 0,6054 8,0 0,5746 Из табл. 15 замечаем, что при малых загрузках увеличение числа приборов существенно уменьшает вероятность потерь. Например, при
§ 51. Процессы гибели и размножения 289 п = 2 и р = 1,0 вероятность потери равна 0,20, а при п = 4 и р = 2 соответствующая вероятность будет только 0,09. По мере же возрастания загрузки на один прибор вероятности потерь постепенно выравниваются и, например, при р = 4 и п = 2 вероятность потери равна 0,6054, а при п — 4 и р = 8 эта вероятность равна уже 0,5746, т.е. различие наступает только во втором знаке. Вернемся к некоторым общим результатам теории процессов гибели и размножения, но изложим их без доказательств. В случае процесса чистого размножения система уравнений (1), (2) разрешалась очень просто путем последовательного интегрирования, поскольку дифференциальные уравнения имели вид простых рекуррентных соотношений. Общие уравнения имеют иную структуру и последовательное определение функций pk(t) уже невозможно. В настоящее время условия существования и единственности решений этой системы хорошо изучены в работах Феллера, Рейтера, Карлина и Мак-Грегора. Оказалось, что равенство 00 имеет место при всех t, если расходится ряд оо к Если вдобавок сходится ряд оо к х ЕП^1. о» то при всех t существуют пределы pk=\\mpk(t). (14) Это условие, в частности, выполнено во всех случаях, когда, начиная с некоторого к0, выполняется неравенство <а < 1. Интуитивно это условие ясно: оно означает, что скорость поступления требований в систему не должна превышать скорости их обслуживания. Для вычисления пределов (14) действует следующее простое правило: нужно составить и решить систему алгебраических уравнений, получающуюся из системы (1), (2) путем замены pk(t) на р* и подстановки О вместо p'k(t). Эта система, следовательно, имеет следующий вид: -АоРо + »\Р\ = °> -(АЛ 4- vk)Pk + *к-\Рк-\ + ib+iP*+i =0 (к ^ 1). 10 Курс теории вероятностей
290 Глава 10. Теория стохастических процессов Обозначения ** = -A*p* + ^+ip*+i, fc = 0,1,2 обращают записанную алгебраическую систему в следующую: z0 = 0, zk-x - zk = 0 (при k ^ 1). Из нее вытекает, что при всех А; ** = 0. Следовательно, Рк = —ft-i = 11 —-Ро. (15) 00 Постоянное р0 определяется из условия нормировки ^2 р* = 1: *=0 Ро = оо к х -, -1 (16) Очевидно, что в полученных формулах содержатся найденные нами ранее формулы Эрланга. Пример 3. Обслуживание с очередью. На п одинаковых приборов поступает пуассоновский поток требований с параметром (интенсивностью) А. Требование, поступившее на какой-либо прибор, требует для своего обслуживания случайного времени с распределением вероятностей Н(х) = 1 -ехр {-их}. Если в момент поступления требования имеется хотя бы один свободный прибор, оно начинает обслуживаться немедленно. Если же все приборы заняты, то вновь поступающие требования становятся в очередь. Если имеется очередь, то после окончания обслуживания прибор немедленно переключается на обслуживание очередного требования из очереди. Требуется найти вероятности пребывания в системе того или иного числа требований. Мы находимся в условиях теории процессов гибели и размножения. Для нашей задачи А* = А при всех к, щ = kv при к ^.п и щ = nv при к ^ п. Согласно формулам (15) и (16), стационарные решения для нашей задачи имеют такой вид: при к ^ п Рк Рк = и при к ^ п Рк = ЪРо Рк = 7^Ро'
§ 51. Процессы гибели и размножения 291 где р = \/v. Постоянное ро определяется равенством к- к=0 *=п+1 Если р < п, то Ро: т£; *!%!<«-p)!j Если же р ^ п, то ряд, стоящий в скобке, расходится и ро = 0. Из только что написанных формул мы заключаем, что р* = 0 при всех к. Этот результат очень важен; словами его можно сформулировать так: если р^п, то очередь на обслуживание неограниченно растет со временем. Пример 4. Обслуживание станков бригадой рабочих. Бригада из г рабочих обслуживает п однотипных станков. Каждый из этих станков в случайные моменты времени может потребовать к себе внимания рабочего. Станки выходят из рабочего состояния независимо друг от друга; вероятность выхода из рабочего состояния за промежуток времени (£, t + Л) равна A/i + o(h). Вероятность того, что за время (£, t + Л) будет завершено восстановление рабочего состояния станка равна vh + o(h). Каждый рабочий одновременно может восстанавливать только один станок; каждый станок восстанавливается только одним рабочим. Найти вероятность того, что в установившемся процессе обслуживания в данный момент будет простаивать заданное число станков. Обозначим через Еь событие, состоящее в том, что в данный момент неисправны к станков. Очевидно, что наша система может находиться только в состояниях Е0,Е\,... ,Еп. Легко понять, что мы имеем дело с процессом гибели и размножения, для которого А* = (п — к)Х при 0 ^ к < п, А/. = 0 при к ^ n; vk = kv при 1 ^ к ^ г и щ = rv при к ^ г. Формулы (15) и (16) приводят к равенствам: при 1 ^ к ^ г (р = \/v) при г ^к^п Рк = щ^куркро' п\ к Pk = r«-"rl(n-kyPPo L*=0 v ' *=r+l В частности, при г = 1 -1
292 Глава 10. Теория стохастических процессов Проиллюстрируем полученные формулы простым числовым расчетом. Пусть обслуживание 8 станков поручено двум рабочим. Как рациональнее организовать работу: поручить ли все станки бригаде из двух рабочих или же каждому из рабочих поручить по четыре определенных станка? Вычисления проведены в предположении р = 0,2. Результаты собраны в табл. 16 и 17. Таблица 16 п = 8 г = 2 Число неработающих станков 0 ! 1 2 3 4 ! 5 6 7 8 Число станков, ожидающих обслуживания 0 0 0 1 2 3 4 5 6 Число свободных рабочих 2 1 0 0 0 0 0 0 0 Рк 0,2048 1 0,3277 0,2294 0,1417 0,0687 0,0255 0,0083 0,0017 0,0002 Таблица 17 п = 4 г = 1 Число неработающих станков 0 ! 1 2 3 4 Число станков, ожидающих обслуживания 0 0 1 2 3 Число свободных рабочих 1 0 0 0 0 Рк 0,3984 0,3189 0,1914 0,0760 0,0153 Среднее число станков, простаивающих по той причине, что рабочие заняты восстановлением других станков, равно 8 J2(k-2)pk = 0,3045. Среднее время простоя станков (восстановление и ожидание начала обслуживания) равно 8 Y^kpk = 1,6875. к=2
§ 52. Условные функции распределения и формула Байеса 293 Средняя длительность свободного времени рабочих равна 2 • 0,2048 + 1 - 0,3277 = 0,7373. Иными словами, каждый рабочий свободен от работы в течение 0,3686 доли рабочего дня. Среднее время непроизводительных простоев станков (ожидание начала восстановления) 1 • 0,1914 + 2 • 0,0760 + 3 • 0,0153 = 0,3893. Вся группа из восьми станков потеряет при этой второй системе организации работы 0,7886 рабочих дня, т. е. потеря времени на ожидание ремонта возрастет более чем вдвое (в первой системе она равна 0,3045 рабочих дня). Общая потеря времени 4 станками на ожидание и ремонт равна 1 ■ 0,3189 + 2 • 0,1914 + 3 • 0,0760 + 4 - 0,0153 = 0,9909. Все восемь станков теряют, таким образом, 1,9818 рабочих дня (против 1,6875 при первой системе организации работы). Несмотря на то, что станки простаивают при второй системе организации труда больше, рабочий в среднем свободен от работы больше, а именно 0,3984 доли рабочего дня (было 0,3686 доли рабочего дня). Приведенные примеры показывают, что развитая теория позволяет проводить полезные предварительные расчеты и выбирать более разумные приемы работы. § 52. Условные функции распределения и формула Байеса Для дальнейших выводов нам необходимо обобщить понятие условной вероятности, введенное в первой главе, на случай бесконечного множества возможных условий. В частности, нам нужно ввести понятие условной функции распределения относительно случайной величины. Рассмотрим некоторое событие В и случайную величину £ с функцией распределения F(x). Обозначим через Аар событие, состоящее в том, что х- а^£ <х + /3. В силу определения первой главы Р{ВАаР} = Р{АаР} • Р{В\АаР} = [F(x + /J) - F(x - а)]Р{В\АаР}, откуда Р{ВАаР} Р{В\АаР} = Предел F(x + 0) - F(x - a)' Р{ВАаР) lim ■—, „, . , а,р-+о F(x + р) - F(x - а)
294 Глава 10. Теория стохастических процессов если он существует1*, называется условной вероятностью события В при условии, что £ = х, и обозначается символом Р{В\х}. Очевидно, что Р{Б|ж} при фиксированном х будет конечно-аддитивной функцией события В, определенной на некотором поле событий. При некоторых условиях, которые практически всегда оказываются выполненными, Р{Б|ж} будет обладать всеми свойствами обычной вероятности, удовлетворяющей аксиомам 1-3 §8. Если rj — случайная величина и В означает событие 7) < у, то функция Ф(у\х) = P{rj < у\х}, которая, как легко видеть, будет функцией распределения, называется условной функцией распределения величины rj при условии, что £ = х. Очевидно, что если F(x, у) есть функция распределения пары случайных величин £ и г/, то Ф(Ч\Х) = lim *(* + fi-V)-*(*-*. V) 9{тХ) «!'Д F(x + /J, оо) - F(x - а, оо)' если только этот предел существует. Если функция Р{Б|ж} интегрируема относительно F(x), то имеет место формула полной вероятности Р{В} = Г Р{В\х} dF(x). Для доказательства этой формулы мы разделим промежуток изменения величины £ точками Xj (г = 0, ±1, ±2,...) на интервалы ж, ^£ < ж,+1. Обозначим через 4, событие х{ ^ £ < Х{+\. В силу расширенной аксиомы сложения имеем: 00 00 Р{В}= £ p{BAi}= £ P{BM,}[F(x<+l)-F(x,)]. i=-oo i=-oo Станем теперь подразделять интервалы (ж,-, sc,-+i) на более мелкие таким образом, чтобы максимальная длина получившихся интервалов стремилась к нулю. В силу определения условной вероятности и интеграла Стилтьеса отсюда получаем: Р{Б} = / Р{В\х} dF(x). В частности, ЧУ) = P{ri<y} = f <%1*) dF(x). (1) Если существует плотность распределения вероятностей величины г/, то <p(y) = J<p(y\x)dF(x), (У) где (р(у\х) — условная плотность распределения величины г/. ' Этот предел существует почти для всех значений х в смысле меры, определяемой функцией F(x).
§ 52. Условные функции распределения и формула Байеса 295 Пример. В качестве примера использования формулы (1) рассмотрим следующую задачу теории стрельбы. При стрельбе по некоторой цели возможны ошибки двоякого рода: 1) в определении положения цели и 2) ошибки выстрела, происходящие от большого числа различных причин (колебания в величине заряда в снаряде, неправильности обточки стакана снаряда, ошибки в наводке, незначительные колебания атмосферных условий и т.д.). Ошибки второго рода носят название технического рассеивания. Производится п независимых выстрелов при одном фиксированном определении положения цели. Требуется определить вероятность хотя бы одного попадания в цель. Ради простоты мы ограничимся рассмотрением одномерной цели размера 2а, а снаряд будем считать точкой. Обозначим через f(x) плотность вероятностей положения цели и через <Pi(x) плотность вероятностей для точек попадания г-го снаряда. Если центр цели находится в точке z, то вероятность попадания в цель при г-м выстреле равна вероятности попадания в интервал (z - a, z + а), т.е. равна2) z+a / (pi(x)dx. z-a Условная вероятность промаха при г-м выстреле при условии, что центр цели находится в точке г, равна z+a 1 - / (pi(x) dx. z-a Условная вероятность промаха при всех п выстрелах (при том же условии) равна z+a Й(1-/ ¥>.(*)<**)• Отсюда заключаем, что вероятность хотя бы одного попадания, при условии, что центр цели находится в точке z, равна -П(' f ш<ь) 2) Мы полагаем при этом, что определение положения цели и техническое рассеивание независимы.
296 Глава 10. Теория стохастических процессов Безусловная вероятность хотя бы одного попадания в цель (по формуле (1)), таким образом, равна Р = J f(z) [l - П (' - / Ш dx)] dz- ,= l z-a Если условия стрельбы не изменяются от выстрела к выстрелу, то <Pi(x) = <p(x) (i = 1,2,..., п) и, следовательно, z+a Р = f /(z)[l-(l- f <p(x)dx^ ]cte. z-a Пусть по-прежнему (см. с. 294) 4, обозначает событие ж, ^ £ < Xj+\. Согласно классической теореме Байеса p{i4,|B}-—рЩ—• Если F(x) = Р{£ < х) и Р{£ < х\В} имеют непрерывные производные по х, то, пользуясь теоремой Лагранжа, получаем: РШВ) = P({Xi\B)(xi+l - Xi) = F'(Xi'^BlAi}(xi+i - х,), где Х{ < Х{ < ж,-+1, Xi < х^ < ж,+|. В пределе, когда ж, -» х, Х{+\ -> ж, получаем „ мп\ р(*)р{ВД или „ лит р(»)р{Д|д) 0, Это равенство естественно назвать формулой Байеса. Пусть теперь событие В состоит в том, что некоторая случайная величина rj принимает значение между у-аиу + /?и условная функция распределения Ф(у\х) величины rj имеет при каждом х непрерывную плотность pv(y\x). Тогда, как это следует из равенства (2), если 1 г , , — Р{Б|ж} при а и /3, стремящихся к нулю, равномерно относительна +а но х стремится к р^(у\х), то имеет место равенство PiWV)~ fpv(y\x)p(x)dx' Эта формула будет нами широко использована в следующей главе.
§ 53. Обобщенное уравнение Маркова 297 § 53. Обобщенное уравнение Маркова Мы перейдем теперь к изучению случайных процессов без последействия, ограничиваясь при этом лишь простейшими задачами. В частности мы будем предполагать, что множество возможных состояний системы есть множество действительных чисел. Таким образом, для нас случайным процессом будет совокупность случайных величин £(£), зависящих от одного действительного параметра t. Мы будем называть параметр t временем и говорить о состоянии системы в тот или иной момент времени. Полную вероятностную характеристику процесса без последействия мы получим, задав функцию F(t,x\T,y), равную вероятности того, что в момент г случайная величина £(т) примет значение, меньшее у, если известно, что в момент t (t < т) имело место равенство £(t) = x. Дополнительное знание состояний системы в более ранние чем t моменты времени для процессов без последействия не изменяет функцию F(t, х; т, у). Отметим теперь некоторые условия, которым должна удовлетворять функция F(t, х\ т, у). Прежде всего для нее, как для функции распределения, должны быть при любых х, t и г выполнены равенства: 1) lim F(t9x,T9y) = 0, ton F(t,x;T,y) = U У-+-00 У-++00 2) функция F(t, x\ г, у) непрерывна слева относительно аргумента у. Предположим теперь, что функция F(t,x;r,y) непрерывна по t, т и по х. Рассмотрим моменты времени t, s, т (t < s < г). Так как из состояния х в момент t система переходит в момент s в одно из состояний интервала (z,z + dz) с вероятностью dzF(t,x\s,z), а из состояния z в момент s переходит в состояние, меньшее у, в момент г с вероятностью F(s,z\r,y), то согласно формуле (1) предыдущего параграфа находим, что F(t, х\ г, у) = / F(s, z; т, у) dzF(t, x; 5, z). Полученное равенство естественно назвать обобщенным уравнением Маркова, так как оно представляет собой распространение равенства (1), § 17 теории цепей Маркова на теорию случайных процессов и в этой теории играет столь же важную роль, как упомянутое тождество в теории цепей Маркова. Вероятность F(t, х\ г, у) определена пока только для г > £. Дополним это определение, приняв lim F(t, х\ г, у) = lim F(t, х\ г, у) = Е(х, у) = < г->Н-0 t-4T-0 ^ 1 при у > X. Если существует плотность f(t,x,T,y) = — F(t,x;r,y),
298 Глава 10. Теория стохастических процессов то для нее выполняются следующие очевидные равенства: у f(t, х; г, z) dz = F(t, х\ r, у), -00 У I -00 / f(t,x;T,z)dz= 1. Для этого случая обобщенное уравнение Маркова должно быть записано в таком виде: , я; т, у) = / f(s, z\ r, y)f(t, x; s, z) dz. f(t § 54. Непрерывный случайный процесс. Уравнения Колмогорова Мы скажем, что случайный процесс £(t) непрерывен, если за малые промежутки времени лишь с малой вероятностью £(t) может получить заметные по величине приращения. Более точно, случайный процесс £(£) непрерывен, если, каково бы ни было постоянное б (б > 0), имеет место соотношение J&Z* / **<«-*.*; «.»> = <>• 0) \у-х\>6 Наша ближайшая задача состоит в выводе дифференциальных уравнений, которым при выполнении некоторых условий удовлетворяет функция F(t,x;T,y), управляющая непрерывным случайным процессом без последействия. Эти уравнения впервые строго были доказаны А. Н. Колмогоровым (хотя второе из них и встречалось до этого в работах физиков) и носят название уравнений Колмогорова. Мы предположим, что 1) частные производные dF(t,x;r,y) d2F(t,x\T,y) вх И дх2 существуют и непрерывны при любых значениях t, х и т > t; 2) каково бы ни было 6 > О, существуют предел 3> il^oi / (»-ж)^(«-д*.*;«.») = «(«»*) (2) |у-*1«* 3' При некоторых достаточно общих предположениях А. Н. Колмогоров доказал существование пределов a(t, х) и b(ty х). Наглядный смысл функций а и Ь мы выясним в конце параграфа.
§ 54. Непрерывный случайный процесс 299 и предел Л™ i / (у-х)2<*ур«-А*>х>*>у) = ь(*>х)> (з) \V-x\<6 и эта сходимость равномерна относительно х. Левые части равенств (2) и (3) зависят от <J. Эта зависимость, однако, в силу определения непрерывности процесса (т.е. в силу (1)) является лишь кажущейся. Первое уравнение Колмогорова. Если только что сформулированные условия 1) и 2) выполнены, то функция F(t, x\ т, у) удовлетворяет уравнению dF(t,x;T,y) dF(t,x;r,y) b(t,x) d2F(t,x;r9y) at = -aM)—Tx 2 a* • (4) Доказательство. Согласно обобщенному уравнению Маркова F(t - At, х; т,у) = J F(t, z; т, у) dzF(t - At, x; t, z). Кроме того, в силу свойств функции распределения, F(t, х; т,у) = J F(t, х; т, у) dzF(t - At, x; t, z). Из этих равенств заключаем, что F(t - At, х; т, у) - F(t, x; т, у) = At = a\S № Z''T'У) ~ F{t'Х''Т'У)] dzF{t ~ М'Х; *'Z)' По формуле Тейлора при сделанных нами предположениях имеет место равенство F(t, z; г, у) = F((, *; г,„) + (Z - Х)"Р(''^Т'!') + Последующие аналитические преобразования не требуют пояснений: F(t-At,x;T,y)-F(t,x;T,y) = At = Alj [F('>z;T^)-F(''x;T>y)KF('-A''*;'>*)+ |z-z|<*
300 Глава 10. Теория стохастических процессов ~ J (z-x)d2F(t-At,x;t,z) + \z-x\}>6 dF(t9x;r,y) 1 дх \z-x\<6 Г [(z-x)2 + o((z-x)2)]dzF(t-At,x;t,z). (5) ld2F(t,x;r,y) J_ 2 &r2 ' A* Перейдем теперь к пределу, положив At -> 0. Первое слагаемое правой части в силу (1) имеет своим пределом 0. Второе слагаемое, согласно (2), 0F в пределе равно a(t, ж) —. Наконец, третье слагаемое может отличаться дх 1 , 92F от -Ь(^,ж)-т-7 только на слагаемое, стремящееся к нулю при б -> 0. 2 ааг Но так как левая часть последнего равенства от б не зависит и только что указанные предельные значения от 6 не зависят, то предел правой части существует и равен dF(t,x;T,y) 1 _^F{t,x;r,y) a{t'х)—а;— + 5Ь(<'х)—ш—• Отсюда мы заключаем о существовании предела: v F(t-At,x;T9z)-F(t9z;T9y) dF(t9x\r9y) lim —- = — . д*->о At dt Равенство (5) приводит нас к уравнению (4). Если предположить, что существует плотность распределения a f(t, х; т, у) = j-F(t9 x\ т, у)9 то простое дифференцирование (4) показывает, что плотность f(t, x; т, у) удовлетворяет уравнению df(t,x-,T,y) df(t,x;r,y) l d2f(t,x,T,y) ei + a(*'x>—Ft— + 2b{t'x)—W— = 0- (4) Мы перейдем теперь к выводу второго уравнения Колмогорова. При этом мы не станем стремиться к наибольшей возможной общности и сделаем допущения, не вызываемые существом дела. Помимо уже сделанных предположений, мы наложим на функцию F(t, x; т, у) еще такие ограничения: 3) существует плотность распределения вероятностей dF(t,x;T,y) f{t,x;r,y) = ;
§ 54. Непрерывный случайный процесс 301 4) существуют непрерывные производные df(t,xvr,y)^ ^[e(T>y)/(t>a..Tjy)]> ^[b(r,y)f(t,x;T,y)]. Второе уравнение Колмогорова4^. Если выполнены условия 1)-4), тодля непрерывного случайного процесса без последействия плотность f(t,x;T,y) удовлетворяет уравнению 6f(t,VT,y) = -^[0(т>у)/(<>а;т>у)) + i^.[Hr,y)f(t,x,T,y)]. (6) Доказательство. Пусть о и Ь (а < 6) - некоторые числа и R(y) — неотрицательная непрерывная функция, имеющая непрерывные производные до второго порядка включительно. Кроме того, мы потребуем, чтобы R(y) = 0 при у < а и у > Ь. Из условия непрерывности функции R(y) и ее производных заключаем, что R(a) = R(b) = R'(a) = R'(b) = R"(a) = R"(b) = 0. (7) Заметим прежде всего, что ь ь J W,£T,y)m dy=d_j m x. T) y)R{y) dy = a a = Jim / — R{y)dy. Д7--+0 J At Согласно обобщенному уравнению Маркова f(t, х\ т + At, y)= f(t, х; т, z)/(r, z; r + Ат, у) dz, поэтому a = Km^ д^ // f(t, х;т, z)f(r, z;t + At, y)R(y) dzdy - - J f(t,x;T,y)R(y)dy\ = 4* Второе уравнение Колмогорова было получено раньше физиками Фоккером и Планком в связи с развитием теории диффузии.
302 Глава 10. Теория стохастических процессов = дНто — / /(*, x; г, z) I /(г, z; т + Ar, y)R(y) dy dz - - f f(t,x;r,y)R(y)dy\ = = дНто — J /(*,x;T,y)\[ /(r,y;r + Ar,z)R(z) dz - R(y)\ dy. Произведенные преобразования очевидны: первый раз мы поменяли порядок интегрирования, а второй раз изменили обозначения переменных интегрирования (у на z, a z на у). По формуле Тейлора ВД = R(y) + (z- y)R'(y) + ^^Д"(у) + о[(г - у)2]. Так как в силу ограниченности функции R(z) и условия (1) / /(т,У\т + Ar,z)R(z) dz = о(Ат) I f(r, у\т + Ar, z) dz = 1+ o(Ar), -*|<J J f(T,y;T + AT,z)R(z)dz-R(y) = R'(y) J (z-y)f(T,y;T + AT,z)dz + \y-z\<6 + \R!'{y) J [(z-y)2 + o((z-y)2)]f(T,y,T + AT,z)dz + o(AT). \P-z\<6 TO |y-*l<* Таким образом, b a = &i / №>Х>Т>У)Ы'(У) f (z-y)f(T,y;r + AT9z)dz + \y-z\<6 + \вГ(у) f [(z-y)2 + o((z-y)2)]f(T,y;T + AT,z)dz + o(AT)\dy. \y-z\<6 Перейдем к пределу, положив Ar -> 0. В силу предположения о равномерной сходимости к пределам в (2) и (3), заключаем, что предыдущее
§ 54. Непрерывный случайный процесс 303 равенство может быть записано в виде ъ j дЫлт,у) R{y) dy = j m x; T) y) ja(T> у)в,{у) + \_ь{т^ у)в,,{у)^ dy a Так как R'(y) = R"(y) = 0 для у ^ а и у ^ 6, то / df{t^T'V)R{y)dy = f f(Uх;г,у) [а(т,у)Д'(у) + \ь(т9y)R"(y)] dy. a a (8) Воспользовавшись формулой интегрирования по частям и равенствами (7), находим, что ь ь J /(*, ж; г, у)а(т, y)R!(y) dy = - J R(y)—[a(T, y)f(t, x; r, y)] dy, a a b b 2 j /(*, x; r, y)b(r, y)R"(y) dy = f R(y)^L[b(r, y)f{U x; r, y)} dy. a a В результате подстановки полученных выражений в (8) получаем: ь 0f(t, х\ г, у) fdf(t,x; J дт R(y) dy = - 0-[«(т, 2/)/(*, х; г, j/)] + - -^ [Ь(т, у)/(*, я; т, y)]|i2(y) <fy. a Это равенство может быть записано, очевидно, в таком виде: fr + %[a(T'y)f{t'X; Т'У)] " - ^[&(г,у)/(*, х;т, j/)]|iZ(y)dy = 0. (9) Так как функция R(y) произвольна, то из последнего тождества вытекает (6). Действительно, предположим, что это не так. Тогда существует такая четверка чисел (£, ж; г, у), при которой выражение, стоящее в (9) в фигурных скобках, отлично от нуля. В силу сделанных предположений это выражение представляет собой непрерывную функцию; следовательно, найдется интервал а < у < /3, где оно сохраняет знак. Если а^а и Ь ^ /3, то мы полагаем R(y) = 0 при у^аиу^@и R(y) > 0 при а < у < р. При таком выборе R(y) интеграл, стоящий в левой
304 Глава 10. Теория стохастических процессов части равенства (9), должен быть отличен от нуля. Мы пришли к противоречию. Таким образом, сделанное нами предположение ошибочно и, следовательно, из (9) вытекает (6). Естественно, что основная задача, которую приходится решать, состоит не в проверке того, что данная функция f(t,x,T,y) удовлетворяет уравнениям Колмогорова, а в разыскании неизвестной функции f(t, х; т, у) по этим уравнениям, в которых коэффициенты a(t, x) и b(t, x) предполагаются неизвестными. При этом, конечно, разыскивается не какое-нибудь решение уравнений Колмогорова, а лишь те из них, которые удовлетворяют следующим требованиям: 1. f(t9x;r,y)^0 при всех t9x,T,y. 2. J f(t,x',T,y)dy=\. 3. lim / f(t, x; r, y) dy — 0 при любом 6 > 0. r->t J \y-x\>6 (10) Мы не будем останавливаться на выяснении тех условий, которые нужно наложить на функции a(t, x) и Ъ(Ь, ж), чтобы существовало решение уравнение Колмогорова, удовлетворяющее перечисленным требованиям, и было бы при этом единственным. Мы несколько усилим требование непрерывности с тем, чтобы выяснить физический смысл коэффициентов a(t, x) и b(t, x). Именно, предположим вместо (1), что при любом 6 > 0 имеет место соотношение дЙо5 / (y-x)2dyF(t-At>x'>t>y) = 0- 00 Легко видеть, что из (1') следует (1). Требования 2 и 3 могут быть теперь записаны иначе, а именно, 2Йо Xtf{y"x) dyF{t" Ati ж; '•у) = a{t*х) (2,) и ]im Xtfiy~ Х)2 dyF{t ~ М' Х; *'У) = Щ'Х)- {У) Остальные требования, а также окончательные выводы от замены (1) на (!') не изменяются. Так как /■ (у - х) dsF(t - At, х; t, у) = МК(«) - £(* - Д*)] является математическим ожиданием изменения £(t) за время At, a (у - х)2 dyF(t - At, х; t, у) = M[{(f) - «t - At)]2 /'
§ 54. Непрерывный случайный процесс 305 есть математическое ожидание квадрата изменения £(t) и, следовательно, пропорционально кинетической энергии (в предположении, что £(t) есть координата движущейся под влиянием случайных воздействий точки), то из (2') и (3') ясно, что a(t, x) есть средняя скорость изменения £(£), a b(t, x) пропорционально средней кинетической энергии изучаемой нами системы. Мы заключим этот параграф рассмотрением частного случая уравнений Колмогорова, когда функция f(t,x;r,y) зависит от t, т и у- х, но не от самих х и у. Физически это означает, что процесс протекает однородно в пространстве: вероятность получить приращение А = у - х не зависит от того, в каком положении х находилась система в момент времени t. Очевидно, что в этом случае функции a(t,x) и b(t, x) не зависят от ж, а являются функциями только одного аргумента t: a(t) = a(t,x)'9 b(t) = b(t,x). Уравнения Колмогорова в рассматриваемом нами случае переписываются в таком виде: (и) Рассмотрим сначала частный случай, когда a(t) = 0 и b(t) = 1. Уравнения (И) при этом превращаются в уравнение теплопроводности df _ 1 d2f дт ~ 2 ду2 и ему сопряженное (12) df _ 1 d2f dt " 2дх2' Из общей теории уравнения теплопроводности известно, что единственное решение этих уравнений, удовлетворяющее условиям (10), дается функцией _1_ >/2ir(r - t) Заменой переменных t т t г х=х-[a(z)dz, у=у- Гb(z)dz, t' = Гb(z)dz, т = J b(z)dz a a a a уравнения (11) сводятся к уравнениям (12). Это дает возможность искомое решение уравнений (11) записать в виде /» ч 1 Г (у-х-АЦ f{t,x;T,y) = ^^==^{-^L}.
306 Глава 10. Теория стохастических процессов где обозначено т т А= Г a(z) dz, a2 = Г b(z) dz. § 55. Чисто разрывный процесс. Уравнения Колмогорова—Феллера В современном естествознании большую роль играют процессы, в которых изменение системы происходит не непрерывно, а скачками. Примеры такого рода задач приведены во вводном к настоящей главе параграфе. Мы будем говорить, что случайный процесс £(t) чисто разрывен, если в течение любого промежутка времени (t, t + At) величина £(t) остается неизменной и равной х с вероятностью 1 -p(t, x)At + o(At) и лишь с вероятностью p(t, x)At + o(At) может претерпеть изменение (при этом мы считаем, что вероятность более чем одного изменения £(t) за промежуток времени At есть o(At)). Естественно, что поскольку мы ограничиваемся рассмотрением процессов без последействия, функция распределения дальнейших после скачка изменений £(t) уже не зависит от того, какое значение имело £(t) в моменты, предшествующие скачку. Обозначим через P(t,x,y) условную функцию распределения £(£) при условии, что в момент t произошел скачок и непосредственно до скачка £(£) было равно х (т. е. £(£ - 0) = х). Функция распределения F(t9 x\ т, у) легко может быть выражена через функции p(t, x) и P(t, х, у), а именно F{U х\ г, у) = [ 1 - p(t, х)(т - t)]E(x, у) + (т- t)p(t, x)P(t, х, у) + о(т -1). (О По смыслу определения функций p(t, x) и P(t, x, у) они неотрицательны, причем для P(t,x,y), как для функции распределения, выполнены равенства P(t, х, -оо) = 0, P{t, х, +оо) = 1. Кроме того, мы предположим, что p(t, x) ограничена, обе функции p(t, x) и P(t, х, у) непрерывны относительно twx (достаточно, на самом деле, предположить, что они измеримы по Борелю относительно х). В отношении функции F(t,x\T,y) мы не станем делать никаких предположений и лишь сохраним ее определение при t = т: lim F(t, х; т,») = lim F(t, х; г, у) = Е(х, у) = | ° "РИ У ^ *' T-+t+0 t-+T-0 у I при у > X. Одна из задач настоящего параграфа состоит в доказательстве следующей теоремы.
§ 55. Чисто разрывный процесс 307 Теорема. Функция распределения F(t, х; т, у) чисто разрывного процесса без последействия удовлетворяет двум следующим интегро- дифференциальным уравнениям: dF(t,x;r,y) at dF{t,x;r,y) дт = p(t, x) F(t, х; т,у)- J F(t, z; т, у) d2P(t, x, г) у = - J p(t, z) d2F(t, x; т, z) + ,(2) + J р(т, z)P(t, z, y) d2F(t, x; т, z). (3) Уравнение (2) было получено А. Н. Колмогоровым в 1931 г.; в сделанных нами предположениях оба уравнения (2) и (3) были получены В. Феллером в 1937 г. Это обстоятельство приводит нас к естественному наименованию уравнений (2) и (3) уравнениями Колмогорова—Феллера. Доказательство. В силу обобщенного уравнения Маркова F(t, х; т,у) = J F(t + At, z; т, у) d2F(t, x; t + At, z). Подставив сюда значение F(t, x;t + At, z) по формуле (1), находим, что F(t, x;т,у) = JF(t + At, z;т, у) dz{[\ - p(t,x)At + o(At)]E(x,z)} + + JF(t + At, z;t, y) d2{[p(t, x)At + o(At)]P(t, x,z)}. Так как J F(t + At, z; т, y) d2E(x, z) = F(t + At, x; т, у), то F(t, х;т,у) = \\- p{t, x)At]F(t + At, x; т, у) + Atp(t, x) J F(t + At, z; т, y) d2P(t, x, z) + o(At). Отсюда F(t + At, x; т, y) - F(t, x; т, у) _ At = p(t, x)F(t + At, x; т, y) - p(t, x) J F(t + At, z; т, у) d2P(t, x, z) + o(l). Переход к пределу приводит нас к (2). Уравнение Маркова и (1), а также определение функции E(x,z) позволяют написать следующую цепочку равенств:
308 Глава 10. Теория стохастических процессов F(t,x;T + Ar,y) = JF(T,z;T + AT,y)dzF(t,x;T,z) = = J {U -р(т,г)Ат]Е(г,у) + Атр(т,г)Р(т,г,у) + о(Ат)}dzF(t,x;T,z) = S У = J dzF(t,x;T,z)-AT J p(T,z)dzF(t,x;T,z) + -00 -00 + Ат Ip(T,z)P(T,z,y)d2F(t,x,T9z) + o(AT). Обычным путем отсюда следует существование производной dF/дт и равенство (3). Мы решим еще одну важную для приложений задачу: с какой вероятностью в течение промежутка времени от t до г (г > t) система может изменить свое состояние то или иное число п раз (п = 0,1,2,...)? Обозначим через pn(t, x, т) вероятность того, что, отправляясь от состояния х в момент t, система п раз изменит свое состояние до момента г. Решение задачи начнем со случая п = 0. С этой целью запишем следующее равенство: p0(t, х, т) = p0(t, х,т + Аг) + p0(t, х, т)[\ -р0(т, ж,г + Аг)], (4) которое означает, что отсутствие изменений состояния системы в промежуток времени (t, т) может произойти двумя несовместимыми путями: 1) система не изменила состояния за больший промежуток времени (£, т+Аг), 2) система не меняла состояния до момента г, но в промежуток времени (t, т + Аг) состояние ее изменилось. Так как по определению чисто разрывного процесса р0(т, х, т + Аг) = 1 - р(т, х)Ат + о(Ат), то уравнений (4) может быть записано иначе: p0(t, х, т + Аг) - po(t, х, т) — = -p0(t, х, т)р{т, х) + о(\). Отсюда, положив Аг -> 0, находим, что существует производная dpQ(t, х9 т) и что дт dpQ(t, х, т) = -Po(t, х, т)р(т, х). дт Проинтегрировав это уравнение, находим p0(t, х, т) = С ехр < - J p(u, x)du>. t Так как р0(т,х,т) = 1,
§ 55. Чисто разрывный процесс 309 то С = 1 и p0(t, х, т) = ехр < - / р(и, х) du >. (5) Теперь мы увидим, что, зная po(t, ж, г), а также функцию P(t, ж, у), определенную раньше, мы можем подсчитать любую вероятность pn(t, х,т). В самом деле, n-кратное изменение состояния происходит следующим образом: 1) до момента s (t < s < т) система не меняет состояния (вероятность этого события равна po(t, х, s)), 2) в промежуток (s, s + As) система меняет состояние (вероятность этого равна p\(s, x,s + As) = p(s, x)As + o(As)), 3) вероятность того, что новое состояние, в котором окажется система, будет заключаться между у и у + Ау, равна P(s, х, у + Ау) - -P(s,x,y) = AyP(s,x,y), 4) наконец, за время (s+As, т) система изменит свое состояние п-1 раз (вероятность этого события равна pn-\(s + As, у, т)). Вероятность того, что произойдут все четыре перечисленных события, в силу теоремы умножения, равна p0(t, x, s) • [p(s, x) + o(\)]As • AyP(s, х, у) • pn-\{s + As, у, т). Так как s и у могут быть произвольными (t < s < т и -оо < у < оо), то, в силу формулы полной вероятности, т pn(t, х,т) = / p0(t, х, s)p(s, x)pn-x{s, у, т) dyP(s, х, у) ds = t т = / Po(t, x, s)p(s, x) / pn-\(s, у, т) dyP(s, x, y) ds. (6) t Отсюда, в частности, т р, (t, х,т)= / p0(t, x, s)p(s, x) / pQ(s, у, т) dyP(s, x, у) ds. (7) t Процесс определения pn(t,x, т) очевиден: по формуле (5) находим Po(t,x,т), по формуле (7) вычисляем px(t,x,т) и затем последовательно P2(t, х, т), p3(t, х, т) и, наконец, pn(t, x, т). Пример 1. Пусть интересующая нас величина £(t) есть число изменений состояния за время от 0 до t. В предположении p(t,x) = а, где a > 0 — постоянное, найти pn(t, x, г).
310 Глава 10. Теория стохастических процессов Возможными состояниями системы будут в нашем случае все неотрицательные целые числа (х = 0,1,2,...) и только они. Так как при каждом изменении состояния величина £(t) увеличивается ровно на 1, то |0 при ^ж+1, у 1 при у>х+1. По формуле (5) имеем: p0(t, х, т) = ехр {-а(т - t)}. Согласно (7) г р,(*, ж, г) = / p0(t, ж, s)p(s, x)p0(s, x + 1, т) ds = т t = а I ехр {-(s - t)a} ехр {-(г - s)a} ds = a(r - £) ехр {-а(т - t)}. t По формуле (6) г P2(*,s,r)= p0(t,x,s)p(s,x)pi(s9x+l,T)ds = - exp{-a(r-*)}- t Предположим теперь, что Л_,(«, х, г) = l ^ ехр {-а(т - *)}. По формуле (6) т pn(t, х,т)= p0(t, ж, s)p(s, x)pn-{(s, х + 1, г) Ж? = Го[о(г-в)]и , , Ч1 , [a(T-t)]n r , = у \п-\)\ СХР {""а(г "" ')} ds = п! СХР Ьа(Г "" t)}' t Этим доказано, что при любом целом n ^ 0 fafr - £)]" pn(t, х, т) = я, ехр {-в(г - 0}. Решением нашей задачи является, таким образом, закон Пуассона. В частности, (ат)п рп(0,0, г) = 1^г- ехр {-ат}.
§ 55. Чисто разрывный процесс 311 Легко сообразить, что функция О при у ^ х, F(t,x;T,y)={ ^ [a(r-t)]n 1 2^ ——j ехр{-а(т-*)} при у>х. п<у-х является решением интегро-дифференциальных уравнений (2) и (3). Пример 2. В момент t = О имеется N радиоактивных атомов. Вероятность распада атома в промежуток времени (t, t + At) равна aN(t)At + o(At), где а > 0 — постоянное, a iV(£) — число атомов, не распавшихся до момента t. Найти вероятность того, что за время от t до г произойдет п распадов5). Мы имеем типичный чисто разрывный случайный процесс. Величина £(£), понятно, может принимать только значения 0,1,2,..., N(t). По условию задачи . О при х ^ 0 и x^N, p(t, х) = < 1 a(N - х) при 0 < х ^ iV\ [ 1 при у > х+ 1. Оценим прежде всего вероятность того, что за время от 0 до t произойдет п распадов. По формуле (5) Ро(0,0, г) = ехр | - Г p(t, 0) dt i = exp {-aiW}. о Точно так же p0(t, *, г) = ехр {-a(tf - *)(т - *)}• Далее, по формуле (7) г Pi(0,0,г) = Гр0(0,0,s)p(s,0)р0(5, \,T)ds = о г = / ехр {-aNs}aN exp {-a(JV - 1)(т - 5)} ds = 5* Мы предполагаем при этом, что продукты распада атома сами уже не распадаются и во всяком случае не воздействуют на еще не распавшиеся атомы.
312 Глава 10. Теория стохастических процессов = N exp {-aNr} / a exp {а(т - s)} ds = о = N exp {-aJVr}[exp {ат} - 1]. (8) По формуле (7) легко последовательно найти Р2(0,0, г), р3(0,0, г) и т. д. и доказать, что рп(0,0, г) = CnN exp {-aiNTr}[exp {ат} - if. (9) Это мы предоставляем читателю. Очевидно, что при 0 ^ п ^ N - к имеет место равенство pn(t, к, т) = CnN.k exp {-a(iV - к)(т - 0}[exp {a(r - t)} - if. (9') Теперь мы можем перейти к определению интересующей нас вероятности, которую мы обозначим через pn(t,r). По формуле полной вероятности, используя затем (9) и (9'), находим, что N-n Pn(t, r) = J2 Л(0 A t). pn(t, к, т) = JV-n = X) С" ехр {-л^«}[«р {at} - \]кС„.к х *=о х exp {-a(N - fc)(r - t)}[exp {а(т - 0} - l]n = N-n к =exp{-a^r}[exp{a(r-0}-l]nX)C^C^-*exp{a^r~^^exp{a^""l] k-0 Так как C\k /^n г%п g-%k N^N-k — ^N^N-n И N-n J2 CN-nl™P Mr - 0>(exp {ат} - \)]k = = [ 1+ exp {a(2r - 0} - exp {а(т - О}]7 то окончательно pn(t, т) = С£[ехр {-a*} - exp {-ar}]n[exp {-ат} + + exp {а({т - 0)} - exp {-at}]"-». Легко понять, что функция 0 при у ^ х, F(t,x,T,y)= \ X) Рп(*,ж,г) при x<y^N, п<у-х 1 при у > JV является решением интегро-дифференциальных уравнений (2) и (3).
§56. Процессы с независимыми приращениями 313 § 56. Однородные случайные процессы с независимыми приращениями Мы рассмотрим теперь важный класс случайных процессов, полная характеристика которых будет дана в терминах характеристических функций. Под однородным случайным процессом с независимыми приращениями понимается совокупность случайных величин £(£), зависящих от одного действительного параметра t и удовлетворяющих двум следующим условиям: 1) функция распределения величины £(t + to) - £(*о) не зависит от to (однородность процесса по времени); 2) для любых неперекрывающихся промежутков (а, Ь) параметра t приращения величины £(£), т.е. разности €(b)-£(a) взаимно независимы (независимость приращений). Среди однородных случайных процессов с независимыми приращениями с особой тщательностью изучались процессы броуновского движения, позднее получившие также наименование винеровских процессов. Для процессов этого типа, помимо двух перечисленных условий, предполагаются выполненными также два следующих: 3) величины £(t + t0) - £(*о) нормально распределены; 4) М[£(*+*0)-£(*о)] = 0, О[£(*+*0)-Ш] = <72*, гДе ^-постоянное. В § 50 мы рассмотрели еще один однородный процесс с независимыми приращениями — процесс Пуассона. Прежде чем переходить к получению конкретных результатов, мы рассмотрим несколько примеров. В этих примерах условия, о которых только что шла речь, могут быть приняты в качестве рабочей гипотезы. Естественно, что их допустимость оправдывается только согласием выводов с опытом. Пример 1. Диффузия газов. Рассмотрим молекулу некоторого газа, движущуюся среди других молекул того же газа при условиях постоянных температуры и плотности. Введем в пространстве декартовы координаты и станем следить, как изменяется с течением времени одна из координат избранной молекулы, скажем, координата х. Вследствие случайных столкновений данной молекулы с другими молекулами эта координата будет изменяться во времени, получая случайные приращения. Требование постоянства условий, в которых находится газ, очевидно, означает собой однородность изучаемого процесса во времени. Ввиду большого числа движущихся молекул и слабой зависимости их движения процесс оказывается с независимыми приращениями. Пример 2. Скорости молекул. Рассмотрим снова молекулу некоторого газа, движущуюся в объеме, наполненном молекулами того или иного газа постоянной плотности и температуры. Отнесем снова все пространство к декартовым осям координат и будем следить, как изменяется
314 Глава 10. Теория стохастических процессов со временем компонента скорости по одной из осей координат. В своем движении молекула будет подвергаться случайным столкновениям с другими молекулами. Вследствие этих столкновений компонента скорости будет получать случайные приращения. Мы снова имеем однородный случайный процесс с независимыми приращениями. Пример 3. Радиоактивный распад. Известно, что радиоактивность вещества состоит в том, что его атомы превращаются в атомы другого вещества, выделяя при этом значительное количество энергии. Наблюдения над сравнительно большими массами радиоактивного вещества показывают, что распад различных атомов происходит независимо друг от друга, так что числа распадов атомов в неперекрывающиеся промежутки времени независимы между собой. Кроме того, вероятности того, что за промежуток времени определенной длины произойдет некоторое число распадов, зависят от длины этого промежутка и практически не зависят от того, где во времени он расположен. В действительности, конечно, по мере уменьшения массы вещества его радиоактивность постепенно убывает. Однако для сравнительно небольших промежутков времени (и не слишком больших количеств вещества) это изменение настолько незначительно, что им вполне можно пренебрегать. Легко привести большое число других примеров, где интересующее нас явление природы или технический процесс может рассматриваться как однородный процесс с независимыми приращениями. Укажем дополнительно на такие примеры: космическое излучение (число космических частиц, попавших за определенный промежуток времени на определенную площадку), обрывность пряжи на ватере, загрузка телефонистки (число вызовов абонентов, поступающих за определенный промежуток времени) и пр. Перейдем теперь к выявлению характеристического свойства однородных случайных процессов с независимыми приращениями. Обозначим функцию распределения приращения величины £(t) за промежуток времени г через F(x, r). Тогда, если промежутки времени т\ и т2 не пересекаются, то F(x; г, + т2) = f F(x - у; г,) dyF(y; т2). (1) Если f(z,r) — характеристическая функция, т.е. если f(z, т) = / exp {izx} dxF(x; r), то равенство (1) в терминах характеристических функций принимает следующий вид: /(z;n+r2) = /(z;rl)-/(z;7i). (1') Вообще, если интервалы времени Т\, т2,..., т„ не пересекаются, то /(*;!>) =П/(*;**). ^ Аг= 1 ' к=\
§ 56. Процессы с независимыми приращениями 315 п В частности, если Т\ = Ti = ... = тп и ^2 т* = г, то /(z, г) =[/(,;!)]". Таким образом, функция распределения любого однородного случайного процесса с независимыми приращениями безгранично делима. Нужно отметить, что к рассмотрению безгранично делимых законов распределения в теории вероятностей пришли благодаря изучению однородных процессов с независимыми приращениями. Мы видели, что теория безгранично делимых законов распределения оказала решающее влияние на развитие классических задач теории вероятностей по суммированию случайных величин. Если раньше, как мы указывали, интересы исследователей были сосредоточены на определении наиболее широких условий, при которых имеют место закон больших чисел и сходимость нормированных сумм к нормальному закону, то после того как А. Н. Колмогоровым был полностью охарактеризован класс законов, управляющих однородными случайными процессами без последействия, естественно возникли те общие задачи, которые были рассмотрены в предыдущей главе. Оказалось при этом, что основные законы распределения, которые раньше получались как асимптотические, в теории случайных процессов играют роль точных решений соответствующих функциональных уравнений. Более того, эта новая точка зрения позволила выяснить причины, в силу которых в классической теории вероятностей рассматривались только две предельные функции распределения — нормальный закон и закон Пуассона. Поскольку при произвольном т > О для однородных процессов с независимыми приращениями f(z,T) = [f(z,l)]r, то они полностью определяются заданием характеристической функции величины £(1) - £(0). В §43 мы видели, что для безгранично делимых законов с конечной дисперсией In (p(z, 1) = ijz + / (exp {izu} - 1 - izu)— dG(u), (2) где 7 — действительное постоянное, a G(u) — неубывающая функция с ограниченным изменением. Мы ограничимся рассмотрением этого частного случая однородных процессов. Введем в формуле (2) такие обозначения: U М(и) = / — dG(x) для и < 0, -00 00 N(u) = / — dG(x) для и > О, U
316 Глава 10. Теория стохастических процессов a2 = G(+0) - G(-0); тогда она примет следующий вид: .2.2 ° a2z2 Г In (p(z, 1) = ijz —h / (exp {izu} - 1 - izu) dM(u) + -00 00 + I (exp {izu} - 1 - izu) dN{u). (2') о Выясним теперь теоретико-вероятностный смысл функций M(u) и N(u). В § 43 при выводе формулы канонического представления безгранично делимых законов мы ввели функцию и Gn(u) = n Г х2 йФ„(х). Положим М, „(«) = I — dG„(x) = пФ„(и) для и < О Nn(u) = J — dG„(x) = n[l - Ф„(и)] для и > 0. U Из того, что при п -> оо в точках непрерывности функции G(u) Gn(u) -> G(ti), мы по второй теореме Хелли делаем вывод, что в точках непрерывности функции М(и) Mn(u) = пФп(и) -> М(и). С точки зрения случайных процессов, Фп(ж) (ж < 0) есть вероят- ность того, что величина £(т) за промежуток I —, ) изменения параметра г получит отрицательное приращение по абсолютной величине, большее, чем х. Таким образом, Мп(х) есть сумма по всем к от 0 до п - 1 вероятностей того, что величина £(£) получит отрицательное приращение скачками по абсолютной величине, большими, чем х, за промежутки ( —, ) изменения параметра г. Поскольку М(и) \п п ) и N(u) являются пределами при п -4 оо соответственно функций Mn(u) и Nn{u), то они получили название функций скачков.
§ 56. Процессы с независимыми приращениями 317 Если М(и) = О (для и < О) и N(u) = О (для и > О), т. е. функции скачков отсутствуют, то из формулы (2') видно, что в этом случае стохастический процесс управляется нормальным законом. Мы видим, что случайный процесс, управляемый нормальным законом, является непрерывным в смысле теории вероятностей. Мы докажем теперь более сильное утверждение. Теорема. Для того чтобы однородный случайный процесс с независимыми приращениями и конечной дисперсией6^ управлялся нормальным законом7\ необходимо и достаточно, чтобы при произвольном € > О вероятность того, что максимальное значение абсолютной величины (k-\ k\ приращений £(т) за промежутки ( , — ) (к — 1, 2,..., п) пре- \ п п/ 18) взойдет е, стремилась к нулю вместе с — . п Доказательство. Мы только что видели, что однородный случайный процесс с независимыми приращениями управляется нормальным законом тогда и только тогда, когда при х > О М{-х) = Щх) = 0. (3) Так как М(и) = lim Mn(u) и N(u) = lim Nn(u), п-too п-юо то условие (3) равносильно следующему: lim пФп(-и) = lim n[l - Фп(м)] = 0. (4) /fc- 1 k\ \ п ' п) Обозначим приращение £(т) в интервале ( , — ) через £пь тогда \ п п/ Рпк = Фп(-е) + 1 - Ф»(г + 0) = Р{|£„*| > е}. Очевидно, что соотношения (4) эквивалентны такому: п lim > Рпк = tin-too *—^ к=\ Из неравенств п п , п х 1 - ^Vnk ^ П (1 - Рпк) < ехр I - ]Г рпк > ^ 1, к=\ ч к=\ 6* Теорема верна и без допущения конечной дисперсии. 7) В частности, нормальным законом с дисперсией 0, т. е. законом вида F(x) — 0 при х ^ о, F(x) = 1 при х > а. 8* Таким образом, процессы, управляемые нормальным законом, и только они, являются «равномерно непрерывными» в смысле теории вероятностей.
318 Глава 10. Теория стохастических процессов мы видим, что соотношения (4) равносильны утверждению, что п lim TT(l-pnjk) = 1, п-юо ***■ которое означает, что вероятность осуществления неравенств |£пд;| ^ е для всех к (1 ^ к ^ п) при п -> оо стремится к единице. Иначе говоря, мы доказали, что соотношения (3) имеют место тогда и только тогда, когда при п -> оо р{ max |£nft| > Л-> О, что и требовалось доказать. § 57. Понятие стационарного случайного процесса. Теорема Хинчина о корреляционной функции Процессы марковского типа или, иначе, процессы без последействия, изученные нами в предыдущих параграфах, ни в какой мере не исчерпывают всех запросов естествознания к теории вероятностей. В самом деле, во многих случаях прошлые состояния системы оказывают весьма сильное влияние на вероятности ее будущих состояний, и пренебрегать этим воздействием прошлого нельзя даже при приближенной трактовке вопроса. Принципиально положение может быть исправлено изменением понятия состояния системы путем введения новых параметров. Так, например, если бы изменение положения частицы в явлениях диффузии или броуновского движения мы стали рассматривать как процесс без последействия, то это означало бы, что мы при этом не принимаем в расчет инерцию частицы, которая, само собой разумеется, в этих явлениях играет существенную роль. Введение в понятие состояния, помимо координат частицы, ее скорости в приведенном примере исправило бы положение. Однако существуют случаи, когда такое исправление никакого облегчения при решении поставленных задач не дает. В первую очередь здесь следует указать на статистическую механику, в которой указание на положение точки в той или иной ячейке фазового пространства дает только вероятностное суждение о будущем ее состоянии. При этом ознакомление с предыдущими положениями точки существенно меняет наши суждения относительно ее будущего. В связи с этим А. Я. Хинчин выделил важный класс случайных процессов с последействием, так называемые стационарные процессы, однородно ведущие себя во времени. Стохастический процесс £(t) называется стационарным, если распределение вероятностей для двух конечных групп переменных £(£i), £(£2), • • • ..., £(£п) и £(£| + и), £(£2 + и), ..., £(tn + и) совпадают и, значит, не зависят от и. Числа п и и, а также моменты времени t\9t29...,tn могут быть при этом выбраны совершенно произвольно.
§57. Стационарный процесс. Теорема Хинчина 319 К стационарным процессам приводит, например, изучение ряда акустических явлений, в том числе встречающихся в радиотехнике (случайные шумы), а также разыскание скрытых периодичностей, интересующее астрономов, геофизиков и метеорологов. Часто в установившемся технологическом процессе легко подметить явления, протекающие по схеме стационарных процессов. Для примера рассмотрим процесс прядения. Значительная неоднородность свойств прядильных материалов (длина волокон, их крепость, величина поперечного сечения и пр.), колебания в скорости и равномерности подачи продукта на машинах в различные этапы процесса прядения и многие другие причины приводят к тому, что свойства пряжи меняются от одного сечения к другому. При этом оказывается, что знание того или иного свойства пряжи в какой-либо одной части мотка не дает нам полного знания ее свойств в другой его части. Но поскольку процесс прядения можно считать установившимся, постольку вероятностные характеристики качества пряжи представляют собой стационарный процесс. Понятно, что любая числовая характеристика стационарного процесса £(t) не зависит от момента t и, например, если £(t) имеет конечную дисперсию, то, очевидно, имеют место следующие равенства: М£(* + и) = ЩЦ) = М£(0) = а, D£(* + n) = D£(0 = D£(0)=<72, М«(* + «Ж*» = M«(uK(0)}. Это обстоятельство позволяет без ограничения общности дальнейших результатов считать a = 0 и a = I (для этого, очевидно, достаточно вместо £(t) рассматривать отношение ). (Т Мы ограничимся здесь только изучением важнейшей числовой характеристики £(£) — ее корреляционной функции, т. е. коэффициента корреляции между величинами £(£) и £(t + и) MK(t + ii)-M^ + ti)]K(t)-M^)] щи) = . = . y/Ot(t)-Ot(t + v) В силу сделанного предположения о том, что a = 0 и a = 1, выражение для R(u) принимает более простой вид R(u) = M{£(u)£(0)}. Мы назовем стационарный процесс непрерывным, если НтДЫ = 1. В случае непрерывного стационарного процесса R(u) есть непрерывная функция от и. Действительно, \R{u + Д«) - Л(«)| = |МШ« + ДиЖО)} - Mft(u)£(0)}| =
320 Глава 10. Теория стохастических процессов Но в силу неравенства Коши—Буняковского |мШ<Ш« + а«) - *(«)]} | ^ ^(0).мк(« + д«)-^(«)р. А так как М£2(0) = 1 и M[£(ti + Au) - £(u)]2 = 2[1 - Д(Дм)], то окончательно |Д(м + Au) - R(u)\ <С y/2(l-R(Au)). Это неравенство доказывает наше утверждение. В теореме, которая сейчас будет доказана, стационарность процесса £(t) можно понимать в следующем более широком смысле: процесс £(£) стационарен в широком смысле, если математическое ожидание и дисперсия £(t) не зависят от t, а коэффициент корреляции между £(t\) и £(£2) является функцией только \ti -t\\. Теорема Хинчина. Для того чтобы функция R(u) представляла корреляционную функцию некоторого непрерывного стационарного процесса, необходимо и достаточно, чтобы ее можно было представить в виде R(u) = / cos их dF(x), (l) где F(x) — некоторая функция распределения. Доказательство. Условие теоремы необходимо. В самом деле, если R(u) есть корреляционная функция непрерывного стационарного процесса, то она непрерывна и ограничена. Докажем, кроме того, что она положительно определена. Действительно, каковы бы ни были действительные числа ui, t*2,..., un, комплексные числа rj\, щ,..., rjn и целое число п, имеет место следующее соотношение: | R |2 s П П -ч П П В силу теоремы Бохнера—Хинчина (§36) отсюда следует, что R(u) может быть представлена в виде R(u) = I exp {iux} dF(x), где F(x) — неубывающая функция с ограниченным изменением. В силу вещественности функции R(u) отсюда получаем: R(u) = / cos ux dF(x).
§ 57. Стационарный процесс. Теорема Хинчина 321 Наконец, приняв во внимание условие непрерывности процесса: Д(+0) = 1, находим, что F(+oo) - F(-oo) = 1, т. е. что F(x) есть некоторая функция распределения. Условие достаточно. Нам дано, что R(u) есть функция вида (1). Требуется доказать, что существует стационарный процесс £(£), имеющий своей корреляционной функцией функцию R(u). С этой целью для каждого целого п и каждой группы действительных чисел t\,t2,...,tn рассматриваем n-мерный вектор £(£i),£(£2), ••• >£(*«), распределенный нормально и обладающий свойствами М««|) = МШ = ... = М£(«я