Текст
                    Б. А, СЕВАСТЬЯНОВ
КУРС ТЕОРИИ
ВЕРОЯТНОСТЕЙ
И МАТЕМАТИЧЕСКОЙ
СТАТИСТИКИ
Допущено Министерством высшего
и среднего специального образования СССР
в качестве учебника для студентов вузов,
обучающихся по специальностям
«Математика» и «.Механика»
МОСКВА «НАУКА»
ГЛАВНАЯ РЕДАКЦИЯ
ФИЗИКО-МАТЕМАТИЧЕСКОЙ ЛИТЕРАТУРЫ
1982


22.17 С 28 УДК 519.2 Севастьянов Б. А. Курс теории вероятностей и математи- математической статистики.— М.: Наука. Главная редакция физико-математи- физико-математической литературы, 1982. — 256 с. В основу книги положен годовой курс лекций, читавшихся авто- автором в течение ряда лет на отделении математики механико-матема- механико-математического факультета МГУ. Основные понятия и факты теории веро- вероятностей вводятся первоначально для конечной схемы. Математиче- Математическое ожидание в общем случае определяется так же, как интеграл Лебега, однако у читателя не предполагается знание никаких пред- предварительных сведений об интегрировании по Лебегу. В книге содержатся следующие разделы: независимые испытания И цепи Маркова, предельные теоремы Муавра — Лапласа и Пуассона, случайные величины, характеристические и производящие функции, закон больших чисел, центральная предельная теорема, основные по- понятия математической статистики, проверка статистических гипотез, статистические оценки, доверительные интервалы. Для студентов младших курсов университетов и втузов, изу- изучающих теорию вероятностей. © Издательство «Наука», 1702060000— 143 ,„ оо Главная редакция nco/nm оо \2-oi физико-математической 05.3@2)-82 литературы, 1982
ОГЛАВЛЕНИЕ Предисловие 7 Глава 1. Вероятностное пространство 9 § 1. Предмет теории вероятностей 9 § 2. События 12 § 3. Вероятностное пространство 16 § 4. Конечное вероятностное пространство. Классическое определение вероятности 19 § 5 Геометрические вероятности 23 Задачи 24 Глава 2. Условные вероятности. Независимость .... 26 § 6. Условные вероятности 26 § 7^ Формула полной вероятности 28 § Й. Формулы Байеса 29 § 9. Независимость событий 30 § 10. Независимость разбиений, алгебр и а-алгебр .... 33 § 11. Независимые испытания 35 Задачи 39 Глава 3. Случайные величины (конечная схема) .... 41 § 12. Случайные величины. Индикаторы 41 § 13. Математическое ожидание 45 § 14. Многомерные законы распределения 50 § 15. Независимость случайных величин 53 § 10. Евклидово пространство случайных величии . . . . 5й § 17. Условные математические ожидания 5Э § 18. Неравенство Чебышева. Закон больших чисел .... 61 Задачи 6-1 Глава 4. Предельные теоремы в схеме Бернулли .... 65 § 19. Биномиальное распределение 65 § 20. Теорема Пуассона 66 § 21. Локальная предельная теорема Муавра — Лапласа . . 70
I ОГЛАВЛЕНИЕ § 22. Интегральная предельная теорема Муавра — Лапласа 71 § 23. Применения предельных теорем , , . 73 Задачи 76 Глава 5. Цепи Маркова 77 § 24. Марковская зависимость испытании 77 § 25. Переходные вероятности 78 § 26. Теорема о предельных вероятностях 80 Задачи 83 Глава 6. Случайные величины (общий случай) 84 § 27. Случайные величины и их распределения 84 § 28. Многомерные распределения 92 § 29. Независимость случайных величин 96 Задачи 98 Глава 7. Математическое ожидание 100 § 30. Определение математического ожидания 100 § 31. Формулы для вычисления математического ожидания 108 Задачи 115 Глава 8. Производящие функции 117 § 32. Целочисленные случайные величины и их производя- производящие функции 117 § 33. Факлориальные моменты 118 § 34. Мультипликативное свойство 120 § 35. Теорема непрерывности 123 § 36. Ветвящиеся процессы 125 Задачи 127 Глава 9. Характеристические функции 129 § 37. Определение и простейшие свойства характеристиче- характеристических функций 129 § 38. Формулы обращения для характеристических функций 136 § 39. Теорема о непрерывном соответствии между множе- множеством характеристических функций и множеством функций распределения 140 Задачи 145 Глава 10. Центральная предельная теорема 146 § 40. Центральная предельная теорема для одинакозо рас- распределенных независимых слагаемых 146
ОГЛАВЛЕНИЕ б § 41. Теорема Ляпунова 147 § 42. Применения центральной предельной теоремы .... 150 Задачи ' 153 Глава П. Многомерные характеристические функции . . . 154 § 43. Определение и простейшие свойства 154 § 44. Формула обращения 158 § 45. Предельные теоремы для характеристических функций 159 § 46. Многомерное нормальное распределение и связанные с ним распределения 164 Задачи 173 Глава 12. Усиленный закон больших чисел 174 § 47. Лемма Бореля — Кантелли. Закон «0 или 1» Колмо- Колмогорова 174 § 48 Различные виды сходимости случайных величин . . . 177 § 49. Усиленный закон больших чисел 181 Задачи 188 Глава 13. Статистические данные 189 § 50. Основные задачи математической статистики .... 189 § 51. Выборочный метод 190 Задачи 194 Глава 14. Статистические критерии 195 § 52. Статистические гипотезы 195 § 53. Уровень значимости и мощность критерия 197 § 54. Оптимальный критерий Неймана — Пирсона .... 199 § 55. Оптимальные критерии для проверки гипотез о пара- параметрах нормального и биномиального распределений 201 § 56. Критерии для проверки сложных гипотез 2Э4 § 57. Непараметрические критерии 206 Задачи 211 Глава 15. Оценки параметров 213 § 58. Статистические оценки и их свойства 213 § 59. Условные законы распределения 216 § 60. Достаточные статистики 220 § 61. Эффективность оценок 223 § 62. Методы нахождения оценок 228 Задачи 232
6 ОГЛАВЛЕНИЕ Глава 16. Доверительные интервалы 234 § G3. Определение доверительных интервалов 234 § 64. Доверительные интервалы для параметров нормаль- нормального распределения 236 § 65. Доверительные интервалы для вероятности успеха в схеме Бериулли ..... 240 Задачи 244 Ответы к задачам 245 Таблицы нормального распределения 251 Литература 253 Предметный указатель 254
ПРЕДИСЛОВИЕ Первоначальный курс теории вероятностей и мате- математической статистики должен удовлетворять двум ус- условиям. С одной стороны, он должен помогать развитию теоретико-вероятностной интуиции, т. е. умения строить математические модели, правильно отражающие те или иные стороны реальных случайных явлений. При этом надо иметь в виду, что теория вероятностей и матема- математическая статистика тесно связаны с различными при- приложениями, с некоторыми из которых выпускникам ма- математических отделений университетов с большой ве- вероятностью придется столкнуться в своей работе. С дру- другой стороны, теория вероятностей должна развиваться как математическая наука, построенная на точных оп- определениях и аксиомах. Однако многие существующие руководства по теории вероятностей придерживаются одной из двух крайностей. В одних курсах, нацеленных на приложения, нет четкого разделения реальных слу- чанных явлений и их математических моделей. В част- частности, важное в теории вероятностей понятие независи- независимости молчаливо смешивается с причинной независи- независимостью реальных явлений. Другие курсы посвящены, главным образом, строгому изложению математических основ теории вероятностей, поэтому они либо очень ве- велики по объему, либо в значительной степени опи- опираются на такие понятия функционального анализа, как мера и интеграл Лебега, и поэтому не могут быть ис- использованы при обучении студентов младших курсов. Содержание данного учебника соответствует годо- годовому курсу теории вероятностей и математической ста- статистики, который автор читал в течение ряда лет hj механико-математическом факультете Московского го- государственного университета студентам-математикам 4-го и 5-го семестров. Для преодоления указанны* выше трудностей автор придерживается некоторого компромиссного направления. Первоначально многие
ПРЕДИСЛОВИЕ 8 теоретико-вероятностные понятия введены в простом случае конечного вероятностного пространства. Приве- Приведен ряд примеров, в которых указана связь вводимых математических понятий с теми или иными свойствами реальных явлений. Общий случай основан на способе из- изложения, который связан с введением интеграла Лебега без теории меры. На 4-м семестре, когда студенты еще не знакомы с соответствующими понятиями функцио- функционального анализа, аксиоматически вводится понятие ве- вероятностной меры и на ее основе определяется матема- математическое ожидание как интеграл Лебега. Теорема Кара- теодори о продолжении меры формулируется без дока- доказательства. Понятия условного распределения вероят- вероятностей и условного математического ожидания даны не в полном объеме, а лишь в простых случаях дискретных и абсолютно непрерывных распределений. В основном автор старался опираться лишь на знание студентами классического математического анализа. Главы 1—5 связаны в основном с конечными ве- вероятностными пространствами. В этих главах введены основные понятия вероятности, математического ожида- ння, независимости, случайной величины. Распростране- Распространение этих понятий на общий случай дано в главах 6—12. Главы 13—16 посвящены некоторым задачам математи- математической статистики. Каждая глава сопровождается не- небольшим количеством задач. Однако автор предпола- предполагает, что читатель использует какой-нибудь задачник (например, Севастьянов Б. А., Чистяков В. П., Зубков А. М. Сборник задач по теории вероят- вероятностей.—М.: Наука, 1980). Москва, Б. А. Севастьянов май 1981 г.
Глава 1. ВЕРОЯТНОСТНОЕ ПРОСТРАНСТВО § 1. Предмет теории вероятностей Сочетание слов «теория вероятностей на неискушен- неискушенного человека производит несколько странное впечатле- впечатление. В самом деле, слово «теория» связывается с нау- наукой, а наука изучает закономерные явления; слово «ве- «вероятность» в обычном языке связывается с чем-то не- неопределенным, случайным, незакономерным. Поэтому люди, знающие о существовании теории вероятностей только понаслышке, говорят о ней часто иронически. Однако теория вероятностей — это большой, интенсивно развивающийся раздел математики, изучающий случай- случайные явления. Так в чем же тут дело? Как разрешить это противоречие между тем, что теория вероятностей — это наука, а ее предмет — случайность, которая, каза- казалось бы, не поддается никакому научному предсказа- предсказанию? Как мы увидим ниже, противоречие здесь только кажущееся, так как теория вероятностей изучает зако- закономерности случайных явлений. Математика, как и любая другая наука, изучает закономерные явления реального мира. Связь между математикой и объектом исследования можно изобра- изобразить схематически следующим образом ■ (см. рис. 1). Классическим примером такой схемы является меха- механика, созданная Ньютоном. На основе многовековых наблюдений движений небесных тел, а также практиче- практической деятельности людей, связанной со строительством и производством, Ньютон сформулировал несколько простых законов механики в виде аксиом и закон все- всемирного тяготения, из которых дедуктивными рассуж- рассуждениями можно было объяснить все явления, которые наблюдались ранее, а также предсказать многие новые факты. Построение математических моделей реальных механических и физических процессов привело к созда» пи математического анализа.
Мптемагпичвская недель Ю ГЛ. I. ВЕРОЯТНОСТНОЕ ПРОСТРАНСТВО Закономерное событие — это событие, которое всегда осуществляется, как только создаются определенные ус- условия. Закономерное явление —это система закономер- закономерных событий. Роль математики, в частности теории дифференциальных уравнений, при изучении реальных закономерных явлений общеизвестна. Но наряду с за- закономерными мы все время сталкиваемся в практической деятельности с событиями незакономерными или, иначе, случайными. Это события, которые при одних и тех же . условиях иногда происходят, а иногда —нет. Например, чело- человек, заболевший гриппом в пе- период эпидемии, может выздо- выздороветь, может получить те или иные тяжелые осложнения, или умереть. Таким образом, исход заболевания гриппом случаен. Казалось бы, что там, где мы имеем дело со случайными Рис. 1. событиями, науке, в частности математике, делать нечего. Ведь наука открывает научные законы, которые помо- помогают предсказывать течение того или иного процесса или явления, а случайное явление —это как раз та- такое явление, предсказать исход которого невозможно. Однако и случайные события подчиняются некоторым закономерностям, которые мы назовем вероятностными закономерностями. Прежде всего условимся, что мы бу- будем иметь дело не со всякими случайными событиями, а с массовыми случайными событиями, т. е. мы будел! предполагать, что в принципе возможно создать много раз одни и те же условия, при каждом из которых мо- может произойти или нет некоторое случайное событие. Пусть при осуществлении некоторых условий Л/ раз слу- случайное событие А осуществляется N(A) раз.Число N(A) называется частотой события А, а отношение A'(A)/N — стносительной частотой события А. Оказывается, при больших N относительная частота N(A)/N для случай- случайных массовых событий обладает так называемым свой- свойством устойчивости, которое состоит в том, что в не- нескольких сериях нз достаточно больших Ni, jV2, .... N,
S 1. ПРЕДМЕТ ТЕОРИИ ВЕРОЯТНОСТЕЙ Ц наблюдений события А в одних и тех же условиях мы обычно имеем приближенные равенства У, (Л) У,(Л) „ .. У, D) Таким образом, относительная частота события А ко- колеблется около одного и того же числа, которое харак- характеризует данное случайное событие А. Это число Р(Л) в соответствующей математической модели мы будем называть вероятностью события А. Например, мы мо- можем много раз подбрасывать одну и ту же монету. Пусть случайное событие А — это выпадение герба при одном бросании. В случае бросания «правильной» (сим- летричной, однородной) монеты Р(Л)= 1/2. Статистика рождений показывает, что мальчиков рождается не- несколько больше, чем девочек, причем наблюдаемая доля рождений мальчиков равна 0,51—0,52 (в разные перио» ды, в разных странах могут быть колебания). Медицин- Медицинская статистика свидетельствует о том, что смертность от гриппа имеет малую, но ненулевую вероятность (по- (поэтому в условиях массовой эпидемии число смертных случаев от гриппа становится заметным). Устойчивость частот — это объективное свойство мас- массовых случайных явлений реального мира. Отсутствие устойчивости частот в сериях испытаний свидетельствует о том, что условия, при которых производятся испыта- испытания, претерпевают значительные изменения. Теория ве* роятностей — это математическая наука, которая изу- изучает математические модели случайных явлений. Если говорить более подробно, то теория вероятностей уста- устанавливает такие связи между вероятностями случайных событий в математических моделях, которые позволяют вычислять вероятности сложных событий по вероят- вероятностям более простых событий. В теории вероятностей используются результаты и методы многих областей математики (комбинаторики, математического анализа, алгебры, логики и т. п.). Од- Однако теория вероятностей обладает некоторым своеоб* Разном, поскольку она очень тесно связана с различ- различными приложениями, причем приложения эти не столь привычны, как, например, приложения дифференциаль- дифференциальных уравнений. Поэтому овладеть теорией вероятностей
12 ГЛ. I. ВЕРОЯТНОСТНОЕ ПРОСТРАНСТВО может лишь тот, кто решает много задач (этн задачи часто имеют нематематическую постановку, и надо уметь построить соответствующую математическую мо- модель) и приобретает, таким образом, теоретнко-верояг* ностную интуицию. § 2. События Одним из основных понятий теории вероятностей яв- является случайное событие или, как мы будем чаще го- говорить, просто событие. В реальном мире случайное событие — это исход (какого-либо испытания, наблюде- наблюдения, эксперимента), который может произойти (насту* пить, осуществиться) или не произойти (не наступить, не осуществиться). Пример 1. При бросании игральной кости1) мо- может выпасть число очков, равное какому-либо числу из множества чисел 1, 2, 3, 4, 5, 6. Событиями в этом случае будут, например, А = {выпадает четное число очков}, В — {выпадает число очков, не большее трех}. В математической модели можно принять понятие события как первоначальное, которому не дается опре- определения и которое характеризуется лишь своими свой- свойствами. Исходя из реального смысла понятия события, мы можем определить следующие частные случаи поня- понятия события и следующие операции над событиями. В тех случаях, когда мы одновременно рассматриваем несколько событий, мы всегда будем предполагать, что этн события могут произойти или не произойти при од- одном и том же испытании (т. е. при осуществлении од- одних и тех же условий). Достоверным событием будем называть событие, ко- которое всегда происходит, и будем его обозначать Q. Не- Невозможным событием назовем событие, которое никогда не пронсхеднт. Обозначать невозможное событие будем 0. Событие А назовем событием, противоположным Л, •) Игральной костью называется кубик, сделанный из однород- однородного материала, грани которого занумерованы цифрами 1, 2, 3, 4, 5, 6. Число очков, выпавшее при бросании игральной кости, — это цифра на верхней грани кубика.
i 2. СОБЫТИЯ 13 если оно происходит тогда и только тогда, когда не происходит А. Суммой или объединением событий А и И назовем событие, обозначаемое A U В или А + В, ко- которое происходит тогда и только тогда, когда происхо- происходят или А, или В (или оба вместе). Произведением или пересечением событий А и В назовем событие, обозначаемое A f) В или АВ, которое про- происходит тогда и толь- только тогда, когда проис- происходят и А и В вместе. Разностью А\В собы- событий А и В назовем со- событие, которое проис- происходит тогда и только тогда, когда происхо- происходит А и не происходит В. События А и В на- назовем несовместными, если /45 = 0. Мы бу- будем писать /1еВ и fiUS fi US Рис. 2. Сумма, произведение, разность событий Л и В; событие Л противо- противоположно А. говорить, что событие А влечет за собой со- событие В, если из на- наступления события А следует наступление события В. Если A s В и В s .4, то мы будем говорить, что события А и В равносильны, и писать А — В. В примере 1 с бросанием игральной кости имеем следующие события: Л U В = {выпадает число очков, отличное от пяти}, А П В = {выпадает число очков, равное двум}, Л\В = {выпадает число очков, равное 4 или 6}, А = {выпадает нечетное число очков}. Пример 2. На квадрат случайно бросается частица (см. рис. 2); событие А — {частица попадает- в круг А), событие 5 = {частица попадает в треугольник В}.
14 ГЛ. 1. ВЕРОЯТНОСТНОЕ ПРОСТРАНСТВО События А[]В, А О В, А\В и Л в этом случае — это попадание частицы в области, получаемые объедине- объединением, пересечением, разностью областей А и В и допол- дополнением А в квадрате (на рис. 2 соответствующие об- области заштрихованы). В настоящее время в теории вероятностей наиболее распространенным является подход, в котором событие определяется через неопределяемое понятие элементар- элементарного события. Наиболее употребительная теоретико-ве- теоретико-вероятностная модель в простых случаях — это урновая модель. Пусть имеется урна с п одинаковыми шарами. Испытание состоит в том, что мы случайно выбираем из урны один шар. Обозначим ft = {u>i,gJ. •••■ ©i} множество шаров в урне. Если из урны при испытании мы вынимаем шар а,еД, где А — некоторое подмно- подмножество множества шаров Q, то мы будем говорить, что произошло событие Л; если же анфА, то мы будем говорить, что событие А не произошло. В данном слу- случае событие А отождествляется с подмножеством А множества всех возможных исходов или, как мы будем далее говорить, элементарных событий. В общем случае мы будем в каждой теоретико-ве- теоретико-вероятностной модели рассматривать некоторое основное множество Q = {со}. Будем называть его элементы «о элементарными событиями, само множество Q — про- пространством элементарных событий, а некоторые его подмножества Л s Q — событиями. Операции над со- событиями— это операции над подмножествами. При этом в теории вероятностей употребляется своя терминоло- терминология, связь которой с теоретико-множественной термино- логией отражена в таблице 1. Операции суммы и произведения событий можно распространить на любое конечное или бесконечное множество событий (J Aa, f] Aa. Обычные свойства опе- а а раций над множествами переносятся на операции над событиями, например, п\А,
S г. события IS А\(А\В) = АЗ, <= J и т. д. Иногда придерживаются следующего соглаше- соглашения: если Аи Л2, ..., Ап попарно несовместны, то п л U Ai = Ai [} А2 U ••• U Ап пишут £ At = Ах вместо + 2 + + „ В общем случае бесконечного пространства Q мы рассматриваем не все подмножества Q, а лишь некото- некоторые классы этих подмножеств, называемые алгебрами н а-алгебрами множеств. Таблица 1 Обозна- Обозначение Q о, со s Q A,AsQ лив, А + В ЛЛВ.ЛВ А\В 0 Л ЛВ = 0 Лев л=в Терминология в теории множеств пространство (основное множество) элемент пространства <й множество Л сумма или объединение множеств Л и В пересечение множеств Л и В разность множеств Л и В пустое множество дополнительное множест- множество Л Л и В не пересекаются Л есть подмножество В Л и В равны Терминология в теории вероятностей пространство элементар- элементарных событий, достоверное событие элементарное событие <а событие Л сумма событий Л и В произведение событий Л и В разность событий А н В невозможное событие противополржное Л собы- событие Л и В несовместны Л влечет событие В Л и В равносильны
16 ГЛ. 1. ВЕРОЯТНОСТНОЕ ПРОСТРАНСТВО Определение 1. Назовем класс S4- подмножеств пространства Q алгеброй множеств, если lHei,Qsi; 2) из /4ei следует Asrf; 3) из A, Bsi следует А\}В<=бФ, А[\В<=зФ. Определение 2. Алгебру множеств зФ назовем о-алгеброй, если из Лл е ^, п=\, 2 следует О Ап<=а, П Ап^а. § 3. Вероятностное пространство Определение 3.Тройку (Q, s4-, P), где Q —про- —пространство элементарных событий, зФ — а-алгебра под- подмножеств Q, называемых событиями, Р — числовая функция, определенная на событиях и называемая ве- вероятностью, будем называть вероятностным простран- пространством, если выполнены следующие аксиомы: 1°. Р(Л)^&0 для всех Ле^ (неотрицательность Р); 2°. Р (Q) *= 1 (нормированность Р); 3°. Р(Л + В) = Р(Л)+Р(В), если АВ=0 (аддитив- (аддитивность Р); 00 4°. Если Ап\0, т. е. Л,эЛ2=2... и f| Ля=0, то Ига Р(Л„) = О (непрерывность Р). ге->оо Из этих аксиом вытекают следующие свойства ве- вероятности. 1) Если А^В, то Р(В\А) = Р(В)-Р(А). Так как £ = Л + (В\Л) и А[](В\А)=0, то по аксиоме 3° А). A) 2) Если Лев, то Р(Л)<Р(В). Следует из A). 3) Для любого А<=зФ Следует из 2), так как 0еЛе
§ 3. ВЕРОЯТНОСТНОЕ ПРОСТРАНСТВО 17 4) Р(Л)=1-Р(Л). Следует из аксиомы 3°, так как А + A = Q, АА = 0. 5) Р@) = О. Следует из 4) и аксиомы 2°. 6) Имеет место конечная аддитивность: если А[А\ = 0 для любых I ф /, то Р (Л, + А2 + ... + Л„) = g P (Ak). B) Следует из аксиомы 3°. Доказывается по индукции. 7) Для любых событий А\ Ап U C) Представим (J Л& в виде суммы попарно несовмест- ных событий Bk = Ak\(Al\J A2\J ... U Ак_х): По свойству аддитивности 6) имеем откуда следует C), так как (А 8) Для любых событий А и В Следует из А[) В = А-\-(В\ АВ), аксиомы 3°: Р (A U В) = Р (Л) + Р (В \ АВ) и свойства 1): Р (В \ АВ)= = Р(В)-Р (АВ). Аксиомы 3° и 4° можно заменить одной аксиомой счетной аддитивности (или, как еще говорят, аксиомой ^-аддитивности). 3*. Если события Ап в последовательности Aiy А2, ... попарно несовместны, то )t Р(Л„). D) 1
18 ГЛ. I. ВЕРОЯТНОСТНОЕ ПРОСТРАНСТВО Теорема 1. Система аксиом Г, 2°, 3°, 4° равно- равносильна системе аксиом Г, 2°, 3*. Доказательство. Пусть справедливы аксиомы 1°, 2°, 3°, 4°, и пусть Ап — последовательность попарно оо несовместных событий. Обозначим Вп= £ Ak, A=> к-п+1 оо = Л Ап. Тогда Л при любом п разлагается на ко- нечную сумму попарно несовместных событий А = А1 + А2+ ... +Ап + Вп, поэтому оо Так как Вп \ 0, т. е, В,2Й2Э... и {] Вп — 0, то по аксиоме 4° имеем Р (Вп) I 0. Отсюда вытекает счет- счетная аддитивность D). Пусть теперь выполнены аксиомы Г, 2°, 3*. и пусть Вп\0. Обозначим An = Bn\Bn+i, п=\, 2, ... Собы- События Ап попарно несовместны и оо оо #1=2] Ап, Bn=Z Ak, оо поэтому по аксиоме 3* ряд Р{Вх) =£ Р(Ап) сходится, оо и сумма остатка этого ряда Р(В„)= J] Р(Ла)->0. Тео- рема доказана. Система аксиом 1°, 2°, 3°, 4° или Г, 2°, 3* опреде- определяет вероятностную меру на о-алгебре зФ пространства Q. Эта система аксиом предложена А. Н. Колмого- Колмогоровым. Происхождение аксиом Г, 2°, 3° можно объяснить, исходя из свойства статистической устойчивости частот. Пусть А и В — несовместные события, N(A)/N и N(B)/N — их относительные частоты в какой-либо длин- длинной серии наблюдений.Так как Л^(Л)^0,то N(A)/N^s ^0, следовательно, то число Р(А), к которому близко отношение N(A)/N, должно быть неотрицательным,
S 4. КОНЕЧНОЕ ВЕРОЯТНОСТНОЕ ПРОСТРАНСТВО Для достоверного события N(Q)=N, поэтому надо по» требовать Р(Н)=1. Для несовместных событий NlA -Р + B)=N(A)^-N(В), откуда N(A) , N(B) 1 1 \ / м $ /, у, \ У* '/ / */ // у/ /А *$ '/л У/ Ч у, Щ У/ \ 1"* у) '/ */f // '/ (/, '/, '/ '/ ^ 'А '/, 'i \ >/ Vy_ '4 /"/ У ГУ' //, У/1 У, V. V, У/ '/ "/, *yty. | /* /г -Z1 ■// // У/ s/f // // // ->; '/ Уг '/. щ // у, '/} '/ 'А iVf у/ // <У. >/, УА /у 'У У/ ^п Ус у, ■/, у. '/ 'yt •/, у, й 'yt V( (/ УЛ У/ •/} yr >; 'yt <( Ч У< У/ У/. /А А уу /у, У< У< > [!5 у. S уу, <к ш ~*У/ // У/^ f У/ У У* / 1 1 1 1 1 I 1 1 У— 1 1 _я_ /Г г 1 1 1 1 1 1 j Рис. 3. что и приводит к аксиоме 3°. Аксиома 4° (или 3*) имеет несколько другое проис- происхождение, связанное не с реальным свойством устой- устойчивости частот, а с нуждами развиваемой на основе аксись матики математической тео- теории. Поясним сказанное на примере. Пусть на единичный квадрат бросается случайно частица, причем вероятность попадания в любой внутрен- внутренний квадрат со сторонами, па- параллельными сторонам основ- основного квадрата, равна площади меньшего квадрата. С по- помощью аксиомы 3° отсюда можно получить вероятность попадания в любую фигуру, составленную из суммы конечного числа квадратов. Но нам хотелось бы иметь также возможность находить вероятность попадания в более сложные фигуры, напри- например, в круг. Это можно сделать с помощью аксиомы 3*, приближая круг фигурами, составленными из конечных сумм таких квадратов (см. рис. 3). § 4. Конечное вероятностное пространство. Классическое определение вероятности Рассмотрим простой случай конечного вероятност- вероятностного пространства. В этом случае Q = {ш}— конечное пространство, зФ — алгебра всех подмножеств множе- множества Q (ввиду конечности $]> эта алгебра автоматически представляет собой а-алгебру). Вероятность Р(Л) для любого подмножества Л из Q в этом случае можно за- задать следующим образом. Пусть заданы неотрицатель- неотрицательные числа ра такие, что Ц ра=*1. Вероятность Р(Л) BSii
20 ГЛ. 1. ВЕРОЯТНОСТНОЕ ПРОСТРАНСТВО определим как сумму ■■А Р.. E) Легко видеть, что так определенная вероятность (вместе с Р@) = О) удовлетворяет всем аксиомам. Обозначим \А\ число элементов в множестве А. Частным случаем определения вероятности E) будет так называемое классическое определение вероятности, когда все ра равны друг другу. Так как 1 = ]Г ра = ра | Q |, то в этом случае р(а:=-1ът и Модель вероятностного пространства, приводящая к классическому определению вероятности, используется в тех случаях, когда элементарные события обладают свойством «симметрии» в том смысле, что все элемен- элементарные события находятся в одинаковом отношении к тем условиям, которые определяют характер испытания. Например, бросание игральной кости или монеты обла- обладает свойством «симметрии» по отношению к выпаде- выпадению того или иного числа очков на кости или той или иной стороны монеты, если, конечно, при броске они были достаточно высоко от горизонтальной поверхности и им было придано в начале броска вращательное дви- движение (но не вокруг оси симметрии). Таким же свой- свойством симметрии обладают правильно организованная жеребьевка и тираж лотереи. При нахождении вероятностей в схеме классического определения широко используется комбинаторика. Мы часто будем использовать комбинаторные понятия раз- мещения, перестановки и сочетания. Будем исходить из конечного множества X = {xi,X2, .... xN}t состоящего из N элементов X/. Пусть 1 ^ п ^ N. Размещением из N элементов множества X по п элементам (коротко, размещением из N по п) назовем любой упорядочен* ный набор fxj, Xj xi S элементов множества X. Два размещения (^ х,/..., х^ и (*v x i%
§ 4. КОНЕЧНОЕ ВЕРОЯТНОСТНОЕ ПРОСТРАНСТВО 21 равны тогда и только тогда, когда все xlk = XjkJ k=\,... ..., п. Число всех различных размещений из N эле- элементов по п обозначается A"n и равно N (N— 1) ... (iV— — /г+1). Последнее произведение мы иногда будем обозначать как обобщенную степень iVK Таким обра- образом, для числа всех размещений из N элементов по п мы имеем формулу An = Nw = N{N-1) ... (N-n+l). G) В дальнейшем будем полагать A°N = Nm= 1 при любом целом N~^\. Формула G) легко доказывается по ин- индукции. Частный случай размещения при N = п назы- вается перестановкой из N элементов. Число всех пере- стаповок из N элементов равно A% = N[N] = N{N-l) ... 2- 1=ЛМ (8) Из G) и (8) следует также формула Сочетанием из N элементов множества X по п назы- называется любое подмножество [х. х,\ мощности п множества X. Общее число всех сочетаний из N по п обозначается С% и равно C^ = ~7f = n\(N-n)\- Из A0) имеем соотношение C"N = C!N~n. В дальнейшем будем полагать 0! = 1, С°ц=Л и С# = 0, если k — целое и k < 0 или k > N. Пример 3. Выборка без возвращения. Пусть имеет- имеется урна с N шарами, которые мы занумеруем числами 1, 2, ..., N. Предположим, что шары с номерами 1, 2, ..., М белого цвета, остальные — черного. Выборка без возвращения состоит в том, что мы наугад выни- вынимаем из урны последовательно п шаров, не возвращая их обратно. В этом случае за пространство элементар- элементарных событий ffi={co} естественно принять множество всех упорядоченных наборов © = («,, <х2, .... <х„) A1)
22 ГЛ. 1. ВЕРОЯТНОСТНОЕ ПРОСТРАНСТВО чисел щ, 1 ^ а; <; N, не равных друг другу. Мощность множества Q равна в этом случае l) ... (N-n+l) = N[a] A2) — числу размещений N элементов по п. Вычислим вероятность события Ат, состоящего в том, что среди выбранных п шаров имеется ровно т белых. Для этого подсчитаем \Ат\: \Am\ = CZM[m](N-Mf-m]. A3) В самом деле, число элементарных событий A1), у ко- которых ровно в т случаях 1 ^ а,- ^ М, определяется как произведение: С™ — числа способов выбора т коорди- координат из общего количества их п, на которые мы поме- помещаем 1 <; а/ ^ М; Mml — числа различных наборов 1 ^ а/ ^ М, попадающих на отмеченные т мест; (Af — М) \n-ni\ — числа различных наборов М + 1 <; а/ <; ^ N, попадающих на остальные места. Из A2) и A3) получаем CjnMtm] (дг _ щ\п-т] Р (Am) — ]^Г] • Пользуясь A0), мы можем вероятность Р(Ат) выра- выразить в следующих эквивалентных видах: = Ц^ = ^^. (И) Пример 4. Выборка с возвращением. Пусть имеется та же урна, но выборка п шаров из нее проис- происходит последовательно по одному шару, и при этом каждый раз фиксируется номер шара, а сам шар воз- возвращается обратно в урну. В этом случае пространство элементарных событий состоит из всевозможных век* торов A1), у которых координаты не имеют никаких дополнительных ограничений, кроме 1 ^ а/ ^ N. В этом случае \Q\ = Nn, а вероятность события Ат, вычисляемая аналогичным способом, равна Г\Ат) — Crt у^г ~~ n\W) \ If) " * '
* 5. ГЕОМЕТРИЧЕСКИЕ ВЕРОЯТНОСТИ ЗЛ § 5. Геометрические вероятности Еще один важный класс моделей вероятностных про- пространств дают так называемые геометрические вероят- вероятности. Пусть Q={o)}—область евклидова я-мерного пространства с конечным «-мерным объемом. Собы- Событиями назовем подмножества Q, для которых можно определить «-мерный объем. За множество событий можно принять так называемую а-алгебру & борелев- ских подмножеств п (подробнее об этом см. гл. 6, §27). За вероятность события Лей/ _„ , у/////<'//////л с////////////* М[. „6) ' '" "" ' [ где |V'| означает «-мерный обь- Рис.4, ем множества V. Понимая под «-мерным объемом соответствующую' меру Лебега, мы получаем вероятностное пространство (Q,$, Р), где вероятность р определена равенством A6). Это ве- роятностное пространство служит моделью задач, в ко- которых частица случайно бросается в область Q. Предпо< лагается, что ее положение равномерно распределено в этой области, т. е. вероятность попасть частице в об- область А пропорциональна «-мерному объему этой об- области. Пример 5. Стержень разламывается на две части в случайной точке, равиемерно распределенной подлине стержня. Найти вероятность того, что меньший обломок имеет длину, не превосходящую одной трети длины стержня. Обозначим длину стержня /, а расстояние точ- точки разлома от одного (фиксированного) конца стерж- стержня— х. Тогда описанное событие произойдет тогда и только тогда, когда либо х ^ 1/3, либо х ^ 2//3. Иско- Искомая вероятность равна отношению (//3 -f- //3): / = 2/3 (см. рис. 4). Пример 6. Задача Бюффона. На плоскость, рас- расчерченную параллельными прямыми, находящимися на расстоянии а друг от друга, случайно брошена игла длины / < а. Найти вероятность пересечения иглы с ка- какой-нибудь из параллельных прямых. Обозначим у рас- расстояние от середины иглы до ближайшей прямой, х — острый угол между иглой и перпендикуляром к парал*
24 ГЛ.1. ВЕРОЯТНОСТНОЕ ПРвСТРАНСТВО дельным прямым (рис. 5). Координаты {х,у), опреде- определяющие положение иглы относительно параллельных прямых, удовлетворяют условиям 0 ^ х ^ л/2, 0 ^ у =$] ^ 1/2. На плоскости (х, у) они образуют прямоуголь- прямоугольник Q. Попадание точки (х, у) в заштрихованную об- область Л (см. рис. 6) приводит к пересечению иглы с л/г х Рис. 5. Рис. 6. одной из параллельных прямых. По формуле A6) иско- искомая вероятность равна я/2 X cos х dx a/2 ■ я/2 2/ ал Задачи 1. События А и В несовместны. Доказать, что В = А тогда и только тогда, когда А + В = Q. _ _ 2. Известно, что A[\B = Q и ЛЛ-В = 0- Доказать, что в этом случае В = А. 3. Доказать, что события А~Б\}А и В\А равносильны. 4. Доказать, что А \ (А \ В) = АВ. 5. Доказать, что: а) АВ = В тогда и только тогда, когда В = Л; б) Л U В = В тогда и только тогда, когда As В. 6. На карточке спортлото из 49 клеток отмечено шесть. Ка- Какова вероятность того, что ровно три из отмеченных клеток выпадут в очередном тираже? (В тираже производится случайная выборка шести элементов без возвращения из множества 49 клеток карточ- карточки спортлото.) 7. Трехзначное число случайно и равновероятно выбирается из всего множества трехзначных чисел. Найти вероятность того, что оно делится: а) на 3; б) на 5. 8. Деталь с вероятностью 0,01 имеет дефект А, с вероятностью 0,02 имеет дефект Вис вероятностью 0,005 имеет оба дефекта. Найти вероятность того, что деталь имеет хотя бы один дефект.
ЗАДАЧИ 25 9. При жеребьевке N человек тянут билеты с номерами 1, 2, .... N. Первые три человека вытянули номера xi, х%, xs. Какова вероятность того, что min (jci, хг) <х3< max (x\, *2)? 10. Из кармана, в котором находится 10 монет достоинством 20 коп. и 10 монет достоинством 3 коп., вынимается пригоршня из 10 случайно взятых монет. Ка- Какова вероятность того, что в кармане осталась сумма денег, не меньшая той, что вынута? 11. Из 104 чисел 0000, 0001, 0002, ..., 9999 случайно и рав- равновероятно выбирается число. Какова вероятность того, что в выбранном числе: а) все циф- цифры разные; б) имеются только 3 разные цифры; в) имеются только 2 разные цифры; г) все цифры одинаковые? 12. На бесконечную шах- шахматную доску со стороной квад- квадрата а бросается наудачу моне- монета радиуса г, 2г < а. Найти вероятность рк того, что монета будет иметь общие точки с k квадратами, k = 1,2,3,4. 13. На паркет, изображенный на рис. 7, случайно падает монета радиуса л, 2г < а. Найти вероятность того, что монета целиком окажется внутри маленького квадрата. 14. На квадрат случайно с равномерным распределением бро- бросается частица. Найти вероятность того, что она удалена от вершин квадрата на расстояние, не меньшее половины длины стороны квад- квадрата. Рис. 7.
Г л а в а 2. УСЛОВНЫЕ ВЕРОЯТНОСТИ. НЕЗАВИСИМОСТЬ § 6. Условные вероятности Пусть при N испытаниях события Л, В и АВ про- произошли с частотами N{A), N(B) и N(AB). Назовем от- отношение N(AB)/N(B) условной относительной часто- частотой события А при условии, что произошло событие В. Если имеет место устойчивость частот и Р(В)>0, то относительная частота N (AB)/N (В) тоже устойчива: N(AB) _ N(AB)/N P(AB)~ m N(B) ~ N(B)/M ** P(B) • I1' Соотношение A) приводит к. следующему естествен- естественному определению. Определение \. Пусть Р(£)>0. Условной ве- вероятностью Р(А\В) события А при условии, что про- произошло событие В (или просто: при условии В), назо- назовем отношение 4 B) Для условной вероятности Р(А\В) применяется также обозначение РВ(М- Если В фиксировано, а Ле^ из некоторого веро- вероятностного пространства (Q, s4-, P), то условная веро- вероятность Рв(^)> рассматриваемая как функция Рв от события Л£^, определяет новое вероятностное про- пространство (Q, st, Рв). Для того чтобы это установить, надо проверить, что Рв удовлетворяет аксиомам 1° — 4°. Это легко делается, так как в силу B):
§ в. условные вероятности 27 если АхА2=0, то (Л,В)П(А2В) = 0 и о /л i Л\ Р(А,в + А,В) Р(Л,Д) , Р(А9В)_ и, наконец, из Ап\ 0 следует ВАп J, 0, поэтому Переписывая <2) 6 форме = Р(В)РВ(А), C) мы получаем равенство, которое называют теоремой умножения. Если исходить из определения B), то со- содержательность теоремы умножения C) представляет- представляется весьма невысокой. Однако в применениях мы часто условную вероятность РВ(И) будем вычислять, исходя не из формулы B), а из каких-либо других соображе- соображений. В этом случае формула C) уже определяет Р(АВ) с помощью Р(£) и Р(В\А), а не наоборот. Пример 1. В урне находится М -белых и Af — Af черных шаров. По схеме выборки без возвращения по- последовательно выбираются два шара. Найдем вероят- вероятность того, что оба шара будут белыми. Эту вероят- вероятность можно найти с помощью теоремы умножения C). Обозначим события А = {первый вынутый шар — бе* лыи}, В = {второй вынутый шар — белый}. Тогда вьн числение вероятностей Р(А) = ~- и Рл (£) = 7rzrj~ сво* дится к более простым задачам о вынимании белого шара из урны, содержащей М белых и N — М черных шаров (соответственно во втором случае М—1 белых иЛ' — М черных шаров). Имеем окончательно Р(АВ) = #г С помощью C) по индукции легко доказывается бо- более общая Теорема 1. (Теорема умножения.) Пусть события "i< •■■, Ап таковы, что Р {Аг ... Л„_,) > 0. Тогда Р (Л,) Рл, Ш РАЛ (Лз) ... Рл; ... лй_1 (Ап). D)
28 гл. 2. условные вероятности, независимость Доказательство. Из условия теорема вытекает, что существуют все условные вероятности в D). Для доказательства D) по индукции обозначим В = Ах ... ... /4,j_i, А = Ап и применим C) и индукционное пред- предположение о справедливости D), когда п заменяется на п—1. Справедливость D) при п =» 2 также следует из C). Формулы типа C) и D) показывают, что на одном и том же пространстве элементарных событий й с о-ал- геброй зФ удобно рассматривать, наряду с вероятностью Р, условные вероятности Рв. § 7. Формула полной вероятности Определение 2. Систему событий Ль Лг, ..., Ап будем называть конечным разбиением (в дальнейшем — просто разбиением), если они попарно несовместны и Ax + At+ ... +An = Q. E) Теорема 2. (Формула полной вероятности.) Если Аи ..., Ап—разбиение и все P(Ak)>0, то для любого события В имеет место формула t(k)(k) F) называемая формулой полной вероятности. Доказательство. Из E) следует разложение В на сумму B = BQ = BAX + BA2+ ... +ВАп попарно несовместных событий, поэтому P(B)=£p(BAk). Применяя к слагаемым P(BAk) теорему умножения, получаем F). Пример 2. Вычислим в урновой схеме примера I вероятность события В= {второй вынутый шар — бе- белый}. Из классического определения вероятности имеем
§ 8. ФОРМУЛЫ ВАИЕСА 29 По формуле полной вероятности Р (В) = Р (А) РА (В) + Р (A) Pj {В) = __ М М-1 . N-M М _ М — JV jv — 1 ~*~ N JV-1 ЛГ ' т. е. Р(Л)= Р(В). Аналогично можно установить, что вынимая последовательно без возвращения шары, мы получаем одну и ту же вероятность вынуть белый шар на любом месте. Таким образом, при правильно орга- организованной жеребьевке шансы всех участников одина- одинаковы, независимо от того, в какой очередности они тя- тянут жребий. Эту же задачу можно интерпретировать как вычисление вероятности вытащить белый шар из урны, из которой был случайно утерян один или не* сколько шаров. § 8. Формулы Байеса Теорема 3. Если выполнены условия теоремы 2 и Р {В) > 0, то имеют место формулы > , G) называемые формулами Байеса. Доказательство. По теореме умножения Р (AkB) = Р (Ak) Р (В | Ak) = Р (В) Р (Ak | В), откуда имеем Р (АЛ Р (В | А.) Применяя к знаменателю Р{В) формулу полной ве- вероятности F), получаем G). Формулы Байеса можно интерпретировать следую- следующим образом. Назовем события Ак гипотезами. Пусть событие В — результат некоторого эксперимента. Ве- Вероятности Р (Л*.) — это априорные вероятности гипотез, вычисляемые до произведения опыта, а условные ве- вероятности Р (/4ft | В) — это апостериорные вероятности гипотез, вычисляемые после того, как стал известен
SO ГЛ. 2. УСЛОВНЫЕ ВЕРОЯТНОСТИ. НЕЗАВИСИМОСТЬ исход эксперимента В. Формулы Байеса позволяют по априорным вероятностям гипотез и по условным ве- вероятностям события В при гипотезах А*, вычислять апостериорные вероятности Р (Ak | В). Пример 3. Пусть имеются две урны, в каждой из которых по N шаров, причем в первой урне Mi белых шаров, а во второй урне М2 белых шаров. Проводимый эксперимент состоит в том, что мы сначала с вероят- вероятностью 1/2 выбираем первую или вторую урну, а затем из выбранной урны случайно вынимаем (с возвраще- возвращением) п шаров. Пусть событие В состоит в том, что все вынутые шары — белые. В этом случае имеем две гипо- гипотезы: А\ — выбор первой урны и Л2— выбор второй урны. По условиям задачи априорные вероятности равны друг другу: Р(Л,) = Р(Л2) = 1/2. Далее, легко вычис- вычисляются условные вероятности р (g | дл — С 1) . Фор- Формулы Байеса дают нам априорные вероятности: k 12 1 ^ „ 1 Если М2 < Mi, то при п -> оо Р (Л[ | В) = . м ■. „ -> 1, 1) таким образом, знание исхода В эксперимента в этом случае дает нам возможность существенным образом изменить наши априорные сведения о гипотезах Ах и Ач, § 9. Независимость событий Понятие независимости относится к одному из ос- основных в теории вероятностей. Если события А и В таковы, что Р(В)>0, то существует условная вероят- вероятность Р{А\В). В случае, когда Р(Л|В) = Р(А), мы говорим, что событие А не зависит от события В. Если и Р(Л)>0, то в этом случае = Р{АВ) — и из независимости Л от В следует независимость В от А, т. е. понятие независимости А и В симметрично. Из
5 9. НЕЗАВИСИМОСТЬ СОБЫТИЯ 81 теоремы умножения вероятностей C) следует, что для независимых событий А и В имеет место равенство Р(АВ)=Р(А)Р(В). Это приводит нас к следующему определению независимости. Определение 3. События А и В называются не- независимыми, если Р(АВ) = Р(А)Р(В). (8) Если равенство (8) не выполняется, то события будем называть зависимыми. Это определение уже не содержит ограничений типа Р(Л)>0. В частности, если Р(Л) = 0, то из AB s A следует, что и Р(ЛВ) = 0, а тогда, в силу (8), Л и В независимы. Из определения (8) следует Р(Л) = Р(Л|В) и Р (В) = Р (В | А), если эти условные вероятности су- существуют (т. е. Р (В) > 0 и Р (А) > 0 соответственно). Обычно независимость А и В, которую иногда назы- называют теоретико-вероятностной, или статистической, не- независимостью (в отличие от причинной независимости реальных явлений), не устанавливается с помощью ра- равенства (8), а постулируется на основе каких-либо внешних соображений. С помощью же равенства (8) мы вычисляем вероятность Р(АВ), зкая вероятности Р(Л) и Р(б) двух независимых событий. При установ- установлении независимости событий А и В часто используют следующий принцип: события А и В, реальные прооб- прообразы которых А и В причинно независимы, независимы в теоретико-вероятностном смысле. Реальный смысл этого принципа можно связать со свойством устойчи- устойчивости частот. Пусть при N наблюдениях N(A), N (В), jV (AB) — частоты событий А, В и АВ. Так как из устой- чивости частот следует N(B) V ' ; Р(Я) то из независимости событий Л и В, т. е. из Р (А | В) = Р (А), вытекает N(AB) _ N(A) N{B) ** N
32 ГЛ. 2. УСЛОВНЫЕ ВЕРОЯТНОСТИ. НЕЗАВИСИМОСТЬ или, что равносильно, _ N(A) N(B) ,. N N~- W Свойство (9) для причинно независимых реальных со- событий А и В установлено многовековой практикой че- человека. Это и позволяет нам сформулировать приве* денный выше принцип. . Надо отметить, что этот принцип ни в коем случае не является теоремой. Так как он сформулирован не в терминах математической модели, то он и не может быть теоремой. И, конечно, из теоретико-вероятностной независимости событий Л и Б не следует причинная независимость их реальных прообразов Л и В. Сле- Следующий пример показывает, что независимость может исчезнуть, если незначительно изменить вероятностную модель. Пример 4. Из колоды в 52 карты (состоящей из 13 карт каждой из четырех мастей) случайно вынимаег- ся карта. Рассмотрим события А = {вынут туз} и В =: = {вынута карта бубновой масти}. Тогда событие АВ =. = {вынут туз бубновой масти}. Поскольку в этом слу- случае Р (А) = 4/52 =1/13, Р(В)= 13/52= 1/4, Р(Л5)=1/52 = Р(Л)Р(В), то события А и В независимы. Если же колода карт «и держит еще и джокер, то Л и Б станут зависимыми, так как Р (А) = 4/53, Р (В) =13/53, Р(ЛВ)=1/53 и Р(АВ)ФР(А)Р(В). Понятие независимости двух событий распростра* няется на случай нескольких событий. Определение 4. События Л;, Аг Л„ назы- называются независимыми, если для любых 1 sg: ii < /2< ••■ ... <.im ^ я, 2 ^ т ^ п, выполняются равенства р (л.-.л,-,... А1т) = р (ло р (л»-2)... р (л<т); (Ю) в противном случае события называются зависимыми. Независимость нескольких событий называется иногда независимостью событий в совокупности.
§ 10. НЕЗАВИСИМОСТЬ АЛГЕБР И а-АЛГЕВР 33 Из определения 4 сразу следует, что события любого подмножества Л/(, Л/2, ..., Ajr независимых событий Ль А2, ••-, Ап также независимы. Нижеследующий пример показывает, что независи- независимость событий Аи Л2 Ап в совокупности — более сильное свойство, чем попарная их независимость. Пример 5. Пусть из чисел 2, 3, 5 и 30 выбирается одно число, причем каждое из чисел может быть вы- выбрано с вероятностью 1/4. Обозначим событие Л* = = {выбранное число делится на k}. Легко видеть, что события Л2, Л3, As попарно независимы, но зависимы в совокупности, так как Р (Л,) = Р (Л3) = Р (Л5) = 1/2, Р (Л2Л3) = Р (А2А5) =» = Р(Л3Л5)=1/4 и Р(Л2ЛзЛ3) = 1/4. Из определения 2 вытекает следующее свойство ус- условных вероятностей. Теорема 4. Если события Л!( Л2, ..., Ап незави- независимы, икдзксы /i, i2, ..., ir, /i, /2, ..., Js все различны, вероятность Р (^AilAt2 ... Air) > 0, то Р (Л/, ... Ajs j Ail ... Лгг) = Р (Л/( ... Л/4). A1) Доказательство. Из независимости событий Л,, ..., Ап следует Р(Л|, ... Atr) = P(All).. AirAh... Al$) = поэтому P(At[ ... Atr(\Ah ... A,s) = P(Ail ... Л»г)Х ХР(Л/( ... Л/J, а отсюда вытекает A1). § 10. Независимость разбиений, алгебр и а-алгебр Определение 5. Пусть у — некоторая система множеств. Наименьшая алгебра множеств st(y), содеп. жащая у, называется алгеброй, порожденной системой у. 2 Б. А. Севастьянов
84 ГЛ. 2 УСЛОВНЫЕ ВЕРОЯТНОСТИ. НЕЗАВИСИМОСТЬ Аналогично определяется а-алгебра, порожденная v, как наименьшая а-алгебра, содержащая у. Если мы за систему множеств а возьмем разбиение Аи Л2, ..., Ап, т. е. такие множества Л,-, что А{-\-\ ,+ Az + ... +Л„ = Q и AiAj = 0 при i Ф /, то нетрудно видеть, что алгебра зФ(а), порожденная разбиением а, является конечной (т. е. в нее входит лишь конечное число множеств) и состоит только из пустого множе- множества и множеств вида *, + *,+ .-. +А1я. Имеет место обратное свойство. Теорема 5. Каждая конечная алгебра множеств, порождается некоторым разбиением. Доказательство. Пусть ^ — конечная алгебра событий. Обозначим Ша совокупность всех Ве^, для которых (оеВ. Для каждого вей введем Ва = f] £• Покажем, что для двух афа/ либо Ва^В^, либо А» П Ва> = 0. Для любых ю е Q и В&& имеет место следующее свойство: если аеВ, то BaS:B. Пусть теперь аеВщ'; тогда В^^В^. Далее, если a'eB_ffl, то Ba'SBa и, следовательно, Ва> = Ва. Случай в'еВ„ невозможен, так как приводит к противоречию Вш' s Ba (а мы уже доказали, что Вш S Вм'). Выберем среди Вш разные множества В1( В2 Вг. Они образуют раз- разбиение, так как Bi + .. • + Br = Q и В^В,- = 0 при 2 =И= /. Поскольку любое В ^38 представимо в виде В= U Ва, то это разбиение порождает алгебру .#, что и требовалось доказать. Пример 6.разбиение Л _+ Я = Q порождает алгебру $ = {0,Q, Л, Л}. Пример 7. Разбиение .4i + Л2 + Л3 = Q порождает алгебру ^ = {0,Q, Л,, А2, А3, Ai +А2, Аг +А3, А2 +А3]. Определение 6. Разбиения ak-Aki + Ak2+ ... -\-Akrk = Q, k=\,...,n, называются независимыми, если для любых ik, I ^ ^ J* ^Гк, k = 1 П, )Р(Л2г2) ... Р(Л„д.
§ It. НЕЗАВИСИМЫЕ ИСПЫТАНИЯ 35 Определение 7. Алгебры (или а-алгебры) собы- событий s&u «s^2 &п называются независимыми, если для любых At e $4-i Теорема 6. Конечные алгебры s&i, s^2 £Фп независимы тогда и только тогда, когда независимы по- порождающие их разбиения ai, a2l •... otn. Доказательство. Так как порождающее s4-i разбиение at есть подсистема sli, т. е. ос<Е.я£г, то из независимости $i-\ зФп следует независимость cti, ..., о.п. Каждое А е si-i есть сумма попарно не- несовместных событий из ос,, поэтому обратное заключи- пне получаем из следующей леммы. Лемма 1. Г. Если события А и В независимы, то события А и В также независимы. 2°. Если Ах и В неза- независимы и А2 и В независимыми AiA2 = 0, то А{-\-А2 и В независимы. Доказательство. 1°. Из независимости Лий следует Р (ВА) = Р (В \ АВ) = Р (В) - Р (АВ) = т. е. В и А также независимы. 2°. Из независимости At и В имеем P{AlB) = P{Ai)P(B), откуда вытекает ) 1 ) т. е. Л, + Л2 и В независимы. Следствие. Каждое событие А порождает раз* биение А + А = Q, которое в свою очередь порождает алгебру $1(А). Из леммы 1 вытекает, что независимость событий Л[ Ап и независимость пороокденных ими алгебр зФ(А{) зФ{Ап) эквивалентны. § 11. Независимые испытания Под испытанием мы будем понимать некоторый экс» пернмент, исходами которого служат те или иные слу- случайные события. В принятой нами аксиоматике испыта- испытание — это некоторое вероятностное пространство. Пусть 2*
36 ГЛ. 2. УСЛОВНЫЕ ВЕРОЯТНОСТИ. НЕЗАВИСИМОСТЬ даны п испытаний, т. е. даны вероятностные простран- пространства (О,,.*,, Р,), .... (Qn, s*n, Р„). A2) Если эти вероятностные пространства есть модели не- некоторых причинно независимых испытаний, то а-алгеб- ры s4-{, s&2, .. •. st-п должны быть независимыми. Но для того чтобы иметь возможность говорить о теоре- теоретико-вероятностной независимости, мы должны рассмат- рассматривать s4-i как а-подалгебры а-алгебры s& одного об- общего вероятностного пространства (Q, s&, P). Такое ве- вероятностное пространство всегда можно построить. Мы проделаем это построение в частном случае, когда ве- вероятностные пространства A2) конечны. Итак, пусть (Qi,sti,Pi)—конечное вероятностное пространство, Q; = {coJ, si^ состоит из всех подмно- подмножеств Qh а вероятность Pi(A)= £ Ptfoi) задается с помощью вероятностей элементарных событий рг (со,-), в(еЙ|. Построим прямое произведение вероятностных пространств A2) (Q, зФ, Р), полагая й = п{ Х^2Х • •• ...Хй„, точки которого (оей есть векторы со = = (©,, со2, ..., со„) с компонентами ш(еQ(, /=1 п, i-t — алгебра всех подмножеств Q, A3) Построенная так вероятность Р называется прямым произведением, вероятностей Pi и ' обозначается Р = = PiX...XPrt- Аналогично в этом случае si- — = s$i X • • • X «я^п есть прямое произведение алгебр. В построенном вероятностном пространстве выделим класс событий А, называемых прямоугольниками, оп- определяемый следующим образом. Пусть Л, е .<$,-, i — = 1 п. Прямоугольник А = АкХА2Х.--ХАп A4) состоит из тех и только тех со = (щ, ©2, .... а>п), Для которых со,-е Ль /=1, ..., «. Из определения вероят- вероятности A3) следует, что вероятность прямоугольника A4)
§ 11. НЕЗАВИСИМЫЕ ИСПЫТАНИЯ 37 равна р(А)= Е рн= Е M®i) A5) Обозначим s&'k подалгебру алгебры st, состоящую из всех тех прямоугольников A4), у которых Ai = Qi для i ф k. Нетрудно видеть, что между событиями А[ = Q. X • • • X Q«-i X At X Q/+i X ... X Q« e *\ и Ai^s4'l устанавливается естественный изоморфизм A\ ~ At, поэтому вместо событий At из вероятностного пространства (Q^, s4-t, Pt) можно рассматривать изо- изоморфные события А[ из подалгебры s6\ вероятностного пространства (Q, зФ, Р), Из определения вероятности A5) следует Р(Л^) = Рг(Лг). Так как Л^Л1Х---Х^„^ = П А'к, то из A5) получаем для любых A'k<^.s4>'k й=1 т. е. алгебры s&\, ..., J^^ независимы. Схема Бернулли. Частный случай независимых испы- испытаний, с двумя исходами в каждом из испытаний, стро- строится следующим образом. Пусть вероятностные прост- пространства в A2) таковы, что Q* = {0, 1}, «я£< = {0, {0}, {Г}, *Л-}» р@) = р, p(l) = q, p + q=l. Тогда в прямом про- произведении (Q, S&, Р) имеем Q = {co}, ш = (со,, с^ со„), 4 = 0, 1, рИ=ПЛ'Л A6) (=1 Построенная схема независимых испытаний называется схемой Бернулли. Обычно она трактуется следующим образом. Пусть некоторый исход А, который мы будем называть успехом, может произойти при каждом испы- испытании с одной и той же вероятностью р; противополож- противоположный исход А {неуспех) может произойти при каждом
38 ГЛ. 2. УСЛОВНЫЕ ВЕРОЯТНОСТИ. НЕЗАВИСИМОСТЬ испытании с дополнительной вероятностью q = 1 — р. В элементарном событии со = (coi, ..., @п) имеем со* = 1, если при i-м испытании произошел успех, и сог = О в противоположном случае. Обозначим В* ={со: coi-f- ••• ... -f- (ort = Щ событие, состоящее в том, что при п не- независимых испытаниях в схеме Бернулли произошло ровно k успехов. Поскольку из A6) следует, что при иеВ* p(<j)) = pkqn-k, то Р(Bk) — pkqn~kX (число эле- элементарных событий оеЩ, Итак имеем, ^C&V"*. * = 0,1 п. A7) Вероятности A7) называются биномиальным, распреде- распределением. Примерами, в которых появляется биномиаль- биномиальное распределение, служат: выборка с возвращением (§ 4, формула A5)), выпадение шестерки т раз при п бросаниях игральной кости (вероятность этого события Сп (-g-J (-g-J J. рождение т мальчиков при реги- регистрации п рождений (если вероятность рождения маль- мальчика р = 0,51, то вероятность рождения т мальчиков при регистрации «рождений равна С" @, 51)m«@, 49)rt~m; обширный статистический материал, собранный в раз- разное время и в разных странах, свидетельствует о том, что вероятность р~>\/2 и примерно равна 0,51—0,52), Полиномиальная схема. Более сложная схема п не- независимых испытаний получается, когда при каждом испытании возможно появление одного из г попарно не- несовместных исходов. Пусть 1-е испытание связано с вероятностным пространством (Qu зФи Pi), где Q; = = {1, 2, ..., г} состоит из номеров 1, 2, ..., г исходов. Пусть ри ..., рг — вероятности этих исходов, рх + ... ... -{-рг — I, a s£i состоит из всех подмножеств Q;. В прямом произведении вероятностных пространств (й, s&, Р) элементарное событие меЙ равно со = = (о)[ (оге), где о, — номер исхода при i-м испыта- испытании. Полагая р (со) = ра ра ... ра , вычислим вероятность события ' 2 " •йя,... яг=={в п независимых испытаниях произошло ровно по tik k-x исходов}
ЗАДАЧИ 39 Так как для любого а количество точек в В,1{...Пг равно полиномиальному коэффициенту Д[[ " , , то Распределение A8) называется полиномиальным; опи- описанная схема независимых испытаний с г исходами также называется полиномиальной. При г = 2 эта схе- схема превращается в биномиальную схему Бернулли. Задачи 1. Из множества чисел 000, 001, ..., 999 равновероятно выби- выбирается одно число. Какова вероятность того, что это число не со- содержит цифру 1, если все его цифры различны? 2. Из урны, содержащей М белых и Л' — М черных шаров, случайно последовательно по схеме выборки без возвращения извле- извлекаются три шара. С помощью теоремы умноже- умножения найти вероятность того, что появится после- последовательность шаров: белый, черный, белый. 3. Показать, что любая конечная алгебра со- событий состоит из 2* событии, где k — натураль- натуральное число, 4. Плоскость расчерчена параллельными пря- прямыми, расстояния между соседними прямыми, че- чередуясь, равны 'а и Ь. На эту. плоскость случайно бросается нгла длины / < min{a, b). Пользуясь решением задачи Бюффона и формулой полной вероятности, найти вероятность того, что игла пересечет одну из этих прямых. 5. На бесконечную шахматную доску с длиной стороны квад- квадрата а случайно бросается монета радиуса г < а/2. Найти вероят- вероятность того, что монета пересечет сторону какого-либо квадрата. 6. В последовательности п независимых испытаний с вероят- вероятностью р успеха в каждом из испытаний произошел ровно один успех. Какова вероятность того, что успех произошел при втором испытании? 7. В схеме испытаний задачи 6 произошло ровно два успеха. Найти вероятность того, что успехи произошли в соседних испы- испытаниях. 8. На паркет, составленный из прямоугольников со сторонами а и b, а < Ь, случайно бросается монета радиуса г, 2r < min{a, b). Наптн вероятность того, что монета заденет меньшую сторону Рис. 8.
40 ГЛ. 2. УСЛОВНЫЕ ВЕРОЯТНОСТИ. НЕЗАВИСИМОСТЬ какого-нибудь прямоугольника, если известно, что она какую-то сто- сторону задела. 9. Для перехода улицы пешеходу нужно три секунды. Каждую секунду с вероятностью р по улице проезжает автомобиль и с ве- вероятностью «7=1—р улица свободна. Будем считать время дис- дискретным (по секундам), а наличие или отсутствие автомобиля на улице в разные моменты времени независимыми испытаниями. Пе- Пешеход начинает переходить улицу лишь в том случае, если в тече- течение трех секунд она будет свободна от автомобилей на переходе. Найти вероятность того, что пешеходу придется ждать перехода а) больше двух секунд; б) больше трех секунд. 10. Бросаются две игральные кости. Какова вероятность того, что на первой кости выпала 1, если известно, что на второй кости выпало число очков больше, чем на первой? (Применить формулу Байеса.) 11. В единичный квадрат со вписанным в него кругом независи- независимо с равномерным распределением случайно бросается 6 частиц. Найти вероятность того, что нн одна из пяти частей квадрата не будет свободна от частиц (см. рис. 8).
Глава 3. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ (КОНЕЧНАЯ СХЕМА) § 12. Случайные величины. Индикаторы Рассмотрим конечное вероятностное пространство (Q, si-, P). Числовую функцию от элементарного собы- события £ = |((о), о е Q, назовем случайной величиной. Мы будем обычно обозначать случайные величины грече- греческими буквами £, т|, £, ц, v, ... и т. п. (в англо-амери- англо-американской литературе и иногда у нас случайные величины обозначаются прописными латинскими буквами X, Y, 2 и т.п.). Пример 1. В схеме независимых испытаний Бер- нулли в § 11 множество Q состоит из элементарных событий со =(@i,(u2 W/,), где (о<=1, если при /-м испытании произошел успех, и ю, = 0 в случае неуспеха. Случайная величина \i^= ц(а>) = o>i + 0J+ ••• +а>„ равна числу успехов при п испытаниях в схеме Бер- нулли. Пример 2. Рассмотрим следующую урповую схему. Пусть в урне имеется N шаров, из них М белых, осталь- остальные— черные. По схеме выборки без возвращения из урны извлекаются п шаров (см. § 4, пример 3). Пере- Перенумеруем все N шаров числами 1, 2 N так, чтобы белые шары получили номера 1, 2, ..., М. Тогда мно- множество Q можно составить из элементарных событий, состоящих из подмножеств со =={/ь *2» •••. '«}. h <. < 12 < • • • < in, мощности п множества целых чисел {1,2, ..., N}. Элементарное событие © = {ii,t2. •••. in) соответствует выборке, в которую вошли шары с номе- номерами iu i2, ..., /„. Случайная величина I, равная числу белых шаров в выборке, определяется как функция от (о следующим образом: £ = |((о)=ш, если в ©={ti, ... •••. Ц, im <: М < im+\ при l^m<n; |((o) = O, если М < /t; |(а) = п, если in ^ М.
42 ГЛ. 3. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ (КОНЕЧНАЯ СХЕМА) Пусть g{x\, ..., Хг) — числовая функция от число- числовых аргументов х\, ..., xr, a gi, ..., gr — случайные ве- величины. Тогда сложная функция ц = tj((o)= g(gi(a»), Ыщ). ..., £»■(<»)) также будет случайной величиной. В частности, так определяются случайные величины, г г равные сумме X 5* и произведению Yllk случайных величин. С каждым событием Де^ можно связать случай- случайную величину ( 1, если иеЛ, 0> если ю^л> называемую индикатором события А. Индикаторы удов- удовлетворяют следующим легко проверяемым свойствам: /0 = О, /а—1, 1ав = 1а1в, /3=1-7,1. A) Если события Ль ..., Л„ попарно несовместны, то нетрудно устанавить, что in = £ /v 2 .4ft *-l ft-1 й п Выведем формулу для индикатора объединения (J ЛА любых событий. Так как I) Ak= \\ Ak, то учитывая свойства A), мы имеем U /Jfc U ПЧ П откуда следует п
§ 12 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ. ИНДИКАТОРЫ 43 Обозначим Хх < Х2 < ... < Xk всевозможные зна- значения, которые принимает случайная величина %. С каж- каждой случайной величиной % можно связать разбиение а\, состоящее из событий Л,-= {ю: g (со) = лг;}. В самом деле, так как Xi ф xh то AiA\ = 0 для i Ф /; сумма А\ + А2+ ... -\-Ак есть достоверное событие Q, так как х\, Х2, ..., Xk — все значения случайной величины£. Разбиение а% порождает алгебру событий s4-\, которая состоит из событий, представимых в виде &<=£} = {©: |(л)еВ}, где В — любое числовое множество. Разбиение сц и ал- алгебру s4-% мы будем называть порожденными случайной величиной %. Любое событие {I e В} представимоввиде 2 суммы гДе суммирование ведется по тем i, для которых Xi e В. Случайную величину £ можно выразить с помощью индикаторов разбиения А\ + ... +/Цг=О через сумму C) так как левая и правая части C) принимают одно и то же значение хч при ю е Ai. Законом распределения случайной величины £ мы будем называть вероятность P{|efi}, рассматривае- рассматриваемую как функцию числового множества В. Закон рас- распределения I определяется значениями х\, Х2, ... ,xk, ко- которые принимает %, и вероятностями Р{| = ^} этих значений. Обозначим Р {£ = xi) = pi. Тогда закон рас- распределения Р{^ёВ} можно определить с помощью табл. 2, верхний ряд которой состоит из различных Таблица 2 Закон распределения случайной величины pi хг Рг Хз Рз ... ... Xk pk
44 ГЛ. 3. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ (КОНЕЧНАЯ СХЕМА) чисел xi, а числа нижнего ряда удовлетворяют условиям ft >О, Е/>/=!• D) Е С помощью табл. 2 можно определить вероятность E) для любого числового миожества В. В теории вероятностей часто говорят о случайной величине I с законом распределения E), ие указывая ни вероятностного пространства (Q, si, Р), ни функции 1(и>), которая задает случайную величину. В этом слу- случае предполагается, что существует какое-то вероят- вероятностное пространство (Q, s4-, P), иа котором можно оп- определить функцию £ = £(©) так, что табл. 2 будет за- задавать ее закон распределения. Выбор вероятностного пространства каждый раз определяется существом за- задачи или простотой получающейся схемы. Простейшим вероятностным пространством, связанным с законом распределения E), будет множество элементарных со- событий п={хъх2, .... Xk) с элементарными вероят- вероятностями p(xi) = pi. Случайная величина £ определяется тогда функцией g (•*«-) =*.-. Закон распределения индикатора 1Д события А оп- определяется табл. 3. Каждой случайной величине соот- соответствует закон распределения. Один и тот же закон Таблица 3 Закон распределения индикатора 1А 0 1 - Р (Л) 1 Р(Л) распределения могут иметь разные случайные вели- величины, Например, если события А и В разные, но Р(Л)=Р(В), то разные случайные величины /д и h имеют один и тот же закон распределения. Закон распределения % иногда называют кратко просто законом или распределением. Законом распреде-
§ 13 МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ 45 ления случайной величины иногда называют задающую его таблицу 2. Примеры законов распределения. 1. Биномиальный закон для числа успехов ц при п независимых испытаниях в схеме Бериулли: Р{11 = пг} = СТртA-р)п~т, т = 0,\ п (см. §§ 11 и 12, пример 1). 2. Гипергеомвррическое распределение — распреде» ление числа белы-х шаров I в выборке без возвращения объема п из урны, содержащей М белых и Af — М чер- черных шаров (см. § 4, пример 3 и § 12, пример 2): Р{Ъ = т} = Щ^-, m = (U тт(п,М). 3. Равномерное распределение на {1,2, ,.., N}: P{Z = m} = ±, m=l,2 N. § 13. Математическое ожидание Пусть вероятность Р на конечном вероятностном пространстве (Q, si-, P) определяется с помощью эле- ментариых вероятностей р (©). Математическое ожидание случайной величины £ = |(ю) обозначается М£ и опре- определяется как сумма . F) Математическое ожидание I называют иногда средний значением I или просто средним £,. Из этого определе- определения вытекают следующие свойства математического ожидания: 1) ША = Р(А). В самом деле, Ел, И рН=ЕрН=р {А). G) 2) Аддитивность: М (I + ц) = Щ + Мт].
46 ГЛ. 8. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ (КОНЕЧНАЯ СХЕМА) Из определения М (i + п) получаем aefl aefl Из свойства 2) нетрудно по индукции вывести свой- свойство конечной аддитивности математического ожидания: М (I, + ...+!„)== М|, + ...+ М|„. (8) 3) Для любой константы с Это свойство легко вытекает из определения М|. 4) Если 1^г), то Щ^ ЪАг). Если £ ^ 0 и М£ — 0, то Р {| = 0} = 1. Доказательство. В сумме М (| — ц) = £ (i (ю) — 0) — г\((о))р(а>) при i^ri все слагаемые неотрицательны, поэтому М(| —T))^0, откуда по свойствам 2) и 3) вы- вытекает Mi>Mr]. Если i>0 и М|==0, то при любом со е Q i (со) р (©) = 0, откуда из р (со) > 0 следует i (со) = 0. 5) Математическое ожидание g выражается через закон распределения случайной величины | формулой k М6= У\ XiP {i ==#•}. (9) Доказать (9) можно с помощью представления I в виде суммы C) свойства аддитивности (8) и свойств 1) и 3): t Пусть g(x)]~ некоторая числовая функция. Подстав- Подставляя вместо х случайную величину \, мы получаем но~ вую случайную величину т) —£(£)• Вычислить Мт) мож- можно или исходя из определения, или с помощью закона
S И. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ 47 распределения г\ или с помощью формулы Mri = Mg(l)=Zg(Xi)P{l= xt), A0) которая доказывается так же, как и (9). При этом надо воспользоваться равенством к * (9 = £«(*,) Л«-*л- Полагая g(Q= ln, мы получаем из A0): Математическое ожидание М£" называется п-м момен- том (или моментом п-го порядка) случайной вели- величины I (или ее закона распределения). Абсолютным п-м моментом называется М|£|". Обозначим М1 = а. Центральным моментом п-го порядка называется М(%—а)п, а абсолютным центральным моментом п-го порядка — М\1-а\\ Центральный момент второго порядка называется дисперсией случайной величины и обозначается D£ = =М(£ — af. Корень квадратный <\/О£из дисперсии иа- зывается средним квадратическим отклонением (или иногда стандартным отклонением). Дисперсия обладает следующими свойствами: 1) Dg=Mg2-(MgJ. Доказательство. Имеем Dg=M(g — MgJ= = М (£2-2М (Е • Ml) + (MlJ) = Mg2-2 • Ml • Mg + (MlJ =- M2(M2 2) Dg^O ы Dg^O тогда и только тогда, когда су- существует такая константа с, что Р {I = с} = 1. Следует из свойства 4) математического ожидания, так как D| = М (I - М£J и (I - MgJ > 0. 3) Для любой константы с D(c£) = c2Di, D(l + c)--=Dl. Следует из определения и свойства 3) математиче* ского ожидания. Многие известные в анализе неравенства для сумм и интегралов широко применяются в теории верояг-
48 ГЛ. 3. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ (КОНЕЧНАЯ СХЕМА) ностей, причем в этих неравенствах используется поня- понятие математического ожидания. Приведем здесь некото- некоторые из этих неравенств. Неравенство Иенсена. Если числовая функ- функция g(x) выпукла, то для любой случайной величины \ Mg(l)>g(Ml). A1) Доказательство. Если g(x) имеет производные g', g", то из выпуклости g следует, что в любой точке х g"(x) ^ 0. Поэтому при любом а -a). A2) Полагая в A2)а = М|и беря математическое ожидание от обеих частей, получаем A1). В общем случае вместо A2) надо воспользоваться тем, что для любой выпук- выпуклой функции g(x) и любой точки а найдется такая кон- константа С, что для всех х g{x)>g{a) + C(x-a). A3) Функция g(x), определенная на интервале (с, d), где —оо ^ с < d ^ оо, называется выпуклой (или выпуклой вниз), если для любых х\, Хг е (с, d) и любого 0 ^: 6 ^ 1 выполняется неравенство g Fх, + A - в) х2) < 6g (xi) + A - 6) g (xt). A4) Пусть g — выпуклая функция и а^(с, d). Возьмем любые Х\, хг, удовлетворяющие неравенствам с < xt < а < Хг < d. Покажем, что для них g (*■) -g(a) ^g (хг) ~ 8 ia) ,,r, Xi—a ^ x2 — a ' ( ' Нетрудно проверить, что неравенство A5) равносильно A4), если положить в нем 8 = — , 1—6 = Хг — Х\ существование такой константы С, что р ( положить в нем 8 = — , 1—6 = —. Из A5) вытекает Хг — Х\ xi~ X\ ..... g(xi) — g(a) ^r<- Jnf g (хг) - g (a) sup — ^ с ^ шт t xv<a X\ — a хг>а Хг — а а это равносильно утверждению A3). Неравенство Ляпунова. Для любых положи- тельных а _< Р (гГЧСРL3. A6)
S 13. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ 40 Для доказательства надо применить к выпуклой функции g(x) = x$/a и случайной величине \Ца нера< венство Иен сена A1), Неравенство Коши — Буняковского. Для любых двух случайных величин £, ц -Мт12. A7) Доказательство. Для любых чисел х, у по свой- свойству 4) математического ожидания М(*£ + УЧJ =Э=0- Отсюда следует, что квадратичная формула *2М£2 + + 2хуМ$ц + у2Мц2 неотрицательно определена, а сле- следовательно, ее дискриминант неположителен: (М^пJ ~~ 2М2 Статистическое истолкование математического ожи- ожидания. Пусть в некоторой лотерее имеется один выиг- выигрыш, размер которого случаен и равен или х\, или Л'п, .... или Xk. Если лотерея проводится N раз, причем Ni раз выпадает выигрыш Л',-, jV ^ jVi -f- iV2 -f- • •. + N*. то N;/N есть относительная частота выигрыша Хи а к х = -ТТ- V xtNi — средний выигрыш на одну лотерею. Если I — случайная величина, равная размеру выигрыша в одной лотерее, то из статистической устойчивости частот следует — « Р {l = Xi}, поэтому средний выиг- рыш х колеблется около М£: Механическая интерпретация М§ и D|. Интерпрети-« руем наглядно закон распределения как расположение на прямой в точках хх < х2 <...< xk точечных масс к к Р\> Ръ • • •, Ph Z Pi = 1- в этом случае М^ = Ц Хф{ есть к Центр тяжести, D£ = £ Pi (*< — М£J — момент инерции масс pi относительно центра тяжести. Таким образом, Щ характеризует место, вокруг которого группируются
50 ГЛ. 3. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ (КОНЕЧНАЯ СХЕМА) массы pi, a D£ — степень разбросанности масс pt окола Щ. Вероятность суммы событий. Вычислим от обеих час* тей равенства B) математическое ожидание и восполь- воспользуемся его аддитивностью. Получаем U £ (О £ ft-l / ft-1 l<ft, </! Е Р(Ак1АкЛ,)-... <ft2<ftj<n A8) С помощью A8) можно вычислять PI U аА- \ft-i / Пример 3. Размещение частиц по ячейкам. Пусть' имеется N ячеек, в которые независимо друг от друга размещаются п частиц. Каждая частица с вероятностью! 1/N может попасть в любую фиксированную ячейку. Обозначим через (Ло число пустых ячеек после такого размещения. Вычислим вероятность Р{цо = О}. Введем случайные события А>, полагая, что At произошло тогда и только тогда, когда t'-я ячейка пустая. Тогда {ц0 > 0}=» = U А{, и мы можем применить A8). Поскольку и, вообще, то из A8) следует или ft-О § 14. Многомерные законы распределения Пусть на конечном вероятностном пространстве (Q, s4-, P) заданы случайные величины £ = £((o),ti = = ti((u). Пусть х\, ..., Xk — все возможные значения |,
§ 14. МНОГОМЕРНЫЕ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ 51 уи •■•> Ут — все возможные значения tj. Как мы уже знаем, с помощью вероятностей Р {| = х{) и Р{л = #Л определяются законы распределения случайных вели- величин 1 и х\: S i V/SB A9) где В — любое числовое множество. Совместным рас- распределением случайных величин |, rj, или законом ик совместного распределения, мы будем называть вероят- вероятность Р{A, tj)sB}, определенную для всех множеств Таблица 4 Двумерный закон распределения X, Х2 Хк Ух Ра Рг\ 9 • Рк\ Pit Ргг 9 Ркг . . . * • • • • # Ут Pirn Ргт Pkm В точек плоскости [х, у) и обозначаемую Р5чE). Со- Совместное распределение можно задать с помощью на- набора вероятностей Р{| = *г. Л==«//}. « = 1 k; /=1 т, полагая Р {(%, ч\) е В} = 2 Р{| = *(, 4==^;}. Если обозначить р{/ — РA = х{, f\ — yj}, то совместное рас- распределение |, т] можно задать с помощью табл. 4, в ко- k m 2 торой все и Рг/ = 1. Любая таблица такого «1/1 вида задает некоторый закон совместного распределе- распределения пары случайных величин, который мы иногда будем
62 ГЛ. 3. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ (КОНЕЧНАЯ СХЕМА) называть двумерным законом распределения, или дву- двумерным распределением. Иногда двумерным законом распределения мы будем называть просто табл. 4. За- Законы распределения A9) отдельных случайных вели- величин {■ и т] будем называть одномерными. Пара случайных величин %, х\ порождает разбиение ,, состоящее из событий t//}, /=1, ...,£;/=1, ...,т. Это разбиение, а также порожденную им алгебру %ц будем называть порожденными парой \, х\. Любое собы- событие Ле^ представимо в виде А = {со: (|(ю),т](а>))е е=В}, где В — некоторое множество точек плоскости. И, наоборот, любое событие этого вида принадлежит stin- Нетрудно видеть, что алгебры $t-\ и ,$#„, порож- порожденные случайными величинами \ и х\ соответственно, есть подалгебры зФ%^ причем алгебра s&tn порождена объединением алгебр зФ% и st-^. Если {Ац} составляют разбиение а\ц и т k Ai.= E Aih A.,= £ Ац, то {Ai) образуют разбиение а$, a {A./} — разбиение ап. Из двумерного закона распределения можно полу- получить одномерные законы распределения для £ И ДЛЯ Т] Е которые иногда называют маргинальными законами первоначального двумерного распределения. Аналогично для п случайных величин %\, It, ..., £„ определяется «-мерный закон распределения Pjt... in (B)= = Р{ffiii • • •. In)е в)> где В— множество точек я-мер- ного пространства Rn. Этот закон можно задать веро- вероятностями B0)
§ 15. НЕЗАВИСИМОСТЬ СЛУЧАЙНЫХ ВЕЛИЧИН 53 где Р/,/2-/л>0' , £ . Р/,/2.../„=1 и хп<х12<... * р I 21 * * *! У/г ... < #,■*, — значения, которые принимает случайная величина %t. Совокупность случайных величин li,|2, •••.!«. порождает разбиение а|,|2... |„» состоящее из событий вида Ajji...in — {<s>'- 1<(°>) —*«•/,'*= *• ••■>"}• и алгебру j^s,...i t состоящую из событий вида {(|1; ..., ysB}, где В — подмножество «-мерного пространства R". Так же, как в двумерном случае, по «-мерному за- закону B0) определяются маргинальные одномерные, дву- двумерные и т. п. законы распределения, например, j щ3...1п- Так же, как и в случае одной случайной величины, мы часто будем считать, что случайные величины |ь |г, • • ..., In заданы, если задан их «-мерный закон распреде- распределения B0). В этом случае всегда можно построить та- такое конечное вероятностное пространство (Q, $Ф, Р), на котором можно определить случайные величины \\,\г, ... ..., In так, чтобы их «-мерное распределение совпа- совпадало с B0). Например, мы можем положить Q = {со}, где (, „) и P(fi)) = P/I/2.../;i- Иногда п случайных величин |i, |2, •. •, In мы будем трактовать как компоненты случайного вектора | = = (|ь|2, ••-, In). Распределением случайного вектора | будет «-мерное распределение Р{|е В) = X Р {! = *}» где В — множество точек «-мерного пространства, х — = (хь ..., х„) — возможные векторные значения слу- случайного вектора |. § 15. Независимость случайных величин В общем случае одномерные законы распределения не определяют многомерного закона. Однако в важном случае независимых случайных величин по одномерным
54 ГЛ. 3. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ (КОНЕЧНАЯ СХЕМА) законам распределения однозначно восстанавливаются многомерные распределения. Определение 1. Случайные величины gi, I2, ... ..., In называются независимыми, если порожденные ими алгебры •*е,. •**, •*«„ независимы. Поскольку каждая из алгебр $£\{ состоит из собы- событий вида {g, e В}, где B^R\ то данное выше опре- определение эквивалентно следующему: случайные величины |ь .... |„ независимы, если для любых числовых мно- множеств Bt PfesB,, ...,|пеВ„} = ПР{1;^ВЛ. B1) Из теоремы 6 в § 10 следует, что независимость алгебр «s^|t, .... s$in равносильна независимости порождающих их разбиений а^, ..., а|я. Это приводит еще к одному эквивалентному определению независимости: случайные величины |], ..., |„ независимы, если для любых xxll, ,., Р {I. = хщ, ...,!„ = хп1п) = П Р {h = xt,t). Теорема 1. Если случайные величины |,, |2. •••,!« независимы, a gi{x) — числовые функции, то случайные величины T]i = gi(|i), т]2 = gi(b)> ■••> Лп = gn{ln) так- также независимы. Доказательство. Так как имеет место включе- включение s4-Sl (g;) s «5^|;, то утверждение сразу следует из оп- определения 1. Определение независимости B1) можно распростра- распространить на случайные векторы tt = (lu> ■ ■ •> hr{)< компо- компоненты которых являются случайными величинами. Для этого надо потребовать, чтобы равенство B1) выполня- выполнялось для любых множеств Bt s /?r' из г,-мерного евкли- евклидова пространства. Для таких независимых случайных векторов тоже будет справедлива теорема, аналогичная теореме 1, если gi(x) — функции, отображающие R'1 и R*l> r\i — Sj-MepHbie случайные векторы.
§ 15. НЕЗАВИСИМОСТЬ СЛУЧАЙНЫХ ВЕЛИЧИИ 55 Мультипликативное свойство математических ожи- ожиданий. Теорема 2. Если случайные величины ||, |з. ... .,., |„ независимы, то B2) Доказательство. Докажем B2) сначала двух случайных величин. Пусть |, г) независимы, и ft 1=1 I где xi < дг2 < ... < xk, yx < y2 < ... < ym- Отсюда получаем, в силу аддитивности математического ожи- ожидания: m Ы= Е S xiy,lA.Br Щц= Е . Е .S Из независимости |, т] следует Р (Л,Ву) = Р(Л,)Р(Sf), поэтому MEr, = Е л,Р (A,) S УУР (В/) = М| • Щ. Общий случай можно доказать по индукции, если по- положить | = || ... !„_ь 11 = \п и воспользоваться неза- независимостью g и ц. Из мультипликативного свойства B2) следует адди- аддитивное свойство дисперсии. Теорема 3. Если случайные величины %и |2. ••• i.., |„ независимы, то D<|,+ ... +IJ = D|1+ ... +D|n. B3) Доказательство. Докажем B3) для двух неза- независимых случайных величин 1 и ц. Общий случай по- получается по индукции. Имеем D(g + т]) = М[A + ц) — - М {§ + чI2= М [(I - ME) + (л - Мг])]2 = М D - М|J + 4- М (ii — МлJ + 2М (I — ME) (Ч — Мл)- Так как Е> Л не- независимы, то Е —М| и Л—Мп также независимы. Поэтому М (| - М|) 01 - Мл) = М (Е - Ml) • М (л - Мл)- Отсюда следует утверждение, так как М(| — М|)=» MM|O
56 ГЛ. 3. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ (КОНЕЧНАЯ СХЕМА? § 16. Евклидово пространство случайных величин Геометрическая интерпретация. Пусть пространство элементарных событий Q={co} состоит из п элементов ©1, «г, .... <оя. Тогда каждой случайной величине | = = |(со) можно поставить в соответствие n-мерный век- вектор | = (i(fi>i) £(©«))• Если ввести скалярное произведение (i. л)=Е1 норму |||||= V(i. £) и расстояние Рис. 9. Проекция % иа прямую констант /,. rf (|> ц) = ум (| _ цJ = || g _ л ||, то множество всех случайных величин, определенных на вероятностном пространстве (Q, st-, Р), можно рассмат- рассматривать как n-мерное евклидово пространство. Определим в этом пространстве прямую констант 'о={|: i(©i)=i(fiJ)= ... =Ъ(а>п)}. Спроектируем | на прямую /0, т. е. найдем такую константу т\ е /0, что d(h mj) = mind(|, с). Так как при любой константе се/0 М (| - cf = М (| - М|J + (М| - сJ > Di, то mj=Mi и d(i, mi) = -y/Dl. Таким образом, про-- екция i на прямую констант /0 — это математическое ожидание Щ, и £— Mi ортогонально /0 (ортогональность мы будем обозначать знаком ±, так что в нашем слу- случае i—М| J_ /о)» поскольку (i — Mi, 1)= 0. Расстояние | от /о равно среднему квадратнческому отклонению V'Df (см. рис. 9). Рассмотрим две случайные величины £ и т). Пола- Полагая |=Mi + ii, т)=Мт) + Л1. найдем косинус угла <pSl4l между li и тц.'
§ 16. ЕВКЛИДОВО ПРОСТРАНСТВО СЛУЧАЙНЫХ ВЕЛИЧИН 57 Этот косинус носит название коэффициента корреляции между | и т] и обозначается р(Е, т]). Числитель справа в B4) носит название ковариации между g и tj и обо» значается Cov(E, ч) = М(Б- B5) Из B4) и B5) имеем Из неравенства Коши—Буняковского (МЕ^J^ ME? • Mr|f следует, что всегда |р(Е, т]I^1- Если случайные вели- величины Е и т] независимы, то Cov Ц, tj) = 0 (так как Cov(E, т])=М(Е-МЕ)(л- -Мт])=М(Е-МЕ)-М(т]- —Мт])—0), следовательно, Рис. 10. Проекция т] на плоскость (I, /о). = 0, то Ei -L Л1 и случай- о ные величины \ и Ц на- называются некоррелирован- некоррелированными. Из определения коэффициента корреляции ща2 Ф О вытекает, что при Спроектируем вектор т] на плоскость, в которой лежат /о и \. Проекция т] = al + Р определяется константами о; и р* (см. рис. 10), при которых т) — а% — Р 1 1 и Л — о! — р 1 |, т. е. Это приводит к системе линейных уравнений относи* тельно аир: а • М| + Р = Мп. а • М|2 + Р • М& = M|tj.
58 ГЛ. 3. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ <1<ОНЕЧНАЯ СХЕМА» Решая эту систему, получаем of . где ст| = Dg, ct2 = Dtj, р = р(|, ц). Таким образом, для проекции f| получаем выражение л = Мц + р 5 (| - Ml), B6) называемое уравнением регрессии г\ на |. Формула B6) дает линейное относительно £ выражение т), для кото- которого М (г) — f|J = min. Вычислим это расстояние: -^- Mil - MlJ Полученное выражение ^A — р2) носит название оста- остаточной дисперсии. Если р2=1, то М(ц — f|J = 0 и Л = Л с вероятностью 1, т. е. с вероятностью 1 в этом случае | и tj линейно связаны: ti-Mti _ £ -MS on ~9 ог5 • Таким образом, коэффициент корреляции р = р(|,ц) является мерой зависимости между | и i]. Если | и ц независимы, то р = 0; если же р2 = 1, то | и ц зави- зависимы друг от Друга линейно, причем при р = 1 ц моно- монотонно возрастает вместе с £, а при р = — 1 — убывает. Если случайные величины |ь ..., <•„ зависимы, то при вычислении дисперсии их суммы можно пользо- пользоваться следующей теоремой.
S »7. УСЛОВНЫЕ МАТЕМАТИЧЕСКИЕ ОЖИДАНИЯ Теорема 4. Имеет место формула 69 Доказательство. Докажем теорему для сум- суммы 1 + т). Общий случай доказывается аналогично. Имеем D (| + Л) = М ((| - М|) + (л - Мл)J = = м (| - MiJ+м (л - МпJ + 2м F - Mi) (л - мл)= л). § 17. Условные математические ожидания Вернемся к понятию условной вероятности. Пусть дано разбиение а: Л,+ ... +An = Q, B7) причем P(Ak)>0 для всех k. Относительно каждого события Ak из разбиения и любого события Бе^ можно образовать условную вероятность P(B\Ak) = ~~WlA) ' Пусть ^(а) — алгебра событий, порожден- порожденная разбиением B7). Определим условную вероятность Р(В\£ф(а)) относительно st(a) как случайную величину, Таблица 5 Закон распределения условной вероятности Значения Р E1 & (а)) Вероятности Р(ВМ,) PHi) РE1Л,) . . . . . . Р(ВМя) Р(Ап) которая принимает значение Р(В \Ak) при we ЛА распределения этой случайной величины P( определяется таблицей 5. Правую часть формулы полной вероятности Закон £
60 ГЛ 3 СЛУЧАЙНЫЕ ВЕЛИЧИНЫ (КОНЕЧНАЯ СХЕМА! можно теперь трактовать как математическое ожидание МР(В\^Ф(а)) случайной величины Р{В\зФ{а)). Пусть разбиение сс$ определяется случайной величи- величиной |: Ak = {l = Xk}. Обозначим si-\ алгебру, порожден- порожденную \. Условная вероятность P(B\s&i) в этом случае есть функция от значений \, и мы обозначаем ее Р(В||), а ее значение —через P(B\l = xk). Предположим теперь, что Bi = {ц= yi}, 1=1, ... ..., т, образуют разбиение, порожденное случайной ве- величиной ц. Условным законом распределения ц при за- заданном значении £ = х^ назовем набор условных ве- вероятностей условным математическим ожиданием ц при заданном значении % = Xk будет тогда сумма 2-1 B8) Мы можем считать М{т)|| = дг*} значениями случайной величины M(ri|g), являющейся функцией от | и равной M{il|l = Xft} при l = Xk. Случайную величину M(rj||) будем называть условным математическим ожиданием при заданном £. От этой случайной величины можно вы- вычислить математическое ожидание Теорема 5. Имеет место равенство М[М(тIБI = Мт). C0)
§ 18. НЕРАВЕНСТВО ЧЕБЫШЕВА. ЗАКОН БОЛЬШИХ ЧИСЕЛ 61 Доказательство. Подставляя в B9) значения условных математических ожиданий B8), имеем п т т = Z Z г//Р{ч = У и 1 = хк} = Z У1Р (ч = Vi) = Мч. kii ii Теорема доказана. Пример 4. Пусть gi, |2. ••-. In — случайные ве- величины, имеющие одинаковые математические ожида- ожидания М£„ a v — независимая от них случайная величина, принимающая целые неотрицательные значения. Опре- Определим сумму случайного числа случайных величин r\v = = h + ■ ■ ■ + h при v > 1, % = 0 при v = 0. Тогда Mt)v = M^*Mv. Эта формула доказывается с помощью C0). Имеем при любом v = п: т. е. М {iiv I v} = v - Mif> Отсюда получаем § 18. Неравенство Чебышева. Закон больших чисел Следующие два неравенства носят название нера- неравенства Чебышева. Теорема 6. Для любого х>0 имеют место нерп' венства: P{UI>*}<-^. C1) -^|. C2) Доказательство. Вычисляя математическое ожидание от обеих частей неравенства получаем
62 ГЛ. 3. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ (КОНЕЧНАЯ СХЕМА) Неравенство C2) получается из первого неравенства, если его применить к случайной величине т] = (§ —М§J и воспользоваться тем, что М^ = D£. Теорема доказана. Неравенство Чебышева C2) показывает, что при ма- малой дисперсии Dg с вероятностью, близкой к 1, случай- случайная величина £ концентрируется около математического ожидания М§: Р{11-М||<х}>1--^-. C3) Неравенство Чебышева позволяет просто доказывать не- некоторые предельные соотношения, в которых участвуют последовательности независимых случайных величин £„. В рассматриваемой в этой главе конечной схеме мы имеем право лишь утверждать, что любое конечное мно- множество случайных величин может быть определено на одном вероятностном пространстве. В доказываемых ниже теоремах 7 и 8 мы полагаем, что при каждом п случайные величины |j, ..., |„ определены на некото- некотором конечном вероятностном пространстве (Qn, stn, Pn), причем при каждом фиксированном k < n случайная величина \ц имеет распределение вероятностей, не за- зависящее от п. Вообще говоря, любую последователь- последовательность независимых случайных величин £„ можно опре- определить на одном бесконечном вероятностном простран- пространстве. Данные ниже доказательства теорем 7 и 8 имеют общий характер и не зависят от конечности рассматри- рассматриваемой схемы. Теорема 7. (Теорема Чебышева.). Если £ь |2. ••• независимы и существует такая константа с > 0, что О ! с, п=1,2, ..., то при любом е > О ... +М6,| C4) Доказательство. Обозначим %п = h '+' • • • + £.•» и применим к %ц/п неравенство C3). Имеем при лю- любом х > 0: ¥^|}1-^>1--Ж- C5)
§ 18. НЕРАВЕНСТВО ЧЕБЫШЕВА. ЗАКОН БОЛЬШИХ ЧИСЕЛ 63 п так как D£n= £ Dgfe<nc (см. теорему 4). Из C5) при п-> оо имеем C4). Следствие. Если £ь £г> ••• независимы и одина- одинаково распределены, М£„ = a, D%n = а2 < оо, го я/?и любом х>0 U+-n+ln-a\<x} = L C6) Предельные утверждения типа C4) и C6) носят на* звание закона больших чисел. Закон больших чисел утверждает, что с вероятностью, приближающейся при п->оо к 1, среднее арифметическое сумм независимых слагаемых при определенных условиях становится близ- близким к константе. Из C6) получаем закон больших чисел в схеме Бер* нулли. Теорема 8. (Теорема Бернулли.) Пусть |лп — чис- число успехов при п испытаниях в схеме Бернулли с ве- вероятностью О < р < 1 в каждом испытании. Тогда при любом х > О limP{\lT-P <*!=!• C7) Доказательство. Мы можем представить ц„ в виде суммы независимых слагаемых 1\ + ■ ■ ■ + in, где It = 1, если при i-м испытании произошел успех, и g,= 0 в противоположном случае. Поскольку Mg< = р, Щ{ = РA — Р), то к цп = li + ••• +£л ■ применимо следствие C6). Теорема доказана. Соотношение C7) показывает, что при больших п разность между относительной частотой \х,п/п и вероят- вероятностью успеха мала с вероятностью, близкой к 1. В ус- условиях, когда справедливо свойство устойчивости час- частот, можно применять следующий принцип: при единич- единичном испытании маловероятное событие практически не- невозможно. Считая серию в п испытаний в схеме Бер- Бернулли за единичное испытание и выбирая х таким, чтобы -pj"=="pj было мало, мы можем утверждать, что неравенство \\in/n — р\ > х практически невозможно. Вопрос о том, какие вероятности считать малыми, зави- зависит от конкретной прикладной задачи,
g4 ГЛ. 3. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ (КОНЕЧНАЯ СХЕМА) Задачи 1. Из 28 костей домино случайно выбирается одна. Найти за- закон распределения суммы очков на половинках этой кости. (Кость домино — это прямоугольник, разделенный на две части. Каждая из частей помечена одной из цифр 0, 1, 2, 3, 4, 5, 6. Все 28 комбинаций пар (/, /), 0 ^ i' =SC / ^ 6, составляют набор костей домино.) 2. Найти закон распределения случайной величины T] = sin-g-£, где % — число очков, выпадающее при бросании игральной кости. 3. Найти математическое ожидание М| и дисперсию Dg: а) биномиального распределения Р {\ = т] = С™р'п A — р)"~т, т = 0 п; б) гипергеометрического распределения P{g = m}= M N~M , m = o, 1 C в) равномерного распределения на {1, 2, ..., Л/} -^-, т=1, ..., 4. Из множества всех п\ подстановок ( "' ) слу- \Х{ Х'г ... XnJ чайно и равновероятно выбирается одна. Найти вероятность того, что ХкФ k при всех 1 ^ k ^ п. 5. Если p(g, ti) = 0, то | и Т) не обязательно независимы. По- Построить пример. 6. Найти М£;, Dgj и Cov(g;, |y) в полиномиальном распределении при целых неотрицательных mi + ... +mr=i« и P{|i=mi,... ..., \, = m,} = 0 в остальных случаях. 7. Из чисел 0000, 0001, ..., 9999 случайно и равновероятно выбирают число hhk&i- Доказать, что %i независимы в совокуп- совокупности. S. Найти коэффициент корреляции между \ и |2, если Р {£=0} = - 1/3, Р {|=1} = 1/2, Р{| = — 1} = 1/6. 9. Бросается игральная кость. Пусть на ней выпало v очков. После этого та же игральная кость бросается v раз. Обозначим Т) сумму выпавшего числа очков в этих v бросаниях кости. Най- Найти Мт). 10. а) Показать, что при любом х > 0 найдется такая случай- случайная величина |, для которой М|£|^х и неравенство C1) превра- превращается в равенство, б) Аналогичное утверждение справедливо и для неравенства C2), но в этом случае надо полагать D|<£ П. Пользуясь неравенством Чебышева, оценить вероятность того, что при 1000 бросаниях монеты число выпадений герба ц бу- будет заключено между 450 и 550.
Глава 4. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ В СХЕМЕ БЕРНУЛЛИ § 19. Биномиальное распределение Биномиальное распределение числа успехов ц при п независимых испытаниях в схеме Бернулли с вероят- вероятностью успеха р в каждом испытании задается вероят- вероятностями P{n = m} = cS>pV"m. « = o, 1,...,«; q=i~p. A) Формула A) записывается достаточно компактно и про? сто, однако использование ее для вычисления вероят- вероятностей Р (ц = т) при больших значениях пат вызы- вызывает значительные трудности. При очень больших зна- значениях п и jn можно производить вычисления на бы- быстродействующей ЭВМ. Но и в этом случае при состав- составлении программы надо учитывать то обстоятельство, что очень большие числа, возникающие при вычислении С%, приходится множить на очень малые числа pmqn~m. При этом надо следить, чтобы промежуточные численные ре- результаты не выходили за диапазон допустимых зна- значений. Таблицы для вероятностей C%pmqn~m громоздки и очень неудобны для пользования, так как содержат три входа (п, р и т). Еще хуже дело обстоит с вычисле- вычислением вероятностей P{m,<H<m2}= Z CZpmqn-m, B) которые зависят уже от четырех параметров: п, р, т\ и т.2. Поскольку схема независимых испытаний служит ве- вероятностной моделью многих реальных случайных яв- явлений, представляет значительный интерес задача о на- нахождении асимптотических формул, позволяющих при- 3 Б. А. Севастьянов
66 ГЛ. 4. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ В СХЕМЕ ВЕРНУЛЛИ ближенно вычислять вероятности A) и B) при боль- больших значениях п, т, mi, тг- Такие формулы дают нам предельные теоремы. § 20. Теорема Пуассона Рассмотрим сначала случай больших л и малых р. Теорема 1. (Теорема Пуассона.) Если п-*-оо и р->-0 так, что пр-+а, то для любого фиксированного ш = 0, 1, ... Р {» = пг) = C"pmqn-m ->^*-a- C) Доказательство. Утверждение C) сразу выте- вытекает из равенства если учесть, что при п-+<х>, пр-*а предел A — р)я ра- равен е-*. Можно показать, что в предельном соотношении C) имеет место следующая оценка: Мы докажем более сильное утверждение в более общей схеме независимых испытаний. Рассмотрим п независи» мых испытаний с разными вероятностями успеха в раз- разных испытаниях. Обозначим pi вероятность успеха, qi =» «= I — pi—вероятность неуспеха в t-м испытании. Обо- Обозначим распределение ц — числа успехов при п испы- испытаниях— через р {ц = щ) = Рп (ш) = Ря (m; p ра). E) Такую схему независимых испытаний с разными pt на- называют схемой Пуассона. Схема Пуассона при pt&s p превращается в схему Бернулли, Вероятности Р{ц = т}
§ 20. ТЕОРЕМА ПУАССОНА 67 в схеме Пуассона не записываются в компактном виде, аналогичном A). Например, 2<73 • • ■ <7,.+ • • • +<7i<7a ■ • • Чп-\Рп. р{ц = п] = рхръ ... ря, Р {ц = т) = 0 при т < 0 и т> п. Обозначим П(/п, а)=^е'а. F) Имеет место Теорема 2. J9 сдсе.ие Пуассона для любого нату- натурального п, любых вероятностей р\, ръ, ..., рп и лю- бого числового множества В имеет место неравенство - Z П(/и, а) где а = p,-fP2+ •• G) pfP2+ +/ Доказательство. Формула F) задает вероят» ности U(m, а) более общего, чем мы рассматривали до сих пор, распределения Пуассона, имеющего положи» тельные вероятности при /м=0, 1, 2, ... такие, что по X И(пг, а) = 1. Докажем, что левая часть неравен» ства G) не превосходит Vn, где я»-=0 Разобьем все неотрицательные целые числа т на два множества. Положим ибВ+, если Рп{т) > П(/п, а), н еВ"в остальных случаях. Обозначим Е + = Z (Р„И-П(т, а)), £"= Z (Р„И-П(/н, а)). 3*
68 ГЛ. 4. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ В СХЕМЕ БЕРНУЛЛИ Так как £ Рп (т) = £ П (т, а) = 1, то т т О = £ (Рп (т) — П (т, а)) = £ + + £ ~ т И С другой стороны, для любого числового множества В имеем те В <тах/ £ (Рп(т)-П(т, а)), £ (Рп(т)~ . те. -П(т, а) Итак, для доказательства G) нам достаточно доказать, что t (8) Проведем доказательство по индукции. При п = 1 и рг = р имеем |Р,@; р)-П@; р)\ = е-Р + р-1, г;/j)i=tre"p> m>2> откуда получаем т—0 , (9) Так как 0<1 — е~х^.х при
§ 20. ТЕОРЕМА ПУАССОНА 69 Далее воспользуемся тем, что по формуле полной вероятности ; Р ' Ри 1; Р и при любых at ^ 0, а2 ^ 0 П.(т, ai + a2)=tn(m-^, о,)П(А, о,). (II) ft=0 п п Обозначим ап=Хр*. Ап=Лр1- Предположим, что V«-i<4,_,. A2) Применяя формулы (9) — A2), оценим Vn: =0 от Ас m-0 ft-0 oo m 4- X V Yn(m — k m-0 k-Q Теорема доказана. Следствие. В схеме Бернулли при любых пир 2 ~~п~' где а = пр.
70 ГЛ. 4. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ В СХЕМЕ БЕРНУЛЛИ § 21. Локальная предельная теорема Муавра — Лапласа Биномиальное распределение A) случайной вели- величины ц имеет Мц = пр и Dn = npq (см. задачу 3 в гл. 3). Обозначим а = ^/npq среднее квадратическое отклоне- отклонение. Доказываемая ниже теорема дает асимптотическую формулу для биномиальной вероятности A) при р, не близких к 0 или 1. Теорема 3. (Локальная предельная теорема Муав- ра — Лапласа.) Если в схеме Бернулли а = *Jnpq ->oo, то для любого С > 0 равномерно по всем \х\^ С вида х = "' ~ пр , где m — целые неотрицательные числа, A3) Доказательство. Пусть т = пр-\-хо. Оценим логарифм вероятности равный log Р {ц = т) = log п\ — log т\ — log (п — т)\ + + т log /? + (п — т) log 9. Воспользуемся асимптотической при п-*~оо формулой Стирлинга 1 = п log n + log У2зш — п + 8„, где6„=оГ—J. Обозначим k = n — tn = nq — xa. Из условия теоремы следует, что m = np(l + -^-j-*- oo, k = nq (l — —-J -> oo, поэтому можно применить фор- формулу Стирлинга для оценки lognl, logm!, log /st. Имеем log P {\i = m) = n log n — m log m — k log k + 1 « . n~ y/n ~ y*« (>4)
8 22. ИНТЕГРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА 71 ^) +е)=О(е), е->0, то из A4) получаем log Р {и = т) — ==_mlog-2L-.^iogA.+ log—^+0A). A5) Далее, из A5) следует log Р {и = т) = - (пр + *а) log A + -^-) - +f 2 Ча что и доказывает асимптотическую формулу A3). § 22. Интегральная предельная теорема Муавра — Лапласа Для приближенного вычисления вероятностей { ^ ц ^ т2} можно применять следующую теорему. Теорема 4. (Интегральная предельная теорема Муавра— Лапласа.) Прио= -\fnpq ->оо равномерно по Доказательство. Предположим сначала, что I а К С, \Ь |_<С. Пусть т, = ] пр + а У"Р<7 [» пц =» == [пр + & У"/и7 ], где ]х[ —такое наименьшее целое
72 ГЛ. 4. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ В СХЕМЕ БЕРНУЛЛИ число, что х ^ ] х [, а [х] — такое наибольшее целое число, что [х] ^ х. Тогда P{[i = m}. A7) Обозначим т = пр -\- xm-^npq, тогда Ахт = xm+i — —хт = 1/а. По локальной предельной теореме запи- запишем A7) в виде A8) Справа в A8) стоит интегральная сумма, сходящаяся ь хг равномерно по а и 6 при а-> <х> к интегралу —-р=-\ е 2 dx; а отсюда получаем утверждение A6), когда |а|^С, Снимем теперь ограничение |а| = ^ ~ пр значим %,п = . Имеем равенство Обо- ОбоA9) Как известно из анализа, 00 поэтому If 1 С -с -1- [ л/2л" J dx. B0) \х\>С Из A9) и B0) получаем X» •у2д J ln\<C} -с B1)
§ 23. ПРИМЕНЕНИЯ ПРЕДЕЛЬНЫХ ТЕОРЕМ 73 Пусть задано е > 0. Тогда найдется такое С, что -4= [ e~^dx<^. B2) \х\>С Зафиксируем его. По только что доказанному найдется такое «1, что для всех п с х* <!■ -с откуда, в силу B1) и B2), для тех же n > «i имеем Р{|£П|>С}<-. B3) Берем теперь любой интервал [а,Ь] и обозначим [A,B] = [a,b]f][—C,C]. Так как — С<Л<В<С,то, как мы уже доказали, существует такое щ, что для всех и ^ «2 имеет место неравенство Из неравенства B4) dx получаем, в силу B2) — B4), что при п ^ «о -~ = max(ni,n2) т=г \е г dx а равномерно по всем а ^ Ь. Теорема доказана. § 23. Применения предельных теорем Предельные теоремы Пуассона и Муавра — Лапласа применяются для приближенного вычисления вероят- вероятностей Р {ц = т) и Р {тх < ц < т2} в схеме Бернулли
74 ГЛ. 4 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ В СХЕМЕ БЕРНУЛЛИ при больших п. Приближение, даваемое теоремой Пуас- Пуассона, называется пуассоновским. Приближение, полу- получаемое с помощью теорем Муавра — Лапласа, назы- хг л. 1 ~Т вается нормальным, так как функция , е есть плотность нормального распределения (см. § 31). Для m распределения Пуассона т^Ге~° и интеграла B5) называемого интегралом Лапласа, имеются таблицы. Пусть, например, нам нужно вычислить вероятность P{mi^n^m2) в схеме Бернулли с п независимыми испытаниями и с вероятностью успеха р. Вычислим Xm,« ОТ2~У и положим SL^L, Xm,« У .£1 2 |4 < m2} ~ ~j=r \e 2 dx = Фо (хтг) - Фо BS) При этом мы допускаем некоторую погрешность. Мож- Можно оценить эту погрешность, но точная ее оценка очень сложна, а более простые оценки слишком грубы. Эту погрешность можно значительно уменьшить, если в пра- правой части приближенного равенства немного изменить пределы интегрирования, полагая 2} - Фо (хт2+ш) - Фо (*mi_1/8), B7) ~ пр х — т ~ 1/2 ~ пр х Из табл. 6 видно, что приближенная формула B7) дает значения вероятностей Р{т!^ц^т2} с точ- точностью до трех-четырех знаков после запятой даже при п порядка нескольких сотен. Обычно применяемая фор- формула B6) такой точности не дает.
S 23 ПРИМЕНЕНИЯ ПРЕДЕЛЬНЫХ ТЕОРЕМ 75 Та^ляца 6 mi ma ; Точное значение по формуле B) , Нормальное приближение ' по формуле <2б) Уточненное ■нормальное приближение по формуле B7) п=109; р = 0,5 40 45 55 60 55 65 0,9648 0,7287 0,1832 0,9545 0,6827 0,1573 0,9643 0,7287 0,1831 п = 300; р = 0,5 135 140 160 165 160 180 0,9267 0,7747 «,1361 0,9167 0,7518 0,1238 ! 0,9265 0,7747 0,1361 я =589; p = Q,5 230 240 260 470 530 270 260 280 530 560 0,9334 0,6523 0,1950 0,9264 0,6289 0,1819 /1=1000; р=0,5 0,9463 0,03095 0,9422 0,02882 0,9333 0,6523 0,1946 0,9463 0,03097 /1=100; р = 0,25 15 20 30 60 70 80 35 30 40 70 80 90 0,9852 0,7967 0,1492 0,9791 0,7518 0,1238 п = 300; р = 0,25 0,9615 0,5366 0,2510 0,9545 0,4950 0,2297 0,9845 0,7960 0,1492 0,9612 0,5366 0,2545 п = 500- р = 0,25 105 115 135 145 135 155 0,9659 0,7219 0,1621 0,9611 0,6983 0,1499 та Значения вероятностей Р {т^ ^ Ц ^ т2) = ]j£ m™mi в схеме Бернулли. 0,9658 0,7218 0,1624 Om(i-p)n-m
76 ГЛ. 4. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ В СХЕМЕ ВЕРНУЛЛИ Задачи 1. В большом городе в год рождается 20 000 детей. Считая ве- вероятность рождения мальчика р = 0,51, иайти такое число t, чтобы с вероятностью 0,99 можно было утверждать, что среди рожденных 9 течение года в этом городе детей число мальчиков превышает число девочек ие менее чем иа t. 2. Сколько надо произвести бросаний правильной монеты, чтобы с вероятностью 0,99 относительная частота выпадения герба отлича- отличалась от 1/2 не более чем и а 0,01? 3. В таблице случайных чисел каждая цифра появляется неза- независимо от других с вероятностью 1/10. Сколько надо набрать таких Случайных чисел, чтобы с вероятностью 0,999 среди них появилось ие менее 100 нулей? 4. В большом городе в среднем в течение одного дневного часа поступает одни вызов иа скорую помощь. С какой вероятностью за 3 дневных часа поступит более 10 вызовов? 5. Какова вероятность, что в группе, состоящей из 30 студентов, никто ие родился в январе месяце? Вычислить эту вероятность по точной формуле и по пуассоиовскому приближению.
Глава 5. ЦЕПИ МАРКОВА § 24. Марковская зависимость испытаний Очень часто реальные случайные явления можно изучать с помощью следующей модели. Пусть состояние некоторой системы описывается точкой фазового про- пространства Е = {е\,е2, ..., ег}. В дальнейшем точки из Е будем обозначать просто числами 1, 2, ..., г. Пред- Предположим, что время t дискретно и принимает значения t = О, 1, 2 Т. Эволюция изучаемой системы опи- описывается траекторией co = (cuo, ©ь ..., ©г), где ©« = i, если в момент t система находится в состоянии L В опи- описываемом случае вероятностное пространство (Q, $&, Р) определяется пространством траекторий &={©}, алгеб- алгеброй $$■ всевозможных подмножеств Q и вероятностью Р, задаваемой элементарными вероятностями р(©). Со- События Ai(t)={(x>: ©/ = i}, i = l, ..., г, при каждом t определяют разбиение at, которое порождает алгебру событий s4-t. Исходя из принятой нами в § 11 термино- терминологии, мы будем говорить, что skb st-lt stz, .... &т A) есть последовательность случайных испытаний. В § 11 мы описали модель последовательности неза- независимых испытаний. В 1907 г. А. А. Марков ввел такой класс зависимых испытаний A), который может слу- служить моделью многих случайных явлений. Этот класс впоследствии изучался очень интенсивно и привел к сильно продвинутой в настоящее время теории марков- марковских процессов. Простейшая модель марковского про- процесса— цепь Маркова — определяется следующим обра- образом. В последовательности испытаний A) зафиксируем какой-нибудь момент времени /. Алгебру событий s4-t назовем настоящим, алгебру s&\~1, порожденную алгеб- алгебрами «s^o, st-u ..., $&i-u назовем прошлым, алгебру
78 ГЛ. 5. ЦЕПИ МАРКОВА событий $$+\, порожденную алгебрами s&t+\, • ■ ■, $$т,— будущим. Любое событие из Мо~1 также назовем про- прошлым, из s$l+\—будущим, из s&t —настоящим. Напри- Например, событие {со: найдется такое k, что t < k < Т и tov = (x>k+\) принадлежит будущему, а событие {со: для всех k, О ^ k < t, <x)k Ф г) — прошлому. Определение 1. Последовательность испытаний A) мы будем называть цепью Маркова, если при любом фиксированном настоящем a>t==k прошлое $$ГХ и бу- будущее ^Г+1 независимы, т. е. для любых ls^fc^r, 1= 1, 2, ...,Г-1, Ae=stl-\ Bg^[+1 Р {AB\<ut = k) = Р {A\(*t = k} P {B\e>t=: k). B) Поскольку из определения условных вероятностей следует, что для любых событий А, В, С с Р (АС) > О Р(АВ\С) _,.. -jf— то условие B) равносильно условию t = k}. C) § 25. Переходные вероятности Вычислим вероятность того, что траектория ш = ,=^((оо, (оь ..., о>т) равна (to, »'ь •••, »V). Для этого вос- воспользуемся введенными выше обозначениями Ai(t)—- •=={©: ах = /} и теоремой умножения из § 6. Имеем Из условия C) получаем для цепей Маркова Р(Ait(t)\Alo(O) Ai^l) ... Ait^(t - \)) = поэтому D) запишется проще: E)
§ 25. ПЕРЕХОДНЫЕ ВЕРОЯТНОСТИ 79 В дальнейшем мы будем рассматривать однородные цепи Маркова, в которых условные вероятности P(A,U)\At(t-l)) = plt. называемые переходными вероятностями, не зависят от /. Таким образом, чтобы вычислить вероятность любой траектории © в цепи Маркова, достаточно задать на* чальное распределение р,- @) = Р (А{ @)) и матрицу пе- переходных вероятностей Ри Р\г •■■ Pir Рг\ Ргг ■ ■■ Ргг Р = F) Рт\ Ргг •■• РггI Вероятность E) записывается тогда так: Р{« = (h, h, • • •, /г)) = Pi,@)ПPtt.ttt. G) Элементы матрицы переходных вероятностей обладают следующими свойствами: Рц>0, tpi, = l- (8) Любая квадратная матрица F), элементы которой удов- удовлетворяют условиям (8), называется стохастической. Введем переходные вероятности за t шагов: Матрица Р @=И Pi/(ОН также будет стохастической. Переходные вероятности удовлетворяют при любых целых t > 0, s > 0 уравне- уравнению Pil(t + s)=£plk(t)pkl(s). (9) Это уравнение выводится с помощью формулы полной вероятности
80 ГЛ. 5. ЦЕПИ МАРКОВА Так как Р (Aj (t + s) \ A, @) Ak (s)) = Р {A, {t + s)\ Ak (s)) в силу марковости и Р(Л,(/ + s) \ Ak(s)) = P(A,(t) | Ak@)) в силу однородности, то отсюда получаем (9). Уравнения (9) можно записать в матричной форме P(t + s) = P(t)P(s), откуда имеем P(t)=Pl, где РA)=Р — матрица F), Предполагая р»/@) = 6;/ (б;/ = 0, если i Ф /, б»=*1», мы распространяем уравнения (9) на случай t ^ 0, s>0. Через начальные вероятности р*@) и переходные ве- вероятности pu(t) мы можем выразить с помощью фор- формулы полной вероятности распределение вероятностен Рг(/)= P(At(t)) при любом /: р*@=Ер*@)р«(/). (Ю) Пример 1. Блуждание с поглощением. Пусть по точкам 0, 1, 2, ..., N прямой блуждает частица. Время t дискретно. Если в момент t частица была в точке i, то в следующий момент t + 1 она независимо от ее по- положений в более ранние моменты времени с вероя;- ностью ptj попадает в точку /. Если ||р,/|| задается ра- равенствами роо = Paw = 1, Pi, /+i = р, Pi, i-\ =1 — P, если 1 ^ i ^ N—1 и р,/ = 0 при |t — /|>1, то мы полу- получаем цепь Маркова, которая описывает блуждание час- частицы по целым точкам, отрезка [0, N] с поглощением на концах. Пример 2. Блуждание с отражением. Пусть пере- переходные вероятности pi,t+\, pi.i-i для 1 ^ i ^ N—1 и Pi,- для |t — /|> 1 остаются теми же самыми. Если оп- определить еще роо = 1 — р, poi = p, Paw = р, Рлг, лг—i = 1— — р, то полученная цепь Маркова моделирует блужда- блуждание частицы по целым точкам отрезка ("~~б"' ^"^~т) с 'отражением на концах. § 26. Теорема о предельных вероятностях Теорема 1. Если при некотором to все элементы Pij{to) матрицы Р'« положительны, то существуют пре- пределы limpJ//) = p/, /=1, ...,г. A1)
§ 26. ТЕОРЕМА О ПРЕДЕЛЬНЫХ ВЕРОЯТНОСТЯХ 81 Предельные вероятности р\ не зависят от начального состояния i и являются единственным решением системы г г ■ о = лг /= 1 г У лг = 1 (\2\ _ k ki /> ,••-,, ^ / Доказательство. Обозначим Mt (t) = max pt] (t), Ш] (t) = min рИ (t). Так как nij(t)^ pk/(t)^ Mj(t) при любом k, то из ра- равенства следует, что при всех i m Отсюда вытекает ; (t + 1)< М1 Таким образом, при /-»-оо имеются пределы у последо- последовательностей nij(t) и Mj(t). Докажем, что эти пределы совпадают. Пусть i и / таковы, что р,*(/ + to) = Mk(t-i- + *о), Pik(t + to)=mk(t + to). Вычитая друг из друга равенства мк (t + g = Pik(t +10) = mk (t + to) = plk (t +10) = Z Pn (to) Pik (t), получаем Mk(t + tQ) — mk(t +10) = Разобьем сумму справа Z на сумму Z положитель- положительных слагаемых и сумму Z отрицательных слагаемых. Тогда Мк (t + /0) - mk (t +10) < Mk (t) Z+ (Pn (k) - Ptl (to)) + ~ (Pu(to)-P,i(to))- A3)
82 ГЛ. Б. ЦЕПИ МАРКОВА Так как 0 = Z (/>»/Со) — P/j (*о)) = Z + Z > ™ Z = = — Z • Обозначим Z (Ри {Q—Pii (to))=dii. Из условий теоремы следует, что все йц < I, поэтому d = maxc?,;<l. Теперь из A3) имеем (Mk(t) - mk(/)) п '•J О<Мк(t) - mk(/)<dL'•J->О при ^->оо. Так как ms(/)< pik(t)^Mk(t), то отсюда следует утверждение A1). Перейдем в уравнениях 1)= Zp« (о к пределу по t-> oo. Получаем Р/ = Z ftl ftl г Кроме того, Zp/=1>t. e. предельные вероятности р/ удовлетворяют системе A2). Предположим, что какие- либо х\, ..., х, удовлетворяют A2). Тогда они при лю« бом t удовлетворяют системе ^ A4) Это доказывается по индукции: г г г Z 4Pki (t +1) = Е х Переходя в A4) к пределу по t-*<x>, получаем л^ = ■= Z хкр] = pj. Теорема доказана. А1
ЗАДАЧИ 83 Из формулы A0) следует, что в условиях теоремы 1 Pi(t)-^- pi при £->оо, причем предел не зависит от пер- первоначального распределения р,F). Можно проверить, что цепь Маркова, описывающая блуждание с отражением в примере 2, удовлетворяет условиям теоремы. Предельные вероятности в этом слу- случае можно найти с помощью системы уравнений A2). Задачи 1. В урне содержится 5 шаров, белые и черные. Испытание со- состоит в том, что каждый раз из урны случайно вынимается один шар и взамен в урну возвращается шар, но другого цвета (вместо белого—черный и наоборот). Найти матрицу переходных вероятно- вероятностей II ри || для цепи Маркова, состояниями которой является количе- количество белых шаров в урне. Найти вероятности перехода за два шага РиB). Найтн предельные вероятности Игл p..(t) = p.. <->оо ч ' 2. Модель перемешивания колоды карт. Пусть имеется три кар- карточки с номерами 1, 2, 3. Состоянием системы назовем последова- последовательность номеров этих карточек iV2i's. Предположим, что переме- перемешивание происходит следующим образом: с вероятностями 1/2 со- состояние /lfVs переходит в Шйг или в iihh. Найти матрицу вероят- вероятностей перехода. Найтн предельные вероятности pitwj 3. Полагая в примере 1 § 25 N = 3, вычислить вероятности пе- перехода Pa(t) за t шагов и пределы Игл р,-, (<)=Рп- t -> 00 4. Пусть случайные величины \\, ga> ..., |„ независимы и ^ {^4 = 1} = Р' f {Sft = 0} = <7. Р + Я шш !• Доказать, что пары (si» Sa), (S* |з) (|я-1, |п) образуют цепь Маркова. Найти переходные вероятности этой цепи за / шагов, t***\, 2, ... 5. Образуют ли цепь Маркова значения случайных величин IV = Ь-1|(. где |( взяты нз задачи 4, если 0 < р < 1?
Глава 6. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ (ОБЩИЙ СЛУЧАЙ) § 27. Случайные величины и их распределения Пусть (Q, $1>, Р) — произвольное вероятностное про- пространство. Теперь уже случайной величиной мы будем называть не любую числовую функцию | = |((в). Определение 1. Числовая функция £ = £(<»)' от элементарного события ioeQ называется случайной ве- величиной, если для любого числа х {!<*} = {">: 6(ш)<х}е^. A) Смысл этого определения состоит в следующем. По- Поскольку не любое подмножество Q является событием и все события составляют а-алгебру подмножеств «я£, то естественно рассматривать такие функции | = |(о>), для которых имеет смысл говорить о вероятностях попа- попадания | в достаточно простые числовые множества, в частности, в {i^x}. Свойство A) гарантирует, что при любом х неравенство {£ ^ х) есть событие и, сле- следовательно, имеет смысл говорить о его вероятности. Определение 2. Функцию /7U) = /rsW = P{i<^}, B) определенную при всех х е R, назовем функцией рас- распределения случайной величины |. С помощью распределения B) можно выразить ве- вероятности попадания | в различные интервалы вида Xi^.X^.X2, Xi<X<X2, Xt<X^.X2, *i<*<X2. ('3) Пусть xl<x2. Тогда из разложения события {i<x2} на сумму несовместных событий {£^*i} + {xx <\<Z. x2) следует Р(I<д:2) = Р(I<л:,) + Р{х, <K*2} и Fixi). D)
§ 27. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ РАСПРЕДЕЛЕНИЯ 85 Событие {£ < х} можно представить как счетную сумму несовместных событий п-1 откуда с помощью D) получаем: -i) = F(x-O). E) W>oo N ' Здесь и далее мы будем пользоваться обозначениями F{+oo)=limF(y), F(—oo)= lim F(y). y->°° y->-°° С помощью (З), D) и E) нетрудно уже получить ос- остальные случаи: = F(x2-Q)-F(xl), Теорема 1. Функция распределения F(x) обладает следующими свойствами: 1) ^(д:) не убывает, 2) ^(дг) непрерывна справа, 3) F(+oo) = \, 4) F(— c») = 0. W Доказательство. Свойство 1) следует из D). Свойство 2) следует из аксиомы непрерывности 4°. Так как события Вл = {д:<|<д: + -1-} \ 0, тоР(б„) = , т. е. F{x + O) = F(x). Свойства
86 ГЛ. в. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ (ОБЩИЙ СЛУЧАЙ) 3) и 4) вытекают из аксиомы счетной аддитивности. оо Так как Q= £ Ап, где Ап = {а>: п — 1 <£(сй)<м}, то I = P(Q)= Z P(An)=Um Z л=—оо N-*oo я= — JV + 1 = lira ЛГ->оо и, следовательно, F(oo)= Hm F{N)= I, F (—оо) = ЛГ-Юо = lim F(—iV) = 0. Теорема доказана. ЛГ->оо Определение 3. а-алгебра^ числовых множеств, порожденная всевозможными интервалами вида xt < < д: ^ Х2, называется борелевской; множества В, вхо- входящие в к, также называются борелевскими. а-алгебра борелевских множеств & содержит всевоз- всевозможные интервалы вида C) с конечными и бесконеч* ными концами, их конечные и счетные суммы, все от- открытые и замкнутые множества. Таким образом, а-ал- а-алгебра множеств & достаточно богата и содержит все числовые множества, которые нам будут необходимы. Назовем полным прообразом при отображении \ числового множества В множество тех со, для которых £(<»)еВ. Обозначая полный прообраз В через %-ЦВ), имеем %~1(В) = {со: £(<»)е В). Из свойств полных про- прообразов Г* @) = 0. Г' (R) = О (Я - прямая), г1 Г П вп) = П г1 (вп), г1 Г U вл = и г1 (вп), \ п / п ■ \ п J п следует, что совокупность |-1(В) для всех борелевских множеств В е <% является а-алгеброй событий s£\ != $1. Мы будем называть s4-\ а-алгеброй, порожденной слу- случайной величиной |. Можно установить, что А% порож- порождается множествами вида {©: £(<») ^ #} и состоит из событий А вида
§ 27. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ РАСПРЕДЕЛЕНИЯ 87 где BsJ. Ниже мы покажем, что для каждого Ве^ определена вероятность Р {% е В), которую мы будем обозначать Pi(B). Определение 4. Функция Pj(В), определенная для всех £г|, называется распределением вероят- вероятностей случайной величины |, С помощью D) — F) можно выразить вероятность события {| е В} для борелевских множеств В, предста- вимых в виде конечной суммы интервалов вида C). В теории меры доказывается следующая Теорема Каратеодори. Если на алгебре s4-a подмножеств Q определена вероятность р, удовлетво- удовлетворяющая аксиомам 1°, 2°, 3* (причем аксиома счетной аддитивности 3* формулируется так: если попарно не- оо совместные Л„е^0 и /4=£ 4е^о. то Р{А) — оо — X Р (Л„)), го эту вероятность можно однозначно про- должить на все множества из а-алгебры s4-, порожденной Нетрудно видеть, что числовые множества, состав- составленные из конечных сумм полуинтервалов {x\,Xz\, обра- образуют алгебру #о. Эта алгебра порождает а-алгебру бо- борелевских множеств $. Если задана функция распре- распределения F$(#), то она удовлетворяет условиям G). С по- помощью формулы D) и аксиомы аддитивности мы мо- можем по этой функции распределения определить зна- значения вероятностей Р|(В)= Р{|еВ} для всех Ве^о. Можно доказать, что распределение вероятностен Р|(В) сг-аддитивно на алгебре множеств 350. Отсюда и из тео- теоремы Каратеодори следует, что с помощью функции рас- распределения B) мы можем получить вероятность собы- события {| е В) для любого борелевского множества Яей. Итак, распределение вероятностей Р\ случайной вели- величины | однозначно определяется функцией распреде- распределения fg. Таким образом, каждая случайная величина | дает такое отображение £ = £((«») множества Я в числовую прямую /?, которое порождает новое вероятностное про- пространство (/?, ^ P) ') См., например, Халмош П., Теория меры. — М.: ИЛ, 1953.
88 ГЛ. в. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ (ОБЩИЙ СЛУЧАЙ) Из равенства Р {£ = х} = F (х) — F (х — 0) следует, что в точках разрыва функции F(x) имеет место Р {£ = #}>0. Так как при каждом целом п может быть не более п точек х с Р(£ = л:)^1/п, то у функции F(x) имеется не более счетного числа точек разрыва. Обозначим х\, х2, ... все точки разрыва Fi(x). Если оо вероятности Р {£ = xk) = pk таковы, что £ Pk = 1 > то мы говорим, что случайная величина | имеет дискрет- дискретное распределение. Примерами дискретных распределе- распределений служат: 1) биномиальное P{l = k} = Cknp\\-p)n-\ k = Q, I, ..., п; 0<р<1; 2) пуассоновское P{$ = k} = ^-e-a, 6 = 0,1,2,...; 0<а; 3) геометрическое p)k, k = 0, I, 2, ..., 0<р<1. Мы будем говорить, что функция р (х) = р\ (д:)' есть плотность распределения случайной величины |, если ДЛЯ ЛЮбыХ Х\ < Х2 P{xl<l<x2}=\ pi(x)dx. (8) x, Из определения (8) следует: 1. Fg (л:) = p5(д:) в точках непрерывности pl(x); X 2. Fi(x)= [ pt(u)du; 3. F|(х2) — Fi(xi) = x p\{u)du для любых хх<х2. Если распределение имеет плотность ръ(х), то мы будем говорить, что случайная величина | имеет абсо- абсолютно непрерывное распределение. Через плотность Р\ {х) можно выразить любую вероятность Р {| €= В},
§ 27. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ РАСПРЕДЕЛЕНИЯ 89 если мы умеем вычислять интеграл по области В в сле- следующей формуле: \ (9) Для множеств В, равных сумме интервалов, интеграл (9) вычисляется обычным способом. Для того чтобы равен- равенство (9) имело скшсл при любом борелевском множе- множестве В, нам нужно обобщить понятие интеграла, пс« рейдя от интеграла Римана к интегралу Лебега (см. гл. 7). Отметим, что существуют непрерывные функции рас- распределения F(x), не имеющие плотностей. Примером такой функции служит канторова функция F(x), кото- которую можно определить равенствами F(x) = 0 при х ^ <^0, F(x) = 1 при *> 1 и F(x) = -jFCx) при ~-\-~FCx-2) при -| Непрерывные функции распределения, не имеющие плотностей, называются сингулярными. В общем случае любая функция распределения F(x) представимаввиде F (х) = aiF, (х) + а^г (дг) + a3F3 (x), где а; 25= 0, а\ + а* + аз = 1, Fi (x)— дискретная функ- функция распределения, F2(x) — функция распределения, имеющая плотность (такие функции называются абсо- абсолютно непрерывными), F3(x) — сингулярная функция распределения. Плотность распределения р(х) обладает следующими двумя свойствами: />(*)>0, 5 p{x)dx=\, A0) — оо которые легко устанавливаются из определения (8). Функции от случайных величин. Пусть g(#) отобра» жает действительную прямую R в себя. Для любого
90 ГЛ. 6. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ (ОБЩИЙ СЛУЧАИ) Й£/? полный прообраз g~l(B) определяется как мно- множество тех точек X(=R, для которых g(x)^B. Определение 5. Функцию g(x) назовем борелсв- ской, если для любого борелевского множества BgJ полный прообраз g~l(B)e 38, т. е. тоже борелевскип. К множеству борелевских функций принадлежат, в частности, непрерывные и кусочно непрерывные функ- функции. Теорема 2. Если I — случайная величина, a g(x) — борелсоская функция, то х\ — g(£) есть случайная вели- величина. Доказательство. Рассмотрим т| = ti (со) как сложную функцию л = £(!(<»)). Пусть Bel Так как g(x) — борелевская функция, то g~l(B) — Bi&38. Так как ц-1(В) = |-'Ei)e^, то ц — случайная величина. Рассмотрим два примера вычисления функции рас- распределения Frj(x) и плотности рц(х) случайной вели- величины 1] = g(|) по функции распределения F^(x) и плот- плотности р%(х). Пример 1. Пусть функция х\ = g(l) монотонно воз- возрастает, g~*(x) — обратная функция. Тогда A1) Дифференцируя A1) по х, имеем (если £(#) дифферен- дифференцируема и имеется плотность ()) откуда получаем соотношение между плотностями: В частности, прн g(x)=x3 имеем Пример 2. Пусть g(x)= х2, Р$(х)—непрерывная функция распределения с плотностью р\{х), ц = |2, При х ^ 0 из равенств
S »- СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ РАСПРЕДЕЛЕНИЯ 91 получаем Рассмотрим несколько примеров абсолютно непре- непрерывных распределений. 1. Нормальное (или гауссовское) распределение. Мы говорим, что случайная величина \ имеет нор- нормальное распределение с параметрами (а, а), — оо < < а < оо, о >• 0, если она имеет плотность Pl(x) = Le . Нормальное распределение с параметрами @,1) с плот- плотностью называется стандартным. Плотность р{х)] удовлетворяет условию 2. Равномерное распределение. Мы говорим, что случайная величина | имеет равно- равномерное распределение на отрезке [а, Ь], если ее плог- ность имеет вид ( С при а ■■ О при х < а или х > Ь, 00 6 Из условия \ p(x)dx — С \ dx = C(b — a)= 1 следует 3. Гамма-распределение. Распределение с плотностью О, х < О, Г (а)
92 ГЛ. 6. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ (ОБЩИЙ СЛУЧАИ) где а>0и К > 0 — параметры, Г (а) — гамма-функция, называется гамма-распределением. Плотность рь(х) с а= 1 называется плотностью по- показательного распределения. § 28. Многомерные распределения Часто приходится рассматривать на одном и том же вероятностном пространстве (Q, бФ, Р) несколько слу- случайных величин |i, \2 £«• Так как множества {£* =С ^ Xk) e s4-, т. е. являются событиями, то и их пересе- п чение fl {lk ^ xk) e S4-. Поэтому существует вероят- вероятность этого события, которая называется многомерной функцией распределения P{!i<*i ln<lxn} = Fil ...sn(*i хп). Многомерную функцию распределения мы будем иногда записывать просто F(x\ xn), не указывая индек- индексами |(,..., %„. Обозначим Aftt ...hnF(x\ хп) разность n-го по- порядка по аргументам Х\ хп с приращениями hi, ... ..., hn- Последовательно эти разности можно опреде- определить следующим образом: +h{, x2, .... xn) — F(xb x2 хп), i, X2 л;п) = Ал2(Ал/(л; хп)) = ■=F (х{ + hi, x2 + h2, хъ xn) — F (x{ + hu x2 *„)— — F(xu x2 + h2, x3 xn) + F(xi, x2 xn), и т.д. В общем случае имеет место равенство где суммирование ведется по всем 0,- = 0 и 1. С ПОМОЩЬЮ F^ ...!„(*! Хп) МОЖНО ВЫЧИСЛИТЬ вероятность попадания в любой прямоугольник вида
§ 28. МНОГОМЕРНЫЕ РАСПРЕДЕЛЕНИЯ 93 + hi, i= 1, .... n: + hi, i=\, ...., n} = AAl...AnF(X| xn). A2) Доказательство формулы A2) можно провести после- последовательно: x2<I2 ь xa, и т.д. Из формулы A2) и из определения многомерной функции распределения F(x\, ... хп) вытекают следую- следующие свойства (которые доказываются аналогично одно- одномерному случаю): 1) /(jcj,jt2 хп) по каждому аргументу не убы- убывает и непрерывна справа; 2) F(— оо, х2, ..., xn) = F(xu — оо, х3, ..-, хп) = = F(x{ xn_i, — оо) = 0; 3) /?(+оо,Ч-оо +оо)=1; 4) при любых А( ^ 0, ..., Ал ^ О Здесь, как и ранее, F{—oo,x2, .... хп)= lim (^1. Х2 Хп). Любая функция F(x\ xn), удовлетворяющая свой- свойствам 1)—4), есть многомерная функция распределения некоторых ilt ..., |„. Пример функции при
94 гл. 6. Случайные величины (общий случащ для которой выполнены свойства I)—3) и не выполнено свойство 4) (так как Anf@,0) = F(\, 1) — FA,0).- — F@, l)-\-F(Q, 0) = —1), показывает, что свойство 4) не вытекает из первых трех. Из формулы A2) и свойства счетной аддитивности вероятности следует, что Ftl...lm{Xl *m)=./V.. £„(*!, .... Хт, +00, ..., +ОО). Назовем о-алгебру множеств «-мерного простран- пространства R", порожденную всевозможными n-мерными пря- прямоугольниками вида ui < xi ^ bi, i = 1, ..., п, боре- левской и будем ее обозначать 3§п. Множества из J?" также будем называть борелевскими. Как это было и в одномерном случае, многомерная функция распреде- распределения Fii,..in(xi, ..., хп) позволяет нам при помощи формулы A2) вычислять вероятности событий вида csB, где | = (||, ..., %„), В — прямоугольники и ко- конечные их суммы. Аналогично тому, как мы это делали в § 27, доказывается, что с помощью таких вероятностей однозначно определяется вероятность события | е= В для всех ВеЙ", События (а: е(ш)еб}, где В^&'К образуют 0-подалгебру sf\l..,in а-алгебры зФ. Мы бу- будем называть ^,,..|;1 а-алгеброй, порожденной слу- случайными величинами сь ..., £*. Функция Р|(В)=Р{^е gB}, определенная для всех BgJ", называется п-мерным распределением вероятностей случайного век- вектора £ = (£ь ..., |„). Дискретное многомерное распределение задается ко- конечным или счетным набором значений х = {х\, .... хг) и неотрицательных р(х) с £р(л:)=1. Вероятность X р^ (В) — Р (£ е В) определяются в этом случае как I Р(х). лев Другой частный случай дают распределения с плот- плотностью. Многомерной плотностью распределения Pi(x), х=(хи ,,., хп) называется такая функция, что \pt(x)dx, A3) в где справа стоит n-мерный интеграл по области В. Ин- Интегралу справа можно придать смысл при любом В е
§ 28. МНОГОМЕРНЫЕ РАСПРЕДЕЛЕНИЯ 95 е$", поэтому формула A3), вообще говоря, действует при всех В е ^". Из определения плотности р(х) сле- следуют ее свойства: оо \\\(x)dx=l. A4) Функция р{х)\ удовлетворяющая A4), может быть плотностью некоторого распределения. Из определения плотности вытекают следующие ее связи с функцией распределения: ~ \ "• \ Pi,...in(uu-'-,Un)du\...dun, — CO »O0 p(xu ..., xn) = —jz~~ В точках непрерывности х = (*i, ..., xn) плотности p(xi,xa х„) имеет место равенство Р {Xt < Si < At| + ДДС(, / = 1 «} = = р (At), ..., хп) Дд?! ... Ддс„ + о(Длг1 ... Длгя), max Длг^ -> 0. t Примером многомерной плотности служит плотность р(х) равномерного распределения на области S S Rn конечного n-мерного объема \S[ , задаваемая равен» ствами \ I ' I cl При Х^&, р (х) =* \ '"' I 0 при *§£S. Вероятность PfieB} в этом случае определяется от» ношением объемов J5 П S и S: D /* _ m _ МЛISJ. По этой формуле вычисляются так называемые геомет* рические вероятности (см. § 5J.
96 ГЛ. 6. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ (ОБЩИЙ СЛУЧАЙ) § 29. Независимость случайных величин Случайные величины |ь |г in называются не- независимыми, если независимы порожденные ими а-ал- гебры Это определение эквивалентно тому, что для любых В,е=38 Р ft, s 5, £„ s £„} = П Р {£, s Я,}. A5) Частным случаем A5) является равенство .. Fin (xn), A6) справедливое при всех #,-. Из A6) нетрудно установить, что при всех Xi и h, > О что эквивалентно A5) для Bt = (xt,Xi-\- ht]. Как уже отмечалось выше, значения вероятности на всех интер* валах однозначно определяют ее на борелевских мно* жествах, поэтому из справедливости A7) вытекает спра- справедливость A5) для любых Bi^SS. Таким образом, ра- равенства A6) или A7) можно взять за определение не- независимости случайных величии |ь ..., |„. Если случайные величины дискретны, то из A7) сле- следует, что за определение независимости в этом случае можно принять равенство P{ii = *i, ''=! п} = ПР{Ь = 4 A8) справедливые при всех возможных #,-. Для распределе- распределений с плотностью pjj... 1 (jci, •••. Хп) за определение независимости можно взять равенство /V..eB(*i хп) = Pi, (xi) ... Ptn(xn), A9) так как из A9), в силу A3), вытекает A5), а из A7) следует A9).
§ 29. НЕЗАВИСИМОСТЬ СЛУЧАЙНЫХ ВЕЛИЧИН 97 Если |ь ..., |„ независимы и gi(x)— борелевские функции, то случайные величины gi(li)» ••• »£«(!«). • также независимы, так как $£gi (|^ s $£i{. Аналогично можно определить независимость векто- ров £, = (£л tir) как независимость порожденных ими а-алгебр где <^f-ii = s^iil itr . Иначе это определение можно записать в виде равенства справедливого для любых борелевских бге^г'. Анало- Аналогично, если |i, .. , |п независимы, gi(x)—борелевские функции, отображающие Rr* в RSi, то векторы gi(|i), g2ih), ..., gniln) также независимы. Формула композиции. Пусть | и т| — независимые случайные величины, /?{, рч — их плотности. Плотность совместного их распределения равна Psn(*>#) — = Pl(x)Pi\(y)- Функция распределения суммы i + rj равна следующему интегралу: $ Pl(x)Pri(y)dxdy. B0) Интеграл в B0) можно вычислять как повторный (для непрерывных плотностей — это факт из анализа, в об- общем случае — следствие теоремы Фубини, доказываемой в теории интеграла Лебега), поэтому s = \ p%(x)dx pri(y-x)dydx= \ dy \ pi{x)p4{y-x)dx. оо — OO —00 •—OO —*OO Формулы OO Fun(z)= \ F4(z-x)Pl(x)dx — 00 4 Б. А. Севастьянов
98 ГЛ. 6. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ (ОБЩИЙ СЛУЧАЯ) В J Ръ (х) р„ (г — *) dx восят название формул композиции или свертки. С поч мощью их мы выражаем плотность р1+ц{г) и функций распределения Fi+1i(z) суммы независимых случайны* величин через плотности и функции распределения сла- слагаемых. Пример 3. Пусть | и х\ независимы, Р({х)]-- функ* ция распределения £, а т) имеет плотность Ь- для а< 0 в остальных случаях. Применяя формулу композиции, имеем откуда получаем, делая в интеграле замену г — х* z-a Отсюда следует существование плотности Задачи 1. На прямоугольнике 0<*<а, 0 < г/ < 6 с равномерным распределением случайно берется точка (дс, ?/). Наитн функцию распределения и плотность площади \ прямоугольника с верши» вами @, 0), @, у), (дс, 0), (х, у). 2. На отрезке [О, I] независимо друг от друга берутся две слу- случайные точки с равномерным распределением. Найти функцию рас- распределения F(дс) и плотность р(дс) расстояния между ними. 3. Пусть случайные величины fei с функциями распределения Fi(x) независимы. Найти функцнн распределения a) max{£i £„}; б) mHli, ...,%„}. 4. Пусть случайные величины |i, . •., £л независимы н одинаково распределены с функцией распределения F(x) и плотностью р(х). Упорядочив нх по возрастанию, образуем «вариационный» ряд
ЗАДАЧИ Id) < |B) <■■■"< !(-■). Найти плотность распределения |<*> и дву- двумерную плотность распределения |<*, и |(о, k < I. 5. На прямоугольнике 0 <: * ^ в, Q ^у ^Ь случайно с равно* мерным распределением берется точка. Доказать, что ее коорди* наты (\, л) независимы. 6. На круге хг + уг ^ R2 с равномерным распределением слу« чайно берется точка. Показать, что ее координаты (£, г\) зависимы. 7. Найти плотность распределения суммы 5i + 1г независимых случайных величин, если их плотности р (*) я Я-е"*1'*, х ^0, р5 (а;) =0, х < 0. 8. Найти плотность распределения рп(*) суммы £i + ... + 8« независимых случайных величин, каждая из которых имеет плот- плотность %е~Кх, х^в. 9. Случайные величины %[, %$ независимы и имеют плотность в~х, х > 0. НаЛти функцию распределения r\ = t ' t ■. Si + sa
Глава 7. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ § 30. Определение математического ожидания Математическое ожидание М| случайной величины ! = !((о), заданной на вероятностном пространстве (Q, бФ, Р), определяется последовательно сначала для простых случайных величин, затем для неотрицатель- неотрицательных случайных величин и, наконец, в общем случае. I. Мы будем называть случайную величину | про- простой, если она представима в виде i = IH= tx,iAlH, A) где события Аи А2, ..., Ат составляют разбиение, т. е. т AiAj = 0 при 1ф\ и X A{ — Q. Для простой случайной величины A) М£ определяется равенством II. Для неотрицательной случайной величины | ма- математическое ожидание определяется как предел М|=ПтМ?„ B) Л-»оо (конечный или бесконечный), где in(«)f |(«) для каж- каждого шей, |п — последовательность простых случай- случайных величин. III. В общем случае любая случайная величина £ однозначно представима в виде 6 Ь+ Ъ- S — S 5 > где l+==U{\>o), i~ = li|/{5<o}. Полагаем М| = МГ-МГ, C)
S 30. ОПРЕДЕЛЕНИЕ МАТЕМАТИЧЕСКОГО ОЖИДАНИЯ 101 если правая часть равенства C) имеет смысл, т. е. если MS+ и М£~ не равны оо одновременно. Если MS+ = ==М|~ = оо, то мы говорим, что М| не существует. Если М|+ = оо, М|~<оо, то полагаем М| = оо. Если М|~ = оо, М|+ < оо, то полагаем М| = — оо. Определенное выше математическое ожидание MS обладает следующими свойствами. 1°. Свойство линейности. Пусть М|, Мл и MS + Мл существуют и с — константа. Тогда 2. Свойство положительности. Если S > О, то и Щ > 0. Если MS и Мл существуют и |>Л. то М|>Мл. 3°. Свойство конечности. Если М| конечно, то и М | S I конечно. Если ISI ^ Л и Мл конечно, то Щ конечно. Если MS и Мл конечны, то М (S + Л) конечно. Эти свойства мы докажем ниже параллельно с дока- доказательством корректности определения математического ожидания. Здесь лишь заметим, что MS всегда сущест- существует и конечно, когда | — простая, и MS существует для всех неотрицательных S> И, наконец, заметим, что свой- свойство 3° вытекает из определения М|=М|+—MS~> M||| = = MS+ + М|~ и из свойств Г и 2°. Корректность определения М|. Для того чтобы дан- данное выше определение MS было настоящим определе- определением, нам надо убедиться в его корректности, т. е. не- независимости MS от представления A) простой случай- случайной величины | и независимости предела B) от выбора последовательности простых случайных величин Sn t S- I. Простые случайные величины. Пусть имеется два представления одной и той же случайной величины /fe D) п где {А)} и {BJ — разбиения. Поскольку Л/=Х^/^б m при каждом ; и Вк = X A-fib при каждом k и для
102 ГЛ. 7. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ юеЛ/ЛВ* 1(®) = х, = ук, то т т п Ml = Е х,Р (Л,) = Е g ft—I J=l A—1 Доказательство свойств. 1°. Пусть случайные величины | и ц представимы в виде D). Так как {Л/В*}, /'=1, .... m; k — = 1, ..., п, — разбиение и для юЛБ |() ( + ь, то откуда следует т п т п мA + л)= S S(^ + ^)Р(ЛА)= S*/ZР(ЛА /—16=1 /—1 б—i п т т п Z vu S р М,в*) = Z я—1 /—1 /—1 ft—1 т Если ^ представимо в виде A), то с£=£ сл;»/^ и A) | 2°. Если ^>0, то в A) все х{^0, поэтому М£>0. Если |>л, то | = л + A-Л) и М| = Мл + М(|-л)> > Мл. так как из I — ц > 0 следует М (I — л) > °- II. Неотрицательные случайные величины. Если | ^: 0, то всегда существует последователь- последовательность неотрицательных простых £„ таких, что £n(to)f £(w) при любом шей. За такую последовательность можно взять, например, П ft-1 IT 2n Нетрудно видеть, что 0 s^ \n «^ ln+i <| и при |(ю) ^ п следовательно, |п(ю)|^(ю) для любого ©ей.
$ 30 ОПРЕДЕЛЕНИЕ МАТЕМАТИЧЕСКОГО ОЖИДАНИЯ 103 Покажем теперь, что для любых двух последова- последовательностей 0 ^ !„ f I, 0 ^ ч\п f n простых случайных ве- величин lim М1п = lim Мл*. F) я-»оо п->оо Докажем сначала лемму. Лемма 1. Пусть rj и £„— простые неотрицатель- неотрицательные случайные величины и |« f !■ ^ ц. Тогда lim М|„>Мл- я~>оо Доказательство. Пусть е > 0. Обозначим Ап = = {°>: ^(^^ЧО9) —е}. Тогда Ап | 0 при л-*оо, сле- следовательно, Р(Л„)|0. Далее, из очевидных неравенств и свойства 2° математического ожидания где число с выбрано так, чтобы т) (©) ^ с при любом weQ. Имеем а так как Р(Л„Ц0, то lim М|„^ Мл —е при любом в > 0. Поскольку е произвольно, то отсюда получаем доказываемое неравенство. Используем теперь это неравенство для доказатель- доказательства F). Пусть |„ f I, r\n f | — две последовательности простых случайных величин. Зафиксируем m и применим 1Т1> лемму. Получаем lim М|„>Мпт. откуда следует lim М|„^ lim Мт]„. Меняя местами |„ и t\n, n-*ot> n->« приходим к равенству F). Доказательство свойств. 1°. Пусть 0<1Л 1, 0<лЛл- Тогда |„ + *кП + П и по определению = Нт М(|/1 + л„)= Mm М|„+ lim Мл„ =
104 ГЛ. 7. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ Если £ >= 0 и с >= 0, то из 1п f £ следует с|„ f с| и М(с|)= lim M(c|n) = clim М|„ = сМ|. П~>Ов В~>оо 2°. Из 0 < |„ f I следует 0 < М|„ f Мб. Если g > л. то из | = Л + (£ — Л) вытекает М| = Мл + М(| — л)>= Мл. 3°. При |>0 имеем ||| = | и М|||=М|. Если 0<Ki и Мл < оо, то из М|<Мл следует М| < оо. III. Общий случай. Так как разложение § = |+ — |- единственно, то ма- математическое ожидание М|=М|+ —М|~ определяется однозначно, если оно существует. Доказательство свойств. Г. Из | = |+— |~ следует eg = cl+ — cl~ для с> 0 и с| = |с||- —|с||+ для с <0. Отсюда М(с|) = сМ|. До- кажем теперь свойство аддитивности М (| + Л) = М| + + Мл- Заметим прежде всего, что из равенства | = Si — — h, где |, ^0, |2 > 0, следует & = &+ + б, |2 = |- + + б, где б ~^i 0. В самом деле, из равенства | = |+ — — \~ = h — h вытекает, что li — |+ = |2 — I" ^ 0; обозначая gi — g+ = 6, получаем |2^|~ + б. Далее, из | = |i — |г нетрудно получить М|^М|] — М|2. если М|ь М|2 конечны. Поскольку | + Л = (S+ + Л+)—(S" + + Л~). т0 из только что доказанного равенства имеем откуда уже легко следует М (| + л) = М| + Мл. Этот вывод справедлив, когда MS и Мл конечны. Случай бесконечных М| или Мл легко анализируется отдельно. 2°. Докажем, что из 1~^ц и существования М| и Mrj следует М| ^ Мл- Случай Мл = —оо тривиален. Пред- Предположим, что Мл > —°°. Тогда в разложении | = = Л + (S — Л) можно воспользоваться аддитивностью математического ожидания М£ = Мл + М(| — ц) и нера- неравенством М(| —л)^0- Получаем М| ^ Мц. 3°. Так как из | = |+ —Г следует |S| = g+ + S~, то из конечности М| следует конечность М|+ н М|~. Все остальные свойства 3° проверяются просто. Мультипликативное свойство. Теорема 1. Если | и ц независимы и имеют конеч* ные математические ожидания М| и Мл. то G)
$ 30. ОПРЕДЕЛЕНИЕ МАТЕМАТИЧЕСКОГО ОЖИДАНИЯ 1С5 Доказательство. Пусть | и л\ независимы. Если г п I и л простые и представимы в виде £ = X хк1лк, л — й^ 1 П = S^/fl/, где х{<х2< ... <хт, */,<*/,< ... <уп, то Р {AkBL) = Р (Ак) Р (Bi). Поэтому ц % Е kyJAkh % Е т п т S S kyl(k)(l)Ylk(k)Yty -l l-l k-l l-\ Если неотрицательные g, т) независимы, то простые |., = = ^n(S) и т)п==^п(т)), построенные по формуле E), тоже будут независимы. Поэтому М|плп = М|п • Мт1„. Так как |„ f |, Ля t Л. то |пЛл t 1л и М|„лп t Щ,П- Таким образом, равенство G) доказано для неотрицательных | и т). В общем случае | = |+ — |~, т) = т)+ — т)-. Так как ^ и ц* есть функции от | и ц, то они независимы. По- Поэтому М (|+ - Г)(Л+-Л")=М|+л+-М|+л = М|+ • Мл+ - М|+ • Мл" - МГ • Мл+ + М Теорема доказана. Следствие 1. Если |ь ..., |„ независимы и имеют конечные математические ожидания, то Mli ... |„ = М| М| Доказывается по индукции. Интеграл Лебега. Данное нами определение мате- математического ожидания есть не что иное, как инте- интеграл Лебега от функции ! = £(©) по вероятностной мере Р. Для такого интеграла используют обозначения $1(«>)<2РИ, $i(«>)P(<iG>), $S(«>)<2P, \ldP, причем при Ы Q Q Q интегрировании по всему пространству Q иногда вместо \ пишут просто \. Интеграл Лебега по множеству
106 ГЛ. 7. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ Де^ определяется как интеграл от %1А, т. е. Рассмотрим вероятностное пространство {R,$, Pj), где R — прямая, Si — а-алгебра борелевских множеств на ней, Р^ — распределение вероятностей случайной величи- величины |. Интеграл Лебега \g(x)dPi(x) от борелевской функции g(x) иногда записывается как ]g(x)dFl(x) и называется интегралом Лебега — Стилтьеса. Здесь Р$(х) — функция распределения |, которая порождает вероятностную меру Р| Свойства сходимости. Докажем две теоремы о пере- переходе к пределу под знаком математического ожидания. Теорема 2. (Теорема о монотонной сходимости.) Если 0 < In | I, то lim M£n = M|. (8) Доказательство. Так как 0 ^ \п ^ |, то <М|„<М| и Введем простые случайные величины |„», так что 0^ ^\ f in при k -*■ оо. Случайные величины л* = шах \„к также будут простыми. Так как \nk<. max то последовательность Tife монотонно возрастает. Обозна- Обозначим т) предел lim цк. При каждом k ти^£ь поэтому ft» 00 lim Мл*=Мт)< lim M|ft. (9) ft ft ft-»oo Далее, при n^k Ъяк^Чь^Ч! полагая А->оо, имеем |га<т1 при всех п, откуда Кч и M|<Mt|, что вместе с (8) и (9) доказывает теорему.
« 30. ОПРЕДЕЛЕНИЕ МАТЕМАТИЧЕСКОГО ОЖИДАНИЯ 107 «о Следствие 2. Если ряд £ In состоит из неотри- цательных случайных величин, то _ .., (Ю) л-1 / n-1 Доказательство. Последовательность Лл — п = И Ik частных сумм удовлетворяет условиям тео- теоремы 2, поэтому lim МЛп=М lim лп> а это —другая П~>оо П~>оо запись равенства A0). Следствие 3. Если Мл конечно и события Л„| 0, то П->«> П Доказательство. Если | Мп К оо, то М | л К °°» Разложим |л1 на сумму 'П„ + Л^» где Л^^1л1^» По теореме 2 НтМл^ = М|л1> поэтому lim Мл„ = 0. Из | Щ1Ап | < М | л! hn -+ 0 вытекает A1). Теорема 3. (Теорема Лебега о мажорируемой схо- сходимости.) Если lim |„ = | (в каждой точке ией) н И* К Л. где Мл<<», то НтМ|„=М|. A2) П~>оо Доказательство. При любом е > 0 последова- последовательность событий Ап = {ю: sup |\m(©) —1(©) |<е} та- кова, что Л^|0. В сумме 1„ = 1„/^ +^п% слагаемые ^„ + е> - л/Jn < 6e/Jft < л/jn, оцениваются так: откуда М| - е - 2Мл/^ < М|„ < М| + в + гМл/j • A3)
108 ГЛ. 7. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ Переходя в A3) к пределу по п-*-оо н применяя след- следствие 3, имеем П-»оо Поскольку е>0 произвольно, отсюда получаем A2). § 31. Формулы для вычисления математического ожидания Как мы уже отмечали в § 27, случайная величина 1 = |((о), заданная на вероятностном пространстве (О, s4-, Р), с точки зрения ее вероятностных свойств вполне характеризуется своим распределением вероят- вероятностей Р\, поэтому ее можно рассматривать опреде- определенной на вероятностном пространстве (R, 3$, Р$) функ- функцией \m*\(x) = х, x&R. Отсюда можно сделать вы- вывод, что математическое ожидание М| = \ | (ю) Р (da) на а самом деле не зависит от вида функции |(со), соей, а зависит только от распределения вероятностей Р$. В са- самом деле, для неотрицательных случайных величин | имеем Щ— Urn Щп, где п-2" А—1 Эту сумму можно выразить через закон распределения P A5) Предел lim М|„ в A4) мы обозначали как интеграл Лебега \ i («>) rfP (со); тот же предел в A5) будет интег- а 00 ралом Лебега V xdP\{x), который также называют ин-
S 31. ФОРМУЛЫ ДЛЯ ВЫЧИСЛЕНИЯ 109 00 тегралом Лебега — Стилтьеса и обозначают \ xdF\(x). 8 Применяя то же рассуждение к |+ и |~, мы получаем выражение для S = g+ — %~: М|= \xdFi{x), A6) зависящее только от распределения случайной вели- величины \. Если М| конечно, то в формуле A6) мы можем по* нимать правую часть как несобственный интеграл Ри- мана — Стилтьеса (в этом случае он сходится абсо- абсолютно) . Интеграл Римана — Стилтьеса от g(x) на конечном отрезке (а, Ь] по неубывающей функции F(x) с конечным изменением F(b)—F(a) определяется как предел n-l lim a Ь \g(x)dF{x) - Несоб- ственный интеграл \ g (x) dF (x) определяется как предел — оо ь lim \ g (x) dF (х). Если F (х) имеет производную р (х) и F (х") — !-> — оо J й->оо а Xй _/?(*')= [ p(u)du для всех а <*'<*"<Ь, то \ g (x) dF (x) X' Р Выведем формулы, по которым вычисляются Щ> и Mg(!) для непрерывных случайных величин.
!ГО ГЛ. 7. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ Теорема 4. Если случайная величина | имеет плот- со ность ps(x) и \ \x\pl(x)dx< оо, то xpx(x)dx. A7) Доказательство. Мы будем предполагать, что плотность р,(л')=р(я) интегрируема по Риману и спра- Во в A7) стоит несобственный интеграл Римана (дока- (доказательство остается справедливым и для интеграла Ле- Лебега). Рассмотрим сначала неотрицательную случайную ве- величину | с функцией распределения о F@) F@) при х < О, при х = О, (ц)с?ы при х>0. A8) Обозначим ЛА«= | —2^— < I ^ ^тг I и введем последова- последовательность простых случайных величин А-1 Тогда М1«=» Ига М|„. Имеем М|я (А-1)'2П и
S 31. ФОРМУЛЫ ДЛЯ ВЫЧИСЛЕНИЯ 111 Переходя в неравенствах Я оо $*p(*)rf*--ir<Mgn<$ xp(x)dx о о к пределу по я-»-оо, устанавливаем справедливость A7) для неотрицательных случайных величин. В общем слу* чае | = £+ — £- и |+ и |- имеют распределения вида A8) с плотностями (при х> 0) ръ+ {х) = р (*) и р?_ {х) =я = р (— *). Имеем М£ = М£+-МГ = ОО ОО ОО = \ хр {х) dx — \ лср (— лс) rfjc = \ ^р {х) dx. О 0 -оо Теорема 5. Если | ы^еег плотность р%(х), функция ОО g(jc) непрерывна и интеграл \ \ g(x)]p^(x)dxсходится, то — ОО (*)pt (*)<**. A9) Доказательство. Сначала рассмотрим p рывные функции g{x), равные нулю вне интервала [а, Ь]. Для каждого п = 1, 2, ... положим xnk = a-\- О при лс^а или х>Ь, при хп, ft_! <. Пусть е > 0. Тогда найдется такое По, что для всех и ^ По и всех х s [a, b] справедливо неравенство \gn{x) — g{x)\<B, т. е. gn(x)-*-g(x) при п->оо рав- равномерно по х. Кроме того, при. п^по и g{x) ограничена. Применяя теорему Лебега о мажо- мажорируемой сходимости, имеем B0)
112 ГЛ. 7. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ С другой стороны, л *nk Ь Mgn (I) = £ £ (*лй) ) P(x)dx=)Sr,(x)p{x)dx. ft=1 *n,k-l a Отсюда и из неравенства |gn(*)—gMl^e имеем при ь \g(x)p{x)dx-Mgn(t) а Отсюда и из B0) получаем равенство A9). Рассмот- Рассмотрим теперь неотрицательные g{x)^0. Положим g{x) при |*|<п, 0 при \х\>п. Случайные величины f]n = gn{t) монотонно сходятся к r\ = g{%), поэтому по теореме о монотонной сходимости Mgn(l)tMg(|). Отсюда и из Л ОО Mgn(t)= \g(x)p(x)dx-* \ g(x)p(x)dx —л —оо следует A9) для неотрицательных g{x). В общем слу- случае g{x) = g+{x) — g-{x), где g+{x) = max{g{x) 0), g~ {x) = —min {g {x), 0}. Имеем оо оо оо J g+{x)p{x)dx- 5 rW^W^= S g(x)p(x)dx. Теорема доказана. Теоремы 4 и 5 почти так же доказываются и в слу- случае произвольного распределения Fi{x) с заменой A7) и A9) на интегралы Стилтьеса (Римана — Стилтьеса): М|= J xdFiix), B1) — оо оо = J g(x)dFl(x). B2)
S 31. ФОРМУЛЫ ДЛЯ ВЫЧИСЛЕНИЯ 1!3 Равенства B1) и B2) имеют место, когда интегралы сходятся абсолютно. Для дискретных случайных вели- величин B1) и( 22) переходят в ряды j-*»}, B3) J {£ = **}. B4) причем равенства B3) и B4) имеют место, когда ряды сходятся абсолютно. Замечание 1. Формулы A9), B2), B4) справед- :?ивы и в более общем случае, когда борелевская функ- функция g{xu .... хт) отображает Rm в R1. Пусть случай- случайный вектор |=(|i, .... \т) имеет функцию распреде- "ИЯ F ?, ». lm(*l' ' ' " Хт) И ПЛОТНОСТЬ р^ _ xJxx xj (если она существует). Тогда имеют место следующие формулы для вычисления математических ожиданий: к1 .. . dxm. Доказательство аналогично тому, которое проводится в случае формул A9), B2), B4). Замечание 2. При вычислении математических ожиданий Mg, Mg(|) очень часто используются приемы, позволяющие обходить формулы A6), A7), A9), B2) — B4), тем более, что нередки случаи, когда закон распределения либо очень сложен, либо вообще не вы- выписывается в явном виде. Один из таких приемов со- состоит в том, что случайная величина |, математическое ожидание которой мы собираемся вычислять, представ- представляется в виде суммы более простых случайных величин (например, индикаторов): | = 0i + 02 + • ■ • +9» и да-
114 ГЛ. 7. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ лее используется аддитивное свойство М£ = M9i + М92 +• + ... + М9т. Другой прием вычисления математиче* ских ожиданий связан с использованием производящих и характеристических функций (см. гл. 8 и 9). В § 13 мы изучали некоторые свойства математи- математических ожиданий в конечной схеме. В этой главе мы установили, что математическое ожидание Mi в общем случае обладает теми же самыми свойствами, если толь- только предполагать в соответствующих местах существова- существование или конечность М£. Так же, как в гл. 3, в общем случае определяются моменты k-то порядка, централь- центральные, абсолютные и абсолютные центральные моменты, в частности дисперсия, ковариация, коэффициент корре- корреляции. Доказательства неравенств Иенсена, Коши — Бу- няковского, Ляпунова, Чебышева, данные в гл. 3, легко переносятся и на общий случай. Аналогично доказа- доказательство теоремы Чебышева (закон больших чисел) в § 18 дано в такой форме, которая годится и для об- общего случая. Мы будем в дальнейшем пользоваться этими результатами, не проводя здесь еще раз доказа- доказательств, которые были даны в гл. 3 в конечной схеме. Вычислим Мл и Dt] случайной величины ц, распре- распределенной нормально с параметрами @,1): 1 Г V2ji J хе т V231 т= \ е 2 dx=\. 2я J 09 При вычислении Dt] мы воспользовались методом ин- тегрирования по частям, полагая о = х, и = j=-e 2 , dv = dx, du = -4=e~ 2 . у2 у Если т) распределена нормально с параметрами @,1), то I = от) -f a имеет нормальное распределение с пара-
ЗАДАЧИ 116 метрами {а, о) и М| = а, Dg = a2. Таким образом, па- параметры нормального распределения а и а равны ма- математическому ожиданию и среднему квадратическому отклонению. Вычислим М| и D| равномерного на [а, Ь] распре- распределения. Имеем _Ь*+аЬ _ а) s Вычислим MS и 0% гамма-распределения: a uj Г(о+1) a ue du==-msr=T Г (a+ 2) a(a+l) Я,3Г(а) "s Ji1 Задачи 1. Случайная величина | имеет нормальное распределение с па- параметрами @, а). Найти ее моменты Щп. 2. Найтн М«** для случайной величины | в задаче 1. 3. Вычислить Mg" при натуральном п, если 1 имеет нормальное распределение с параметрами (а, о). 4. Случайные величины $(., i—1 п, независимы, (>?^ = а(-, 0|( = ог|. Найти дисперсию Drtrt> где т)„ == |j|3 — §„. 5. Неотрицательные случайные величины |ь ..., \п независимы и одинакойо распределены. Найти математическое ожидание Мт)А
И б ГЛ. 7. МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ случайной величины У, h + «о где а > 0 — константа. 6. Случайная величина I имеет Г-распределение с плотностью ~YTY~e ' *^0- Найтн ^1 • При каких 0 это математическое ожидание конечно? 7. Случайные величины (|, т))—это координаты равномерно распределенной точки в круге х2 + У2 ^ Л2. Найти нх математиче- математические ожидания н дисперсии.
Глава 8. ПРОИЗВОДЯЩИЕ ФУНКЦИИ § 32. Целочисленные случайные величины и их производящие функции Дискретную случайную величину %, принимающую только целые неотрицательные значения, будем назы- называть целочисленной случайной величиной. Закон распре- распределения целочисленной случайной величины опреде- определяется вероятностями Р„ = Р{| = «}, « = 0, 1, 2 A) для которых л-0 B) Закон распределения A) удобно изучать с помощью производящей функции, которая определяется как сле- следующее математическое ожидание: Через закон распределения A) производящая функция выражается суммой ряда который абсолютно сходится при Р Ф |^ 1. Поскольку « = 0, 1, 2 D) то между законами распределения {рп} и производя- производящими функциями равенства C) и D) устанавливают взаимно однозначное соответствие. Определенная рядом C) производящая функция называется иногда вероят- вероятностной производящей функцией. Производящей функцией
118 ГЛ. 8. ПРОИЗВОДЯЩИЕ ФУНКЦИИ любой числовой последовательности по, п\, а^, ... назы- называется сумма ряда а0 + axs + a2s2 + ..., если он имеет ненулевой радиус сходимости. Из B) сле- следует, что вероятностная производящая функция ф^ (s)^ в точке s = 1 равна 1. Вычислим производящие функции распределений не- некоторых целочисленных случайных величин. 1) Биномиальное распределение. n m = 0, I, 2, ..., n, p + q = <p(s)=llCZpmqn-msm = (ps + qT. m-0 2) Пуассоновское распределение. а n Р{& = «} = ^е~а, я = 0, 1,2, .... п-0 3) Геометрическое распределение. P{l = n) = qnp, я = 0, 1, 2, ..., p + q=\, n-0 § 33. Факториальные моменты Вместо моментов М£г в случае целочисленных слу- случайных величин удобнее иметь дело с факториальными моментами M£|rl, где Iй = 1A—1) •■■ (i — г + 1), Б'01=1. Через факториальные моменты Mglrl можно выразить моменты М|г и наоборот. Например, первый факториальный момент есть просто математическое ожидание, a Ml2 = М£|21 + Ш и, следовательно, D£ = = М&121 + Щ - (ШТ. Факториальные моменты легко вычисляются через производные производящих функций в точке s = 1.
§ 33 ФАКТОРИАЛЬНЫЕ МОМЕНТЫ 119 Имеет место равенство М|И = qf(l), E) справедливое при любом целом неотрицательном г. Если ряд C), определяющий <Pfc(s), сходится в какой-либо точке s > 1, то его можно дифференцировать почленно в s = 1, и мы получаем В противном случае мы определяем Ф^г)A) либо как limq>(r)(s). либо как левую производную в s = 1, определяемую предельным переходом ф№)A) = *=hm — ——г s последовательно при А = А+0 л = 1 г, <р<6> (s) = ф (s). В обоих случаях получаем F). Поскольку £ G) то F) и G) доказывают E). Заметим, что в равен- равенстве E) обе части могут быть бесконечными. Таким образом, М| и D£ можно следующим обра- образом выразить через производные ф$ (s): (8) (9) Вычислим с помощью (8) и (9) Mg и D| биномиального, пуассоновского и геометрического распределений. 1) Биномиальное распределение. <р'г (s) = tip (ps + qf- \ ^ (s) = ft (« - 1) p2 (ps + qf-\ M| = tip, Dl — n(n — 1) p2 + np — ntp2 = npq. 2) Пуассоновское распределение. (s) = aea <*-'>, Ф^' (s) «= aV <•-•>,
120 ГЛ. 8. ПРОИЗВОДЯЩИЕ ФУНКЦИИ 3) Геометрическое распределение. Многомерные производящие функции. Аналогичным образом можно определить многомерные производящие функции. Пусть | = (|ь .... Ь)—случайный вектор с целочисленными неотрицательными компонентами \и Обозначим Ра=Р {£ = <*}, где а = (ai а,) — возможные значения вектора £. Многомерной производящей функцией называется ФЕ (s,, .... sr) = Ms}'s|* ... sl/ = £ p^' ... s^. а Она обладает свойствами, аналогичными свойствам од- одномерных производящих функций. В частности, с по- помощью производных <pt(si, .»., sr) вычисляются сме- смешанные факториальные моменты sr) ds\ldsk2i...dslrr Пример. Полиномиальное распределение имеет производящую функцию 4>г (s, sr) = (p,s, + ... + рл)"- § 34. Мультипликативное свойство Теорема 1. Если |ь |г £л — независимые 'лочисленные случайные величины, <р, (s), А = 1, ...,«, их производящие функции, то
S 34. МУЛЬТИПЛИКАТИВНОЕ СВОЙСТВО 121 Доказательство. Из независимости gi, |г, ... ..., In следует независимость s5', slj s*n. Из муль- мультипликативного свойства математического ожидания имеем равенство равносильное A0). Если целочисленные g и г\ независимы и рп — — Р {g = ft}, qn— P{ii = n}, то распределение их суммы г„ = Р{£ + 'п = п} по формуле полной вероятности опре- определяется равенством t{l = k}P{4-n-k} = toPkqn-k. (И) Распределение {/•„} называется композицией или сверт- сверткой распределении {/>„} и {qn}. Теорема 1 позволяет нам иногда с помощью производящих функций находить свертку распределений, не прибегая к формулам A1). Например, из равенства вытекает, что свертка двух биномиальных распределе- распределений с одинаковыми р и разными числами испытаний щ и п2 дает опять биномиальное распределение с тем же самым р и числом испытаний п\ -\- п%. Аналогично, из равенства gO| (S-l) , gOj (S-i) = g^Oi+Oj) (S-1) следует, что композиция двух пуассоновских законов с параметрами а\ и ач дает опять пуассоновский закон с параметром а\ + а* Этим свойством пуассоновских распределений мы пользовались в § 20. Распределение с производящей функцией -Hz— можно интерпретировать как число испытаний в схеме Бернулли до первого успеха. Обозначим в этой схеме %г число испытаний до r-го успеха включительно. Слу- Случайная величина %г представима в виде суммы \т =» = Ti 4- Т2 Ч- ... + Хг, где xi независимы, одинаково рас* пределены и имеют производящие функции фт (s) = } ^ - (xi — число испытаний до первого успеха включительно,
122 ГЛ. 8. ПРОИЗВОДЯЩИЕ ФУНКЦИИ T2 — число испытаний от первого успеха до второго успеха и т. д.). По свойству мультипликативности имеем A2) Разлагая A2) в ряд, получаем a-o —-—— q s = a-0 то oo л—J CXI ^шЛ a-0 a-0 откуда Сумма случайного числа случайных величин. Пусть h, h> ■ ■ ■ — последовательность целочисленных незави- независимых одинаково распределенных случайных величин с производящей функцией q>t(s) и v — независимая от них целочисленная случайная величина с производящей функцией yv(s). Определим сумму случайного числа случайных величии равенствами £v = |i + £2 4: ••<• ... 4- lv при v 3* 1, U = 0. Теорема 2. Производящая функция q>t (s) равна суперпозиции Доказательство. Вычислим <pr (s) = Ms v с по- мощью условных математических ожиданий, используя равенство Получаем % (*) = M/v = М [М (s? v j v)] = М [ф5 (s)Y = <pv что и требовалось доказать.
Щ 35. ТЕОРЕМА НЕПРЕРЫВНОСТИ 123 С помощью A3), (8) и (9) вычислим математиче- математическое ожидание и дисперсию £v: (MiJ + Mv • (Mi2 - Mi) + Mv. Mi - - (MvJ • (MiJ = Dv • (MiJ + Mv • D|. § 35. Теорема непрерывности Докажем, что соответствие между законами распре- распределения {рп} и производящими функциями C) не толь» ко взаимно однозначно, но и взаимно непрерывно. Теорема 3. Пусть yr(s)= Y Р^"» г== *> 2 — последовательность вероятностных производящих функ- оо ций, ф (s) = Y pnsn — производящая функция последова- л-0 тельности {/?„}. Для того чтобы при каждом п lim р£> = р , Г-»оо необходимо и достаточно, чтобы при всех 0 ^ s < 1 lim фг (s) = ф (s). Г-¥оа Доказательство. Предположим,что lim р{£ = рп. Г-*оо Пусть е>0 и 0^s<l. В правой части неравенства fe=0 JV-! оо N-1 , — S k-N A-0
124 ГЛ. 8. ПРОИЗВОДЯЩИЕ ФУНКЦИИ выберем N таким, чтобы sN/(l — s) <e/2, а затем вы- N—1 берем го таким, чтобы £ | р{£ — рк | < е/2 при г^г0. Тогда при тех же г^Го имеем | Фг (s) — q>(s) |<e, что и доказывает необходимость. Докажем теперь доста- достаточность. Из ограниченной последовательности 0 ^рог) ^1 выбираем сходящуюся подпоследовательность рог1^-*ро. Из ограниченной последовательности 0^/>(,г1><; 1 вы- выбираем сходящуюся подпоследовательность р'{2)-+р1 и т. д. Из последовательностей />Г>. />BiI). pfl)> ••• выбираем диагональную сходящуюся подпоследователь- подпоследовательность /><[■•г), которая сходится к рп при любом п. Пред- Предположим, что хотя бы при одном п последователь- последовательность р^г) не сходится к рп. Тогда можно выбрать две сходящиеся к разным пределам подпоследовательности Р{п']~-*Р*п> Р{п")~^'Р*п- По первой части теоремы 4>r,(s)-* -*Ф*(«) = Z P'ns" и <prV(s)-+q>**(s)= Y. Pn"s"- Так как по n n условию ф„ (s)-* <p (s), то ф* (s) = ф** (s) = ф (s) и />* = = /7Г = Р»' T- e- Hm/>« = />„. Г-»оо Замечание. Как показывает пример фг($) = 5г-* -».0 = фE), 0^s<l, предельные величины рп могут не образовывать распределение вероятностей, так как, вообще говоря, Z^Pn^l- Если потребовать, чтобы л-0 оо Нтф(«) = 1, то Yi Рп~ 1 и в пределе мы получаем рас- пределение вероятностей {/>„}• Применим теорему 3 к доказательству предельной теоремы Пуассона (см. § 20):
§ 36. ВЕТВЯЩИЕСЯ ПРОЦЕССЫ 125 Производящая функция биномиального распределения для Р = ~ равна Из равенства а lim fl П-Юо V по теореме 3 вытекает A4), что и доказывает предель- предельную теорему Пуассона. § 36. Ветвящиеся процессы Проиллюстрируем применение аппарата производя- производящих функций на примере ветвящихся процессов. Пусть имеются некоторые однотипные частицы, которые раз- размножаются независимо друг от друга. Пусть рп— ве- вероятность того, что одна частица превращается в п час- оо тиц, <p(s)= Yi PnSn — производящая функция распреде- распредели ления вероятностей {рп}. Обозначим [i(t) — число частиц в t-м поколении и ф* (s) = Ms1*(() — производящую функ* пию [i{t). Предположим, что ц@)=1. Тогда q>i(s) = = (p(s). Пусть In, |/2, •••. %tn, ... —независимые слу- случайные величины с распределением, определяемым про- производящей функцией <p(s). Тогда число частиц ц.(^ —|— 1) в (^ -j- I) -м поколении, согласно нашему определению, есть сумма %t\ + %tz + ... + %t, що случайного числа не- независимых случайных слагаемых {\tk — это число по- потомков /г-й частицы t-vo поколения). По теореме 2 от- отсюда вытекает, что <Pi+i(s) = <M<P(s)). A5) *. е. ф2E)=ф(фE)), Фз(«)= ф(ф(фE))) и <pt{s) есть t-я итерация функции q>(s). Соотношение A5) позво- позволяет нам вычислить МцA) = A(t). Обозначим ф'A) = ~-А. Продифференцируем A5) по s в точке 1. Полу- Получим А(/+ 1) = A(t) -А, откуда A'. A6)
126 ГЛ. 8. ПРОИЗВОДЯЩИЕ ФУНКЦИИ Поведение ветвящегося процесса существенно опреде- определяется значением параметра А — средним числом непо- непосредственных потомков одной частицы. Из A6) мы ви- видим, что при t -*■ оо Л(/)->0, если А<\, А (/) ->ое, если А > 1, Л (/)=1, если Л = 1. Назовем ветвящийся процесс докритическим, надкрити- надкритическим или критическим, если соответственно А < 1, А > 1 или А = 1. Рис. 11. Графики производящих функций <р (s) докритического и кри- критического ветвящихся процессов. Если ц(*)=0, то мы будем говорить, что ветвя- ветвящийся процесс выродился к моменту времени t. Вероят- Вероятность этого события равна то Р{ц(/)«=0}не который мы назовем вероятностью вырождения. Пре- Предельная вероятность q — это вероятность того, что про- процесс выродится в каком-либо поколении. Предположим, что (p(sK& s. Докажем следующую теорему. Теорема 4. Для того чтобы q < 1, необходимо и достаточно, чтобь^ процесс, был надкритическим. Доказательство. Соотношение A5^ можно записать иначе: *))• A7) Тал как {И/) = 0} Е {ц (/+ 1) = 0}, убывает и при /->оо имеет предел lim
ЗАДАЧИ Подставляя в {17J s == 0, имеем 127 A8) Переходя в A8) к пределу по t-*- oo, имеем так как q—\\mqt{Q). Таким образом, а есть решение уравнения ф (s). Это уравнение всегда имеет решение s== 1. Если других решений в [0,1] нет, то отсюда следует, что q = 1,При А ^ 1 других решений уравнения A9) нет, так как при всех 0 ^ s < <. 1 выполнено неравенство s < < 4>(s) (см- Рис И). Действитель- Действительно, 1 — фE) =ф'(в)A — s), где s < 8 < 1, поэтому из ф'F) < 1 вытекает 1 —y(s) < 1 —s. При О < s < 1 вторая производная ф".EУ > 0» поэтому уравнение s = = ф (s) не может иметь более двух корней в [0, 1]. Так как ф@) 3» 0 и при А > 1 существуют Si < 1, для которых ф(«0 < «ь то найдется ко- корень 0 ^ s0 < 1 уравнения A9) (рис. 12). Докажем, что в этом случае q = s0. В самом деле, нетрудно установить, что () при 0 < s < So и f(s)<s при «о < s < 1. () ) () Рис. 12. График произ- производящей функции <р (s) надкритического вет- ветвящегося процесса. ) р () р Так как Фж@) > Ф<@), то из A8) вытекает, что Ф*@)<ф(Ф<@)) при любом t, следовательно, %{0)<s0 при всех t и q— Iim ФДОХ5О< 1. Таким образом, вероятность q не t может быть равна 1, а так как она есть корень урав- уравнения A9), то q — sQ < 1. Теорема доказана, Задачи I. Найти производящую функцию равномерного распределения, сосредоточенного в точках О, I, 2, ..., N— 1. С помощью производ- производных производящей функции вычислить математическое ожидание и дисперсию этого распределения.
128 ГЛ. 8. ПРОИЗВОДЯЩИЕ ФУНКЦИИ 2. Функция 1 — -y/l — s есть вероятностная производящая функция. Найти соответствующее распределение. Что можно сказать о его математическом ожидании? 3. Дана производящая функция <р (s) — ]Г Р {| = п) s" случай- п оо ной величины |. Найти производящую функцию A(s)=> ^ ansa п-о для вероятностей ап «= Р {| > п}. 4. Пусть число потомков одной частицы в ветвящемся процессе определяется производящей функцией Нацги ее /ю итерацию <p(s). Найти вероятность вырождения </.
Г л а в а 9. ХАРАКТЕРИСТИЧЕСКИЕ ФУНКЦИИ § 37. Определение и простейшие свойства характеристических функций В предыдущей главе мы познакомились с аналити- ческим аппаратом производящих функций, который ус- успешно используется в задачах исследования свойств распределений целочисленных случайных величин. В об- общем случае аналогичную роль играют характеристиче- характеристические функции. Для их определения нам нужно понятие математического ожидания распространить на комп- комплексные случайные величины. Пусть £ = % + ir\, где | и т) — пара действительных случайных величин, у кото- которых существуют и конечны М| и Мл- Тогда математи- математическое ожидание комплексной случайной величины оп- определим как сумму М М| М (О Основные свойства математического ожидания (напри- (например, свойства аддитивности и мультипликативности) естественным образом переносятся на случай A), Оста- Остановимся лишь на доказательстве неравенства IMSKMKI. ' B) Если случайная величина £ простая, т. е. принимает лишь конечное число значений £ == г* = я* + lyk, при- причем Р {£ = zk) = pk, то B) есть простое следствие свой* ства модуля комплексных величин: £ £|2ft|p* = M£. C) k Пусть § = §+ — |", rj = Tj+ —1]~, a 1*, t]* — последова- последовательности простых случайных величин, для которых £П*. tftn* и, значит, £„ = С -g;-6, ЛП = Л„+- -— "п~ —> Tj. Тогда £„->£, и по определению Ml, Мц 5 Б. А. Севастьянов
130 ГЛ 'i ХАРАКТЕРИСТИЧЕСКИЕ ФУНКЦИИ имеем М£ = lim М£„, П-»оо где Z,n = tn + ir\n. В силу C) при любом п Покажем, что lim М|£а|=М|£|. В самом деле, из Л->оо и Sa~*S п0 теореме Лебега о мажорируемой сходи- сходимости вытекает М|£„|->М|£|, так как мы рассматри- рассматриваем лишь случай М|£|<°о, M|ti| < оо. Определение 1. Характеристической функцией случайной величины g мы будем называть функцию /$@< от действительного аргумента t, равную /6(*) = Ме«б. D) Раскрывая в D) е'* по формуле Эйлера е'* = cos <p + Г-}- i sin ф, мы имеем Msiny. E) Иногда мы будем вместо fi(t) писать просто f(t). Если F\{x) есть функция распределения %, а р%{х)—ее плот- плотность (если она существует), то по общим формулам вычисления математического ожидания имеем: 00 ОО J eiixdF%(x), h(t)= \eitxPl(x)dx. F) — 00 —ОО Если распределение £ дискретно, то /l @ =Ее"**Р {! = **}• G) к Из F) и G) видно, что характеристическая функция fi(t) вполне определяется функцией распределения f\(x) случайной величины %. Перечислим несколько простейших свойств харак- характеристических функций.
S 37. ОПРЕДЕЛЕНИЕ И ПРОСТЕИЩИв e.BQPICTiBA 131 О 1/@1^1 пРи каждом действительном /;/@)=1. Доказательство просто получается из неравенства B), так как |е"Ч=1 и | /(/) | = | Me |=S^M| е1= 1. 2) /(/) равномерно непрерывна по t. Для доказательства этого свойства установим сна- сначала справедливость следующей леммы, которая нам понадобится далее. Лемма 1. При действительных <р и любом целом п ^ 1 имеют место неравенства n-l kl (8) Доказательство. Поскольку |е'ф|=1, то I ф 1ф / \\eiudu = | ei<s> — 1 | ^ \ du = | ф |. Далее доказываем (8) |и и по индукции. Пусть (8) справедливо при некотором п. Тогда, так как то /г! А-О Для доказательства 2) рассмотрим событие А {|1|^ X] и в правой части неравенства где / и /- — индикаторы событий А н А, применим А А неравенство (8) при п = 1 при оценке первого слагае- слагаемого и je—11^2 при оценке второго слагаемого.
132 ГЛ. 9. ХАРАКТЕРИСТИЧЕСКИЕ ФУНКЦИИ Тогда Пусть е > 0. Выбирая сначала X таким, чтобы Р{| £ | > ^, а затем полагая b — YF' П0ЛУчаем» чт0 в при |А|<6. 3) Если г\■= а£ + Ь, где а и b — константы, то Легко вытекает из определения: f „ @ = Me"* = Me"{al+b) = e""Mettal =e""h (at). 4) Если |i, |2, .... |n независимы, то Из независимости |lf |г In следует независи- мость e , e e , применяя к ним свойство муль- мультипликативности математического ожидания, получаем 5) h(~t) = Вытекает из е"* — е ' и свойства 3). 6) Обозначим ш„ = М|л. £йлы т„ конечно, то суще- существуют все производные fk)(t) с k^n и /w@) = i*M6*. A0) Кроме того, имеет место разложение f (t) = £ ^-mk + Rn((), A1) где Rn[t)— o(tnX при t-*~ oo.
S 37. ОПРЕДЕЛЕНИЕ И ПРОСТЕЙШИЕ СВОЙСТВА 133 Доказательство. Если мы k раз формально продифференцируем D), то получим равенство xkeitx dF%(x). A2) Полагая в A2) / = 0, приходим к A0). Для обоснова- обоснования законности дифференцирования под знаком мате- математического ожидания в A2) рассуждаем по индукции. Пусть формула A2) справедлива при k<,n. Поскольку A3) 5 и М||Г'<оо, то в правой части A3) по теореме Лебега о мажорируе* мой сходимости можно перейти к пределу по Л-»-0. Та- Таким образом мы доказываем справедливость A2) при А+1. Для оценки остаточного члена Rn(t) в A1) при- применим лемму 1 к разности м - V (it fc=o e — («6)* A4) Где А — событие, введенное в 2) (здесь в первом сла- слагаемом мы воспользовались неравенством (8), а во вто- втором — неравенством (АР)* ft-0 [Так как 1а = 1 при п~\ ft-0 "т 7Г> : X, то из A4) получаем (п + 1)! ^ пГ М I ^ I !А'
134 ГЛ « ХАРАКТЕРИСТИЧЕСКИЕ ФУНКЦИИ Пусть е>0. Выбираем сначала X таким, чтобы М| I f/_< А < -~ , а затем 6= ""^ . Тогда при М1<б имеем l^?n(Ol^^jj е> Что и требовалось. 7) Если <fi(s) = Ms*—производящая функция це- целочисленной случайной величины, то h(t) = <?l(e"). A5) Следует из определения. Вычисление характеристических функций некоторых законов распределений. 1) С помощью формулы A5) получаем характери- характеристические функции следующих распределений целочис- целочисленных случайных величин: а) Биномиальное распределение P{l = m} = C™pm{\-p)n-m, m = 0, 1, .... л, б) Пуассоновское распределение -£е-а, п = 0, 1, 2 в) Геометрическое распределение л = 0, 1, 2, .... q=l—p, 2) Вырожденное распределение Р{| = С} = 1, 3) Нормальное распределение. Если случайная ве- величина | имеет нормальное распределение с парамет- параметрами @, 1), то
§ 37. ОПРЕДЕЛЕНИЕ И ПРОСТЬИШЙЕ СВОЙСТВА 13S Дифференцируя равенство A6) по t, получаем Интегрируя по частям, приходим к дифференциальному уравнению ПО--^Г- = -tf(t). Решая это уравнение с начальным условием Д0)= 1, получаем В общем случае нормального распределения с парамет- параметрами (а, а) имеем, согласно свойству 3): eita-°°m. A7) 4) Равномерное на (а, Ь) распределение Отметим частные случаи A8). При а = —/, b = / имеем еш_е-ш При а = 0, b = L имеем 5) Гамма-распределениес плотностью ха~1 -х Обозначим /а(^) характеристическую функцию, соответ- соответствующую ра[х). Поскольку ра+р(дг) есть свертка уза(х).
136 ГЛ. 9. ХАРАКТЕРИСТИЧЕСКИЕ ФУНКЦИИ „ 1 в 1 2 A~2) d2 = то, в силу 4), /o+fi @ =/а @/р @- Вычислим сначала оо оо /, (л) = \ e%txpx (х) dx = \ eitx~xdx. Интегрируя по частям, о о получаем 0 0 и Из B0) для любого целого п имеем fn @ = A_//)« • Из /, (/) = \]Цп (/)]" получаем fVn (t) = A - г/)'", и, далее, /«.-»(О = Uim (Of = A - ^)~m/". Таким образом, для лю- любого рационального а > О MO-0-flQ-. B1) Так как плотность ра(х) непрерывно зависит от а и,как мы увидим в §39,нзрап(х)-+ра(х) следует fan(t)->fa(t), формула B1) справедлива для всех а > 0. Заметим, что при дробных а из многозначной функции B1) вы- выделяется однозначная ветвь, для которой /а@)= 1. § 38. Формулы обращения для характеристических функций В § 37 мы установили, что каждой функции распре- деления F$(x) соответствует характеристическая функ- функция fi(t). Пусть существует непрерывная плотность Р\(х). Тогда характеристическая функция вычисляется
S 38 ФОРМУЛЫ ОБРАЩЕНИЯ 137 tio формуле со /в@=» S eltxPl(x)dx, B2) т. е. f$(t) есть преобразование Фурье функции pi( И анализе доказывается, что при ^(f)sLi, т. е. при ко- косо нечности интеграла \ \fi{t)\dt, имеет место формула обращения для преобразования Фурье B2): оо йМ = ^ J e~itxh{t)dt. B3) Исходя из этой формулы, мы докажем формулу обра- обращения в общем случае. Сначала докажем несколько вспомогательных утверждений. Лемма 2. Пусть % и х\ независимы. Если § имеет функцию распределения F(x), а у\ равномерно распре- распределена на отрезке [а, Ь), то существует плотность Pi+r\(x), которая выражается формулой п лл- F(x-a)-F(x-b) Доказательство. По формуле композиции CD » —оо а = ТГ7 \ F{z)dz. B4) х-Ь Исходя из B4), мы можем для любых xi < x2 записать [хг-а xi-a -. J F(z)dz- J F(z)dz\=* откуда и следует утверждение.
138 ГЛ 9. ХАРАКТЕРИСТИЧЕСКИЕ ФУНКЦИИ Замечание. Если г\ равномерно распределена на 1-1.1), то f"+"f"" Лемма 3. Пусть % и т\ независимы, £ имеет ограни- ограниченную плотность Р\{х) = р{х) и у\ имеет плотность Рг\\х). Обозначим рв(х) плотность суммы %-\-Qt\, где 0 — параметр. Тогда в точках непрерывности р{х\ имеет место равенство lim р$(х) = р(х). е->о Доказательство. По формуле композиции имеем OG Ре(*)= \ Р(х — 1/)Рц(■!)-/■• — со откуда + J lp(^-f/)-pWlPr,(|)^. B5) Пусть л: — точка непрерывности р(л:). Зафиксируем лю- любое е > 0. Тогда можно выбрать такое б > 0, что при |//|^б выполняется неравенство \р(х — у)—р(*)|^ ^ е/2. Так как плотность р(х) ограничена, то суще- существует такая константа С<оо, что (С Тогда из B5) следует Выберем 0О > 0 так, чтобы Р || Til>-^-| <~ШТ' Тогда при всех |0|=^Оо имесг место неравенство JCb()|
»38 ФОРМУЛЫ ОБРАЩЕНИЯ 139 Формулу обращения в общем случае дает Теорема 1. Пусть fi(t)—характеристическая функция и Fi(x) — соответствующая функция распреде- распределения. Тогда, если точки х-\-1 и х — / являются точ- точками непрерывности функции F\{x), то -.Р {x-i)==]im± Г о-*о я J оо B6) Доказательство. Пусть случайные величины £, т], £ независимы, £ имеет функцию распределения /%(*)> 11 имеет равномерное распределение на интервале (—1, 1), £ имеет нормальное распределение с парамет- параметрами @,1). Тогда по лемме 2 £+/г) имеет плотность + о^ имеет характеристическую функцию поэтому ее плотность ро(л:) выражается по формуле обращения B3): Pa\x)— 1>Г \ e /I V) tt e "'• U'/ По лемме З lim pa (x) = -$ tt-^ 0-»O *l если х + / и x — / — точки непрерывности F\{x). Пере- Переходя к пределу в B7) и пользуясь равенством B8), по- получаем B6). Теорема 2. Каждой характеристической функции соответствует только одна функция распределения () Доказательство. В формуле B6) разность i()Fi(x\) для точек х2 = х-{-1 и *i = х — /не- /непрерывности Fi(x-) однозначно определяется по h(t). Полагая в разности ^(л:2) — Ft(xi) x\-*—с» по точ- точкам непрерывности х\, мы однозначно определяем F(\
140 ГЛ. 9. ХАРАКТЕРИСТИЧЕСКИЕ ФУНКЦИИ В точках непрерывности х% а так как в любой точке = lim F(x2), где предел берется по точкам непрерывности Хг, то F&(x). однозначно определяется fi(t). Теорема доказана. § 39. Теорема о непрерывном соответствии между множеством характеристических функций и множеством функций распределения В § 38 мы установили, что между множеством функ- функций распределения {F$[x)\ и множеством их характери- характерифй i(t)} рр {$) стических функций iti(t)} имеется взаимно однознач- однозначное соответствие. Покажем, что это соответствие не только взаимно однозначное, но и взаимно непрерывное. Определение 2. Мы будем говорить, что после- последовательность функций распределения Fn(x) слабо схо- сходится к F[x), и писать если Fn{x)-*- F(x)] в каждой точке непрерывности пре» дельной функции. Если Fn[x)—функция распределения |„, F[x)— функция распределения |, то мы будем также иногда говорить, что |„ слабо сходится к |, и обозначать |„ Ф |; иногда мы будем говорить, что |„ сходится к % по рас- распределению. Из слабой сходимости |„ Ф | следует, что если только Р {|=^,}=Р {| = л:2}=0. Пример Р {|„=1}= = 1» P{s = O}==l показывает, что из |„=>-| не выте- вытекает сходимость F* (х) -*■ Fp (x) в каждой точке, так как ( = 0 и F5@) Одно из самых важных свойств характеристических функций содержится в следующих двух теоремах. Пусть Гп[х), F(x)— функции распределения, fn(t), f@,— соот- соответствующие им характеристические функции. Теорема 3. (Прямая предельная теорема.\ Если Fn{x)=$F{x), то /„(/)->f{t) в каждой точке L
§ 39. ТЕОРЕМА О НЕПРЕРЫВНОМ СООТВЕТСТВИИ 141 Теорема 4. (Обратная предельная теорема.) Если /'„(/) сходится в каждой точке t к некоторой функции /(/), непрерывной в нуле, то Fnix)^ F(x) и f(t) есть характеристическая функция распределения F(x). Доказательство этих теорем будет следовать из лем- леммы и двух теорем Хелли. Лемма 4. Если Fn(x)'-*- F(x) на всюду плотном на пршюй множестве D, то Fn{x) 4f(x). Доказательство. Пусть х — точка непрерыв- непрерывности F(x), x', /eD и х' < х < х". Имеем ппТ Fn (x) < lim Fn {x") = F {x"). B9) Так как F(x')^F(x)s^F(x") и разность F(x")~F(x') может быть сделана как угодно малой, то из B9) сле- следует lim Fn (x) = F (х), что и требоналось доказать. П->00 Теорема 5. (Первая теорема Хелли.) Из всякой последовательности функций распределения {Fn} можно выбрать слабо сходящуюся подпоследовательность. Доказательство. Пусть D = {**} — всюду плот- плотное на прямой счетное множество. Из ограниченной по- последовательности 0 ^Fn(xi)!^ \ выбираем сходящуюся подпоследовательность Fin(xi), предел которой обозна- обозначим F(xi). Из ограниченной последовательности 0 г£С ^^1/1(^2)^1 выбираем сходящуюся нодпослсдователь- пость Fnn(x2)-+F(x2) и т. д. Далее выбираем диаго- диагональную подпоследовательность F,,n(x), для которой Fnn{xk)-+ F(xk) для любой точки *s e D. По лемме 4 отсюда вытекает Fnn (х) => F (х). Замечание. F{x) может не быть функцией рас- распределения. Например, если Fn(x) = 0 при х <. п и Fn (х) = i при х > л, то Fn (х) => F \х) = 0. Теорема 6. (Вторая теорема Хелли.) Если g{x) — непрерывная ограниченная функция на прямой и Fn{x)=>- *>F(x), F(oo)-F(—oo) = \, то со \g(x)dF(x). C0)
142 ГЛ. 9 ХАРАКТЕРИСТИЧЕСКИЕ ФУНКЦИИ Доказательство. Пусть а < Ь — точки непре- непрерывности F(x). Докажем сначала, что Ь Ь lim \ g (x) dFa (x)=\g (x) dF (x). C1) а а Пусть е > 0. Разделим [а, Ь] точками непрерывности а = Хо, Хи .... Хы-и Хц = b функции F(x) на такие от- отрезки [хц-uXk], что \g(x) — g(xk)\<E для точек хе е [Xk-i, Xk]. Это сделать можно, так как g(x) равно- равномерно непрерывна на [а, Ь], а точки непрерывности /\(л;) расположены всюду плотно. Определим ступен- ступенчатую функцию g&\Х)== g \Xk) на х G\X/i-.\y Xk\, для которой \ge(x)~g(x)\^ е на x^[a,b]. Тогда g(x)dFa(x)-\g(x)dF(x) а Ь <\\g(x)-ge(x)]dFn(x)-h + a - $ gtdF +\\g(x)- ge(x) \dF (x) где M = sup | g (x) |. При n-»-oo последнее слагаемое может быть сделано как угодно малым, откуда и сле- следует C1). Для доказательства C0) выберем Я > 0 та- таким, чтобы F(—X)<e/i и 1 — F(X)<e/4 и чтобы точки ±Я были точками непрерывности F(x). Тогда, так как Fn(±X)-+F(±X), можно выбрать По таким, что при п^по Fn{—X\<e/2 и 1 — Fn{X\<z/2. Оценим
§ 39. ТЕОРЕМА О НЕПРЕРЫВНОМ^ СООТВЕТСТВИИ 143 разность оо g(x)dFn(x)- \g(x)dF(x) л л \ g(x)dF(x)- \ g(x)dFa(x) -X -X + g(x)dFa(x) lx\>X Л Л \g(x)dF(x)- \g(x)dFa(x) -X -X g(x)dF(x) + Me + Me/2. C2) На основании C1) заключаем, что правая часть C2) может быть сделана как угодно малой, что и доказы- доказывает теорему. Доказательство теоремы 3. По теореме 6 из Fa(x)=>F(x) вытекает /„(/)=$ eitxdFn-> $ eitxdF~ = /(/). Можно доказать, что эта сходимость будет рав- равномерной на каждом конечном интервале /. Доказательство теоремы 4. По теореме 5 из последовательности Fn(x) можно выбрать подпосле- подпоследовательность Fnn(х) =>F*(х). Докажем, что F*(x) — функция распределения, т. е. что F*(oo)= 1, /*(—оо)=0. Для этого мы используем неравенство ir- \fV)dt --T i- 1 C3) где /(/)'—характеристическая функция |, X > 0, т > 0. В частности, при тЛ' = 2 C4)
[44 ГЛ. 9. ХАРАКТЕРИСТИЧЕСКИЕ ФУНКЦИИ Докажем C3). Имеем 1 т $' -т @ м sin = откуда и следует C3). По предположению f(t) непрерывна в нуле, поэтому существует такое то > 0, что при 0 < т ^ т© dt -Т 1 - е/4. Так как fn{t)-*~f(t) в каждой точке /, то существует такое По, что при п ^ п0 5МО*- \f(t)dt 2 (теорема 3 § 24 о мажорируемой сходимости). Тогдэ при п ^ п0 ■к > 1 - е/2, и по неравенству C4) P{IIJ<2/t} = == Fn B/т) - Fn (-2/т) > 2 A - е/2) - 1 = 1 - е, т. е. Fn B/т)—Fn (—2/т) ^1—8, следовательно, Т7*(+оо)==» = 1, /"*(—оо) = 0. Докажем теперь, что Fn=>F. Пред- Предположим, что Fni>F. Тогда существуют две подпос- подпоследовательности /г«'=*-/г* и Fn«=>-F*\ По прямой пре- предельной теореме fn,->f*, /„»->/**, но так как /„->/, то /* = /** == /. Теорема доказана.
ЗАДАЧИ 145 Задачи 1. Найти характеристическую функцию распределения, задавав- 1 —1x1 мого плотностью -^- е ' '. 2. Плотность распределения случайной величины g задана фор- формулами f с положительными аи р. Найти характеристическую функцию f|@- 3. Пусть }i(t) и /г@ —характеристические функции, 0 < р < 1 r(O /(O + U )Ы0 б й у }i() /г@ рр фу < р < Доказать, что r(O = P/i(O + U —Р)Ы0 тоже будет характеристи- характеристической функцией. 4. Если f(t)—характеристическая функция, то Re f(t) также будет характеристической функцией. Доказать. 5. Пользуясь простейшими свойствами характеристических функ- функций, показать, что функции: a) sint, б) sin<+ 1,в) . • 4|, г) |cos<| ие могут быть характеристическими. в. Показать, что характеристическая функция f| (t) случайной величины £ вещественна при всех t тогда и только тогда, когда распределение | симметрично (т. е. £ и —| имеют одинаковые рас- распределения).
Глава 10. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА § 40. Центральная предельная теорема для одинаково распределенных независимых слагаемых Ранее мы доказали, что распределение числа успе- успехов ц в схеме Бернулли при п -*~ оо и постоянном 0 < < р < 1 обладает следующим предельным свойством; 4 У2я Функцию нормального распределения будем обозначать х Ф(х) = —=г \ е~и'12 du. Функция нормального распре- л/2п J * —оо деления Ф(х) выражается через интеграл Лапласа X ®o(x) = —7=r\e~"ll2du, введенный в гл. 4, следующим У2я J о образом: Ф (х) = у + Фо (х). Этот результат является очень частным случаем так называемой центральной предельной теоремы. Пусть £1( \2 In, ... — после* довательность независимых случайных величин. Мы бу- будем говорить, что для этой последовательности выпол- выполнена центральная предельная теорема, если при любом х справедливо следующее предельное соотношение для сумм Ъп = Ь + Ъ-\- • • • + In. = Ф (х). B) Так как в схеме Бернулли число успехов можно представить в виде суммы ц = уи + Цг + ... + Цп независимых случайных величин с P{|ii=l}=p,
§ 41. ТЕОРЕМА ЛЯПУНОВА 147 {| = 0} =-1 — р, то результат A) есть частный слу- случай центральной предельной теоремы B). Для справедливости центральной предельной тео- теоремы B) на случайные величины £i, £2. ■ • •. £«. ... надо налагать те или иные дополнительные условия. Мы докажем центральную предельную теорему сна- сначала для одинаково распределенных случайных величин. Теорема 1. Если случайные величины 1\, £г> ••• независимы, одинаково распределены и имеют конечные Mh = a и D£i = a2>0, то п->оо (. суп ) Доказательство. Используем аппарат характе- характеристических функций. Обозначим £„ = h+%2 + • •. + Бл» тогда |„ = —^rVlft. Пусть ауп *—' ауп ауп = /| @ — характеристическая функция |*. Так как 2 = Dgfc = a2, то, в силу свойства 6) в § 37, при t-*-0 и, следовательно, при любом фиксированном t имеем П->оо. Отсюда вытекает утверждение теоремы. § 41. Теорема Ляпунова Центральная предельная теорема имеет место так- также при некоторых условиях и для неодинаковых незави- независимых слагаемых. Мы докажем ниже эту теорему в ус- условиях Ляпунова. Пусть теперь £*, k= 1, 2, ..., независимы и имеют не обязательно одно и то же распределение. Обозначим
148 ГЛ 10 ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА В An = £ ak, fl£= £ b\, Cl = k Теорема 2. (Теорема Ляпунова.) Если |i, £2. независимы, ak, Ьк, с* конечны и С„/Б„->0, то C) Доказательство. Положим Ife = ^ —с*» /|4@. Так как Mlft = 0, 1Щ = 6£, МЦ^^сЗ < оо.то где IM2 D) E) (это доказывается так же, как свойство 6) из § 37). В силу независимости %k, характеристическая функция L = — 2_,%k равна произведению А Ь-1 Логарифмируя, получаем Из разложения 4-1 k-l следует, что log(l +x) = где при 1/2 <*(*)! = I* G) (8) ft-2
§ 41. ТЕОРЕМА ЛЯПУНОВА 149 Из условия теоремы вытекает Bi •о 0) (мы здесь воспользовались неравенством (Ml£|r)t/r' <(М||Г+Т<Г+"). Таким образом, bl/Bl ->О при»■ равномерно по l^At^/г. Пусть Г >0 и KJ^f. Сог- Согласно D) и E) ( где, в силу (9), Выберем п0 таким, что гк (-g-) M^y пРн п ^ по>и ПРН* меним в правой части F) представление G) с оцен- оценкой (8). Получаем где 1. Используя в (И) оценки E) и A0),имеем поэтому вто равносильно ■ lim fg (/) = утверждению г* 4 | .C1, г 2" > пах Ь\ п
150 ГЛ. 10. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА § 42. Применения центральной предельной теоремы Доказанные выше предельные теоремы имеют больч шое теоретическое и прикладное значение. Основным в условиях этих теорем является то, что в сумме £„ = "= £i + £г + • • • + In каждое слагаемое £* дает малый в общую величину суммы %п случайный вклад. В част- ности^ это выражается тем, что D£fc/D£n-> 0 при п-*-6cf равномерно по 1 ^ k <; п. В приложениях часто ж> пользуют предположение о том, что встречающиеся при расчетах случайные величины имеют приближенно нор- нормальное распределение. На предположении нормаль- нормальности построена так называемая теория ошибок изме- измерения, в которой изучаются методы учета случайных ошибок при измерениях тех или иных параметров в экспериментах. В антропологии, например, обработка результатов измерения параметров человеческого тела также ведется на основе предположения нормальности распределения этих параметров. Основанием для пред- предположения нормальности в этих случаях служит боль- большой статистический материал, накопленный при изме- измерениях. Центральная предельная теорема дает гипотезе нормальности некоторое теоретическое обоснование, так как часто на величину какого-либо параметра в реаль: ном явлении влияет много случайных независимых фак- факторов, причем влияние каждого из них невелико, а сум» марно они дают некоторый ощутимый эффект. Известно ироническое высказывание одного статистика на этот счет: «Каждый уверен в справедливости нормального закона распределения, экспериментаторы — потому, что они думают, что это математическая теорема, матема- математики — потому, что они думают, что это эксперимен- экспериментальный факт». Это изречение лишний раз нам напоми- напоминает, что математические теории строятся не на самих реальных явлениях, а лишь на их математических моде- моделях. Поэтому в применениях теории вероятностей, каН и вообще математики, надо никогда не забывать о здра- здравом смысле и всегда заботиться о том, чтобы рассмат- рассматривалась подходящая модель, правильно отражающая соответствующее явление.