Текст
                    НАУ-ЧНОЩ® П УЛ Я Р11А Я ЛIIТ Е Р А Т У РА
А.В. СКОРОХОД
Вероятность
вокруг
нас
КИЕВ «ПАУКОВА ДУМКА» 1980

В окружающем нас мире все время происходят явления, которые заранее невозможно предсказать: это п ядерные реакции, и передача нас- ледственных признаков, п солнечные вспышки, и появление новых и сверхновых звезд... Можно ли какими-либо точными методами изучать случайность? Кажется, что одно исключает другое. Однако среди боль- шой семьи математических паук есть одна — теория вероятностей, ко- торая всецело посвящена именно теории случайных явлений. О том, как математика изучает случайные явления, и рассказывается в этой книге. Адресована широкому кругу читателей — и ученикам старших классов, интересующихся математикой, и нсматематикам, желающим по- лучить представление о теории вероятностей. ОТВЕТСТВЕННЫЙ! РЕДАКТОР ЧЛЕН-КОРРЕСПОНДЕНТ АН УССР И. И. ГИХМЛ11 Редакция научно-популярной литературы С 20204-384 574.80 1702060000 М22Ц04)-80 © Издательство «Паукова думка», 1980
ВВЕДЕНИЕ На первый взгляд математика, известная достоверностью и даже непреложностью своих выводов, никак не может быть применена к случайному. Но именно этой наукой создана числовая мера случайности — вероятность, кото- рая и дает возможность изучать случайно протекающие реальные явления, используя их математические модели. С некоторыми такими моделями читатель и познакомится в этой книге. И в своей обыденной жизни, и в производственной дея- тельности (технике), и в процессе познания природы (естест- вознания) мы непрерывно сталкиваемся со случайностью (недостоверностью, вероятностью). Эта случайность ни- сколько не противоречит закономерности развития мира: случайность и закономерность — диалектические противо- положности, закономерность во многих случаях слагается из случайностей (математическим выражением этого факта есть закон больших чисел). Какова же природа случайности, проявляющейся па различных ступенях реальности? Если исходить из совре- менных физических представлений, то основной источник случайности—квантовый характер явлений микромира. Случайными являются переходы атомов и молекул из одних энергетических состояний в другие, эти переходы сопровождаются поглощением или излучением света. Та- ким образом, световая стихия, окружающая нас всюду (электромагнитное поле), по своему происхождению слу- чайна. Случайным образом происходят и ядерные реакции. Но именно эти реакции и сеть источники энергии звезд и собственною тепла планет; а первая —основа всех жиз- ненных процессов иа пашей планете, второе причина тектонической деятельности Земли.
Второй вид проявления случайности в микромире, влия- ние которого также очень существенно для большинства процессов, — броуновское движение. Это хаотическое теп- ловое движение, в котором пребывают ионы плазмы, мо- лекулы газов и жидкостей, электроны в кристаллах. Броу- новское движение поддерживается взаимодействиями между отдельными микрочастицами среды, и поскольку такие взаимодействия носят случайный характер, то и само бро- уновское движение по своей природе случайно. Роль броуновского движения в окружающих пас явле- ниях трудно переоценить. Благодаря ему происходят рас- творение одних веществ в других, химические реакции, все жизненные процессы в живых организмах. Броуновское движение электронов создает электро- и радиопомехи в раз- личных технических устройствах. Ядерные реакции и бро- уновское движение в солнечной плазме приводят к появле- нию солнечных вспышек, вызывающих мап'пиные бури, полярные сияния и оказывающих влияние па погоду. Случайна и природа более сильных звездных вспышек - - появление новых и сверхновых звезд. Такие явления — источник космического излучения, непрерывно приходя- щего к нам из глубин Вселенной. Итак, мы окружены явлениями, природа которых слу- чайна. Как же может оказаться, что тем не менее сущест- вуют точные законы, которым явления подчиняются? Ведь, несмотря па броуновское движение отдельных молекул аза, мы можем утверждать, что состояние газа подчиня- ется строгому закону Клапейрона. Чтобы ответить на воп- рос, нужно изучить случайные события, отвлекаясь от их конкретных свойств, а лишь имея в виду случайность. Этим занимается теория вероятностей —один из разделов мате- матики. Исследуя общие закономерности случайных явле- ний, теория вероятностей установила один из фундамен- тальных законов, которому они подчиняются,— закон боль- ших чисел. Из него можно вывести и закон Клапейрона, п многие другие, относящиеся к большим совокупностям случайных собы тип. Современная теория вероятностей—паука, опираю- щаяся па сложный математический аппарат. Ио многие ее идеи и методы можно объяснить, используя лшпынколь- пую математику (с учетом того, что современный школь- ник имеет понятие о производной и интеграле). Предла- гаемая книга посвящена элементарному изложению основ 4
теории вероятностей. Для лучшего овладения математиче- скими понятиями опа содержит большое число примеров из биологии (в основном генетики и экологии), физики (ядер- иые реакции, энергетические переходы в атомах, броунов- ское движение), радиотехники (случайные электромагнит- ные колебания, спектры радиосигналов, фильтрация), тео- рии обслуживания. Некоторые примеры носят чисто иллюстративный характер, другие же являются содержа- тельными п дают понятие о возможных применениях теории вероятностей в различных областях пауки. Киша состоит из трех разделов: случайные события, случайные величины, случайные процессы. При переходе от одного раздела к другому понятие случайности все более усложняется. В первом разделе мы но сути имеем дело с одним или несколькими случайными событиями. Основное здесь -- выяснение связен между частотами событий при повторении экспериментов н их вероятностями. При пз\- чении случайных величин во втором разделе мы уже долж- ны одновременно рассматривать бесконечную совокупность случайных событий, заключающихся в том, что наблюдае- мая величина приняла заданное значение. Здесь также рассмотрены закон больших чисел и нейтральная предель- ная теорема и выяснены их значения для различных при- ложений. Наконец, в третьем разделе речь идет о случай- ных величинах, меняющихся во времени, т. е. о бесконеч- ных совокупностях случайных величин. Описаны лишь некоторые классы процессов, служащих вероятностными моделями для реальных явлений в технике, физике, био- логии, радиотехнике. Для каждого класса процессов ре- шаются свои задачи, вытекающие из природы описываемых явлений (эргодическая теорема, вырождение п «взрыва, нахождение спектра колебаний п т. п.). При изложении всех вопросов выводы по возможности подтверждаются математическими доказательствами (ei.ni они не выходят за рамки элементарного курса математики); исключение составляют центральная предельная теорема и эргодическая теорема. В списке литературы, приведенном в копне книги, ука- заны некоторые руководства, которые можно рекомендо- вать читателю, желающему более нтубоко ознакомит ж я с различны.-..!! аснеыамп рассматриваемого предмета.
I. СЛУЧАЙНЫЕ СОБЫТИЯ § 1. Что такое случайное событие? Понятие случайного события легче уяснить в сопоставле- нии с противоположным понятием — неслучайного, или детерминированного, события. Последнее —это такое, ко- торое происходит всегда, если выполнены определенные условия. Так, вода, нагретая до 100® С, при нормальном давлении закипает; тяжелое тело, лишенное горизонталь- ной опоры, будет падать, пока не встретит такую опору; нагретый газ при неизменном давлении увеличит свой объем, причем можно указать на сколько, если известны начальная и конечная температуры газа. Посеяв пшенич- ное зерно, мы заранее можем предсказать, что из него вы- растет пшеница. У кошек рождаются котята, а у свиней — поросята. Число подобных примеров достоверных событий каждый может увеличить неограниченно. Случайное событие противоположно детерминирован- ному. Это значит, что при одних и тех же условиях оно мо- жет как наступать, так и не наступать. Основное его свойст- во то, что оно непредсказуемо, если известно, что те усло- вия, в которых оно возможно, осуществлены. Если посеяно зерно пшеницы, то мы не можем сказать заранее, прорастет оно или нет, вырастет ли из него взрос- лое растение или оно погибнет (будучи затоптанным, поби- тым градом, вымыто ливнем или от недостатка влаги), сколько зерен принесет взрослое растение, даже о свойствах его семян (как мы увидим далее, рассматривая законы генетики) нельзя заранее сказать определенно. Рассматри- вая газ, мы не можем предсказать число молекул п энергии этих молекул в выделенном объеме в любой фиксированный момент времени. Случайным образом происходит переход атомов из возбужденного состояния в устойчивое (электро- магнитное поле, окружающее нас, обязано своим происхож- 6
дением именно этому случайному механизму), радиоактив- ный распад и вообще все ядерные реакции, солнечные вспышки, вызывающие магнитные бури и радиопоме- хи, вспышки новых звезд, являющиеся источниками кос- мического излучения. При рассмотрении случайных событий удобно исполь- зовать понятие случайного эксперимента, в результате ко- торого и происходят случайные события. Случайный экспе- римент характеризуется набором условий, в которых наблюдаются случайные события, и совокупностью собы- тий, фиксируемых в эксперименте. Если эксперимент слу- чаен, то его повторение (рассматриваются лишь экспери- менты, которые могут повторяться достаточно много раз) будет сопровождаться, вообще говоря, различными собы- тиями (если бы всегда происходило одно и то же, то собы- тие было бы детерминированным). Приведем примеры случайных экспериментов. 1. Бросается монета. Результаты: монета легла на пол гербом вверх, монета легла цифрами вверх, монета стала на ребро. 2. Завод электроламп выпускает продукцию партиями по 10 000 штук, изготовленных примерно в одинаковых условиях. Для контроля качества отбирается 100 ламп, которые испытываются при повышенном напряжении. Лам- па годна, если она выдерживает 1 час работы в таких условиях. Эксперимент заключается в одновременной про- верке 100 ламп. События, которые наблюдаются, — число ламп, сгоревших за 1 час. 3. Запускается космическая ракета в сторону Луны и измеряется наименьшее расстояние, на котором она прой- дет от спутника Земли. Недостоверность ожидаемого резуль- тата определяется невозможностью: 1) абсолютно точно задать время запуска; 2) абсолютно точно дозировать горю- чее; 3) полностью учесть влияние атмосферных условий. Поэтому даже событие «ракета достигла <71упы» (при от- сутствии дополнительной коррекции) является случайным. 4. Происходит самоопыление гибридного растения. Вы- саживается его семя. Наблюдаются свойства развившего- ся растения (они могут быть различными комбинациями свойств тех сортов, от скрещивания которых получен гиб- рид). 5. В урне имеется т черных и п белых шаров. Выни- мается наудачу (не глядя) один шар. События, которые в 7
этом эксперименте могут произойти,— извлечение белого или черного шара. Если производить многократное повторение случайного эксперимента, то одни события при этом будут происходить чаще других. Ожидать появления первых событий при одном осуществлении эксперимента можно с большим осно- ванием, чем вторых. Тогда мы говорим, что первое событие более вероятно, чем второе, или что его вероятность боль- ше, чем вероятность второго. Например, у кареглазых родителей, если среди их предков были голубоглазые, го- раздо чаще рождаются кареглазые дети, чем голубоглазые. 11оэтому можно сказать, что кареглазый ребенок у таких родителей вероятнее, чем голубоглазый. Определим частоту события А в данном эксперименте. Предположим, что эксперимент повторялся п раз и при этом событие А произошло kn (Л) раз. Тогда частота собы- тия А в этих п испытаниях есть отношение (Л) /j. Пусть эксперимент заключается в проверке качества электроламп (как указано в примере 2). Если из 100 ламп оказалось 6 бракованных, то частота события «лампа из данной партии негодна» будет = 0,06. Частота события, вообще говоря, изменится, если варьи- ровать число наблюдений или взять вторую серию из та- кого же числа наблюдений. Однако многими эксперимен- тами установлено: при очень большом числе наблюдений п значение частоты устойчиво, т. е. оно мало меняется при увеличении числа наблюдений или при переходе к другой серии наблюдений, если число наблюдений достаточно ве- лико. Так, при бросании правильной монеты (если исклю- чена возможность падения монеты на ребро) частота выпа- дения герба будет равна примерно и она тем ближе бу- дет приближаться к этому значению, чем больше будет проведено наблюдений. При математическом изучении случайных событий пос- тулируется существование идеальной частоты события — неизменной частоты при бесконечном числе испытаний, являющейся пределом выражения (1) при неограниченном возрастании числа испытаний. Эта идеальная частота назы- вается вероятностью события. 8
Вероятность события А обычно обозначается Р (Л), Если для двух событий А и В имеет место Р (А) < Р(В),. то событие В более вероятно, чем А. Так, события «рожде- ние голубоглазого ребенка» и «рождение кареглазого ребен- ка» в описанных выше условиях имеют соответственно ве- роятности j- и так что второе событие более вероятно. Перечислим некоторые свойства вероятности. I. Вероятность события А —неотрицательное число, не превосходящее единицы: 0 Р (А) 1. Это свойство- , kn (Л) очевидным образом выполняется для частоты -- <kn (А) — число появлений события А в п экспериментах неотрицательно и не превосходит п). Поскольку вероят- ность рассматривается как предельное значение частоты, то это свойство сохраняется и для вероятности. Заметим, что указанным приемом мы будем пояснятв и другие свой- ства вероятности, т. е. проверять их для частот событий, а затем пользоваться тем, что эти свойства сохраняются при предельном переходе. Для формулировки других свойств нам потребуются некоторые определения, относящиеся к случайным собы- тиям. Будем говорить, что некоторое событие U в данном эксперименте достоверно, если оно происходит при каждой реализации эксперимента. (Если в примере 4 самоопыляется горох, полученный от скрещивания растений с различной окраской цветов, то достоверно, что из полученного семени также вырастет горох.) Достоверное событие неслучайно в данном эксперименте, однако его рассмотрение удобно в связи с некоторыми операциями со случайными собы- тиями. II. Вероятность достоверного события равна 1. Это вы- текает из того, что его частота равна 1, так как kn (U) — п для любой серин из п повторений эксперимента. Событие V называется невозможным в данном экспери- менте, если оно не может произойти в нем никогда. (Напри- мер, невозможно из урны, содержащей белые и черные ша- ры, извлечь красный шар). Невозможное событие, как и достоверное, неслучайно в данном эксперименте. Оно вво- дится также ради удобства. III. Вероятность невозможного события равна 0. (Лег- ко видеть, что kn (И) =0 для всех п.) 9'
Введем понятие суммы двух событий. Если А и В — два события в данном эксперименте, то под А + В пони- мают следующее событие: произошло или А, или В, либо они произошли одновременно. Другими словами, событие А + В происходит тогда и только тогда, когда происходит по крайней мере одно из событий — или А, или В. Пусть эксперимент заключается в проверке качества изделий (например, электроламп, как в примере 2). Резуль- тат эксперимента — число дефектных изделий в проверяе- мой партии. Если А — событие «дефектные изделия отсут- ствуют», В — «обнаружено 1 дефектное изделие», то А А- В —событие «число дефектных изделий не превос- ходит одного». Обратим внимание на существенное отличие «сложения» событий от сложения чисел. В частности, справедлива фор- мула А + А = А (А -|- А происходит тогда и только тогда, когда происходит событие А, т. е. оно совпадает с Л; следует сказать, что мы всюду будем отождествлять собы- тия, которые обязательно происходят одновременно). Событие, заключающееся в том, что два события А и В происходят одновременно, называется произведением со- бытий А и В и обозначается А • В, или АВ. Пусть, напри- мер, А —рождение мальчика, В —рождение кареглазого ребенка, тогда АВ —рождение кареглазого мальчика. Произведение нескольких событий Аг, ..., А^ есть собы- тие, заключающееся в том, что все эти события происходят одновременно. События А и В называются несовместимыми, если они не могут произойти одновременно. Примеры: выпадение герба или выпадение цифр при однократном бросании мо- неты; рождение девочки или мальчика при рождении одного ребенка; обнаружение 1 или 2 дефектных изде- лий при контроле партии готовой продукции и т. п. IV. Если А и В — два несовместимых события, то Р(А + В) --- Р (Л) 4- Р (В). Опять проверим это свойство для частот. Если происходит А + В и А и В несовместимы, то происходит или А, или В, а одновременно они произойти не могут. Поэтому, чтобы подсчитать, сколько раз в п экспериментах произойдет А 4- В, нужно знать, сколько раз произошло А, сколько цаз — В, а полученные числа сложить. Таким образом, kn И + В) kn (Л) 4" \Bi ю
и kn (Л + В) = kn (Л) kn (В) . п п ' п Мы получили требуемое равенство для частот. Можно понятие суммы событий и свойство IV распрост- ранить па большее число событий. Пусть в данном экспе- рименте могут происходить события Аи А2, ..., Ak. Событие k А± + ... + Ak (его еще обозначают У Л() есть событие, i=i заключающееся в том, что происходит по крайней мере одно из событий: или Аг, или А2, ..., или Ak. Сумму событий можно определять последовательно (или, как говорят, индуктивно). Зная определение суммы двух событий, пола- гаем для трех: А + ^2 + Аз = И1 + А2) Л3- (событие Аг + А2 уже известно, к нему прибавляем Л3). Определив сумму трех событий для четырех, полагаем A + А2 + А3 4- Л4 = (Л4 4- А2 + Л3) 4- А4 и т. д. Назовем события Alt ..., Ak попарно несовместимыми, если никакие два из этой совокупности событий не могут произойти одновременно. Пусть, например, в урне находят- ся шары четырех цветов: белые, черные, зеленые, красные. Черные, зеленые, красные шары будем именовать цвет- ными. Событие «извлечен цветной шар» есть сумма трех событий: «извлечен черный шар», «извлечен зеленый шар», «извлечен красный шар». Из свойства IV вытекает следующее свойство. V. Если Лп Л2, ..., Ak —попарно несовместимые со- бытия, то Р(Д + А>+ ... 4-Л,) = Р(Л1)4-Р(Лг)4- ... 4-Р(Ла). Таким образом, справедливо следующее общее утвержде- ние: вероятность суммы любого числа попарно несовмести- мых событий равна сумме вероятностей этих событий. Событие А называется противоположным событию А, если оно заключается в том, что Л не произошло. Так, если урна содержит белые и черные шары, а эксперимент заключается в извлечении одного шара, то событие «извле- чен белый шар» противоположно к событию «извлечен 11
черный шар». Очевидно, что при каждом повторении экспе- римента Л или происходит или не происходит, т. е. проис- ходит А. Поэтому А + А —достоверное событие. Значит, Р (А г А) 1. С другой ^тороны, Р (Л + Л) Р (Л) 4- -- Р (Л), так как Л и Л несовместимы. Таким образом, выполняется данное свойство. VI. Если событие Л противоположно событию Л, то Р(А) - 1 — Р(Л). Пусть в эксперименте могут происходить два события Л и В. Будем говорить, что событие Л влечет событие В, если всегда, когда происходит событие Л, происходит и событие В. При этом событие В называется следствием события Л. Для обозначения отношения «Л влечет В» («В следствие Л») используются обозначения А с В, В го Л. Отметим, что понятие следования, употребляемое по от- ношению к случайным событиям, отличается от принятого в обыденной жизни, где событие, следующее за Л, во-пер- вых, происходит позже по времени, во-вторых, Л для него выступает в качестве действительной причины. Здесь же А и В появляются одновременно, и причинная зависимость между ними не обязательна. В частности, поскольку с каждым событием Л насту- пает и достоверное событие U (оно ведь происходит обяза- тельно, независимо от того, произошло Л или нет), то Л с с U для любого события Л. Этот пример указывает на необязательность причинной связи для следования собы- тий одного из другого. Более парадоксальным кажется другое утверждение: всякое событие Л следует из невозможного события V. Действительно, поскольку V не происходит никогда, то для любого события Л можно утверждать, что оно проис- ходит, если только произошло V (на самом деле мы ничего относительно Л не утверждаем, так что наше утверждение не может быть ошибочным). Значит, Vc Л. VII. Если Л с В, то Р (Л) sjC Р (В). Чтобы проверить это свойство вероятности, рассмотрим событие С, заключающееся в том, что событие В произо- шло, а Л при этом не произошло (С может быть н невозмож- ным событием). Тогда Л и С—несовместимые события. 12
Событие В происходит либо когда происходит А, либо когда А не происходит, т. е. происходит С. Значит, В - А + С Р(В) = Р (Л) + Р (С) > Р (Л). Заметим, что свойство VII также просто вытекает для частот, поскольку в силу определения при А с В событие В происходит не реже, чем Л. Однако мы использовали для проверки свойства VII свойства I (Р (С) 0) и IV. Вообще мы видели, что из приведенных свойств некото- рые являются логическими следствиями других. Это дает возможность выбрать основные свойства вероятности, а остальные получать как их логические следствия. Эти ос- новные свойства называются аксиомами вероятности. Только они нуждаются в экспериментальном обосновании, все остальные утверждения выводятся из аксиом. Сейчас в теории вероятностей принята система аксиом, предложенная известным советским математиком академи- ком А. Н. Колмогоровым. Мы приведем эти аксиомы в той форме, в которой они будут использоваться в дальнейшем. Аксиома 1. Вероятность события Р (Л) > 0; если U достоверное событие, то Р(С7) 1. Аксиома 2. Если Л и В несовместимы, то Р (Л + В) = Р (Л) + Р (В). Как видим, аксиома 1 объединяет свойства I и II, акси- ома 2 совпадает со свойством IV. Оказывается, этих двух аксиом достаточно, чтобы чисто логическими методами по- лучить весьма далеко идущие следствия. В частности, как будет показано ниже, из них будет вытекать, что при пов- торении эксперимента частота появления события Л в опре- деленном смысле приближается к его вероятности. Это как раз то фундаментальное свойство, которое первоначально было положено в основу определения вероятности. § 2. Эксперименты с конечным числом исходов. Классическое определение вероятности Наиболее простые случайные эксперименты —это те, в которых число возможных событий конечно. Среди приме- ров, приведенных в предыдущем параграфе, все, кроме примера 3, обладают этим свойством. Такие случайные эксперименты называются экспериментами с конечным 13
числом исходов. Во множестве событий, которые наблюда- ются в них, выделяют «элементарные» события, «кирпичики», из которых могут быть составлены остальные события. Предположим, бросают монету. В этом эксперименте два элементарных события: выпадение герба, выпадение цифр. Более сложно обстоит дело с извлечением одного шара из урны, содержащей черные и белые шары (пример 5 в § 1). На первый взгляд кажется, что здесь всего два элементарных события: извлечение белого или извлечение черного шара. Однако на самом деле может быть извлечен каждый из т черных шаров и каждый из п белых. Так что более естественно считать, что имеется т + п элементар- ных событий: Alt Лп—извлечение заданных белых шаров (можем считать, что они занумерованы) и Ву, ... ..., Вт —извлечение черных шаров. При этом события А (извлечен белый шар) и события В (извлечен черный шар) оказываются составными: А = Ау -|- ... + А„, В = Ву + ... + Вт. Зачем нам понадобилось разлагать на первый взгляд простые события на еще более простые, мы увидим немного позже. Дадим точное определение элементарного события. Событие E^V называется элементарным, если, каково бы ни было событие А —или Е сд А, пли Е с А (это собы- тие или влечет А, или влечет противоположное к А собы- тие). Пусть Еу и Е2 —два элементарных события. Если Еу влечет Е2, то Е2 не может вызвать Еу (а в силу своей эле- ментарности Е2 влечет или Еу, или Еу). Значит, тогда и Е2 сд Еу, т. е. события Еу и Е2 наступают всегда одновре- менно и Еу — Е2. Поэтому, если Еу Е2, то Еу сд Е2 и ЕуЕ2 = V. Различные элементарные события несовместимы. Заме- тим, что если А V, то всегда существует такое элемен- тарное событие Е, которое влечет А. Чтобы установить это, отметим следующее определяющее свойство элементарного события: событие Е элементарно тогда и только тогда, когда из соотношения С сд Е С =/= V вытекает Е — С. Действительно, в этом случае не может быть Е сд С, зна- чит, Е сд С и, следовательно, Е — С. 11
Если А само не элементарное событие, то найдется такое Лх, что Лх =/= А и 4хс Л. Если Аг не элементарно, то найдется А2 =/= Лх и А2 с: Поскольку различных событий конечное число, то, продолжая этот процесс, придем к конечной цепочке Ак с Ak-i с: ... с А} а: А, и для Ак уже не существует такого =# V, что Ak+i cz Л,. и Ak+t ¥= Ak. Значит, Ак — элементарное событие. Пусть S — сумма всех элементарных событий. Если S U, то S V и по доказанному содержало бы элемен- тарное событие. А это противоречило бы определению S как суммы всех элементарных событий. Значит, S — U. Таким образом, в эксперименте с конечным числом исходов- всегда существует полная группа элементарных событий Ег, ..., Еп, т. е. такая совокупность попарно непересека- ющихся событий, сумма которых есть достоверное событие [/ = £1+ . . . +£п. _ (1) Это означает, что при любом осуществлении экспери- мента происходит — и при том лишь одно — из событий Eit ..., Еп. Всякое событие, происходящее в эксперименте, есть сумма нескольких элементарных событий, именно со- бытие А есть сумма тех Ек, для которых Ек влечет А: А = А • U = А • (Ех 4- • • • -f- Еп) = А Ег •••-]- АЕп — слагаемые в правой части либо невозможные события, если А • Ек = V (это будет, когда Ек с: А), или совпада- ют с самими элементарными событиями: А • Ек = Ек. если Ек az А. Для того чтобы определить вероятность любого события, достаточно знать вероятности элементарных событий. Пусть рк = Р (Ек). Тогда вероятность события А есть сумма тех рк, для которых Ек а Л. Наиболее распространены такие случайные экспери- менты с конечным числом исходов, в которых элементарные события равновероятны. Эта равновероятность есть следст- вие определенной симметрии условий эксперимента по отношению к отдельным элементарным событиям (такая сим- метрия приводит к тому, что элементарные события высту- пают в эксперименте как равновозможные). Например, для, симметричной монеты равновозможны выпадения обеих сто- рон, для шаров в урне после тщательного их перемешива- ния равновозможны извлечения каждого из шаров. Опредрдение вероятности, основанное на предположе- нии о равновероятности (или равновозможности) элемен- 15
тарных событий, называется классическим. Чтобы опреде- лить в этом случае вероятность одного элементарного события, достаточно знать их число. Если всего п элемен- тарных событий, то исходя из формулы (1), видим 1 =Р(^)+ • • • +Р(Е„) = пР(Е1). Значит, Р(£1)= . . . =р{Еп) = ±' Предположим, что событие А есть сумма т различных элементарных событий. Тогда вероятность события А равна сумме вероятностей этих событий, а так как вероят- ность каждого из элементарных событий есть то Р(Л) = ^. Таким образом, при классическом определении вероят- ности вероятность события А есть отношение числа эле- ментарных событий, при которых наступает А, к числу всех элементарных событий. (Говорят еще так: отношение числа благоприятствующих событию А шансов к числу всех шансов.) Приведенное определение вероятности показывает, на- сколько важно в случайном эксперименте правильно опре- делить элементарные события. Если бы в примере с черными и белыми шарами в урне мы бы считали, что есть лишь два различных элементарных события, то вероятности -извлечений как белого, так и черного шара были бы равны 1 Л с у и не зависели бы от числа тех и других шаров. Если же считать извлечение каждого из шаров равновероятным (так должно быть, если шары тщательно перемешаны), то тогда число элементарных событий равно п + т (общее число шаров), из этих элементарных событий п влекут событие «извлечен белый шар». Значит, вероятность извлечь белый шар равна Аналогично находим, что вероят- „ т ность извлечь черный шар равна Рассмотрим некоторые следствия из приведенного опре- деления для задачи о передаче наследственных признаков от родителей к потомкам. Для этого нам понадобятся неко- торые сведения из генетики. 16
Наследственные признаки передаются с помощью генов, находящихся в хромосомах ядра клетки. Обычные клетки содержат четное число хромосом, которые разбиты на пары аналогичных (исключение представляют хромосомы, отве- чающие за пол). При росте организма клетки делятся (это явление называется митозом). Митоз происходит следую- щим образом: каждая хромосома делится на две хромосомы, совершенно подобных исходной, которые затем расходятся в две вновь образованные дочерние клетки. Схематически митоз двух пар хромосом представлен на рисунке. Одина- ковыми латинскими (большими и малыми) буквами обозна- чены хромосомы в парах. Итак, в результате митоза из одной клетки образуются две, у каждой из которых набор хромосом идентичен набору хромосом исходной клетки. Иначе образуются половые клетки (мейоз). После удвое- ния числа хромосом клетка делится уже не па две, а на четыре половых клетки с половинным набором хромосом. Это могут быть, например, такие клетки: (они называются га- метами). При оплодотворении две гаметы (материнская и от- цовская) сливаются в одну клетку (зиготу), которая уже содержит полный набор хромосом. Половина хромосом — 2 533 17
отцовская, вторая —материнская. Благодаря этому дочер- няя клетка наследует признаки обоих родителей. В большинстве случаев за некоторый признак отвечают гены, находящиеся во вполне определенном месте хромосом- ной нити, причем они могут иметь два вида (эти виды в гене- тике называются аллелями). Например, у определенных ви- дов гороха геи, отвечающий за окраску цветка, имеет два аллеля, соответствующие красному и белому цвету, за цвет горошин — тоже два (зеленый или желтый), за гладкость зерен — столько же (сморщенность или гладкость). У лю- дей существуют два аллеля гена, отвечающего за цвет глаз (голубоглазость или кареглазость), курчавость или глад- кость волос; левшой или правшой будет человек, также определяют аллели одного гена. Обычно для аллелей одного гена используются те обозначения, которые мы применяли для обозначения хромосом: малые и большие одинаковые латинские буквы. Весьма существенно, что в аналогичных хромосомах могут находиться различные аллели одного и того же гена. Набор генов определяет генотип данного индивида. Если ограничиться одним признаком с аллелями гена А и а, то может быть 3 генотипа: АА, Аа, аа. Очень часто для проявления некоторого признака достаточно, чтобы имелся хотя бы один ген с данным аллелем. Тогда внешний вид (фенотип) индивидуумов с генотипами, например, АА и Аа одинаков. В этом случае говорят, что аллель А доми- нирует над а; соответствующий признак называют доми- нантным, а второй — рецессивным. Так, у гороха глад- кость и желтый цвет зерен — доминантные признаки, а сморщенность и зеленый цвет — рецессивные. У человека карий цвет глаз доминирует над голубым, курчавость над прямизной волос. Обычно доминантный признак (точнее, соответствующий аллель) обозначают большой буквой, рецессивный — ма- лой. Особи (клетки) с генотипами АА и аа называются гомозиготными, а с генотипом Аа — гетерозиготными. При мейозе и оплодотворении хромосомы делятся и ком- бинируются случайным образом. При этом вероятности вычисляются в соответствии с классическим определе- нием. Рассмотрим сначала наследственную передачу какого- нибудь одного признака. Заметим, что для гомозиготных родителей генотип потомков определяется однозначно. 18
Используя естественную символику, можем записать АА + АА = АА, аа + аа = аа, АА + аа = Аа. Более сложный результат, если один из родителей гете- розиготен. Рассмотрим потомство родителей с генотипами АА и Аа. В результате мейоза получатся клетки у первого роди- теля с генотипами А (четыре), у второго — А (две) и а (две). Возможные результаты их соединений удобно представить в виде таблицы: 1 А А А | А А | АА АА АА | АА А | АА АА АА | АА а | Аа Аа Аа | Аа а | Аа Аа Аа | Аа Таким образом, у нас имеется 16 элементарных собы- тий. В половине из них генотип потомка будет АА, в поло- вине — Аа. Следовательно, вероятность генотипа АА 8 1 «1 есть тд = точно так и вероятность генотипа Аа равна 10 £ * Аналогично можно рассмотреть случай потомства ге- терозиготных родителей: 1 А А | а 1 а А | АА АА | Аа | Аа А | АА АА | Аа | Аа а | Аа Аа | аа | аа а | Аа Аа | аа | аа Опять из 16 элементарных событий в 4 случаях будет генотип АА и в 4 — аа, а в 8 случаях — генотип Аа. Та- ким образом, вероятности гомозиготных потомков-----, 1 а гетерозиготных---%-. Эти факты были впервые обнаружены в прошлом столе- тии экспериментальным путем выдающимся естествоиспы- тателем Г. Менделем. Он установил, что при скрещивании желтого гороха с зеленым получаются желтые горошины, 2 19
т. е. желтый цвет доминирует над зеленым. Если получен- ные в результате скрещивания растения самоопыляются, то среди полученных семян примерно -у будут желтыми, 1 а ----зелеными. 4 Действительно, первоначально были горошины с гено- типами АА и аа (А — желтый, а — зеленый цвет семян). После скрещивания АА + аа = Аа получили семена с генотипом Аа. Они желтого цвета, пос- кольку он доминирует. При самоопылении растений с ге- нотипом Аа мы будем иметь с вероятностью генотип АА, 1 л 1 с вероятностью --генотип Аа, с вероятностью ---- генотип аа. Только в последнем случае окраска'горошин (3 \ т. е. с вероятностью — желтая. Аналогичные результаты получались при рассмотрении наследования других признаков (например, гладкость или морщинистость гороховых зерен). Так был открыт Менде- лем один из основных законов генетики: к потомку от ро- дителей переходит с вероятностью 1/2 каждый из признаков, имеющихся в генотипе родителей. Этот закон позволяет проверять гомозиготность неко- торой популяции по некоторому признаку. Как мы видели, при явлении доминирования по внешнему виду (фенотипу) невозможно отличить особи с генотипом АА от особей с ге- нотипом Аа. Однако при скрещивании последних друг с 1 другом с вероятностью -у получаются потомки с генотипом аа (т. е. примерно в случаев, что можно обнаружить в результате достаточного числа экспериментов), который уже и внешне отличается от родителей. Так, если у каре- глазых родителей рождается голубоглазый ребенок, то они оба гетерозиготны по признаку цвета глаз. 20
§ 3. Комбинаторные методы определения вероятности При классическом определении вероятностей нужно знать число всех элементарных событий и число элементарных событий, которые влекут данное событие. Только в немно- гих экспериментах эти числа заданы непосредственно (как, например, при извлечении одного шара из урны, содержа- щей черные и белые шары). Обычно же приходится подсчи- тывать и число способов осуществления эксперимента, и число способов осуществления события, вероятность кото- рого мы определяем. Рассмотрим такой эксперимент. Из урны, содержащей 3 белых и 4 черных шара, извлечено последовательно 2 ша- ра. Определим вероятности событий: Ах — оба шара бе- лых, Л2 — один черный, один белый, А3 — оба шара чер- ных. Пронумеруем шары, считая, что номера 1, 2, 3 соот- ветствуют белым, 4, 5, 6, 7 — черным. Будем записывать результаты эксперимента парой чисел: например (3,6) означает, что первый извлеченный шар был с номером 3, второй имел номер 6. Тогда все возможные результаты эксперимента можно представить в виде такой таблицы: (1,2) (1,3) (1,4) (1,5) (1,6) (1,7) (2,1) (2,3) (2,4) (2,5) (2,6) <2,7; (3,1) (3,2) (3,4) (3,5) (3,6) (3,7) (4,1) (4,2) (4,3) (4,5) (4,6) (4,7) (5,1) (5,2) (5,3) (5,4) (5,6) (5,7) (6,1) (6,2) (6,3) (6,4) (6,5) (6,7) (7,1) (7,2) (7,3) (7,4) (7,5) (7,6) Как видим, всего 42 элементарных события. Событию благоприятствуют 6 элементарных событий, событию А2 — 24, событию Л3 — 12. Следовательно, Р(Л) = ^ = 4-, Р(Да) = ^- = А; т)=4=4- Если бы мы каждый раз выписывали все элементарные события, а затем из них отбирали те, которые влекут 21
данное событие, то во многих случаях даже вычислительные машины не помогли бы определить нужные вероятности. Укажем для примера, что при мейозе человеческой клетки, содержащей 23 пары хромосом, она может разделиться на 2 гаметы примерно 10 000 000 способов, значит, будет 100 000 000 000 000 способов образования зиготы. Комбинаторные методы позволяют непосредственно вы- числять число способов, с помощью которых может осу- ществиться данная комбинация. Обычно комбинаторные задачи формулируются как задачи о выборе из некоторой совокупности предметов. Перестановки. Имеется п предметов. Сколькими спосо- бами их можно расположить в ряд (один за другим) или занумеровать? Например, 2 предмета а и b можно расположить в ряд двумя способами: а, b или Ь, а. Число таких расположе- ний п предметов (они называются перестановками) равно n! = 1 • 2 • ... п (произведение чисел от 1 до п, оно обоз- начается п!, читается «n-факториал»). Число перестановок из 5 предметов будет 5! = 1- 2- 3- 4- 5= 120. Установим общую формулу. Пусть Рп обозначает число перестановок из п предметов alt ..., ап. Если мы уже знаем, что на первом месте находится ait то на остальных местах могут быть остальные п — 1 предмета. Число таких пере- становок равно числу перестановок из п — 1 предмета, т. е. Рп-\- Итак, имеется Рп—\ перестановок, у которых на первом месте находится а1г Pn-i перестановок, у кото- рых на первом месте а2, и т- Д-. ?п—\ перестановка, у ко- торых па первом месте ап. Все перестановки разбиваются на п групп, в t-й группе на первом месте находится ait и число таких перестановок Рп-\- Значит, Рп = пРп-\. Тогда и Pn_t — (п — 1) Рп-2.....Р2 = 2PV Поэтому Рп = пРп_1 == п (п. — 1) Рп-2 = n (п — 1) (п — 2) Рп-з = = • • • = п (п — 1) ... 2Рг Остается заметить, что Р, = 1. В качестве примера применения предыдущей формулы рассмотрим такую задачу. В связке, имеется п внешне не отличимых ключей, среди них только один, неизвестно ка- кой, подходит к замку. Вы по очереди пробуете ключи. Какова вероятность, что вы добьетесь успеха во время t-го испытания? Будем считать, что ключи пронумерованы, нужный ключ имеет номер 1 (естественно, что номера клю- 22
чей нам на самом деле неизвестны). Ключи могут прове- ряться в любом порядке. Тогда общее число способов пере- бора ключей и! Способы, благоприятствующие нашему событию,— это те перестановки, у которых ключ Нахо- дится в очереди на проверку t-м. При этом остальные ключи могут быть перепробованы в произвольном порядке, т. е. (п — 1)1 Поэтому искомая вероятность (п-1)! = _1_ п I п Таким образом, с равными вероятностями мы можем отпереть замок на каждом из п испытаний. Рассмотрим такую же задачу, полагая, что имеется 2 правильных ключа — 1 и 2. Мы добьемся успеха во время i-ro испытания, если ключ 1 будет иметь номер i, а ключ 2 — номер k > i (в противном случае мы бы имели успех раньше) или ключ 2 будет иметь номер I, а ключ 1 — но- мер k > t. Пусть Aik событие, заключающееся в том, что ключ 1 имеет номер i, а ключ 2 — номер k. Поскольку остальные ключи могут иметь произвольные п — 2 номера, то число перестановок, при которых происходит А^, равно (п — 2)1 Значит, (п — 2) I 1 п! п (п—1) Но интересующее нас событие есть сумма таких собы- тий: Aii-f-i + Au-f-2 + • • • 4- Ain + Ац-и Ai+2i + • • • + + Ani. Всего в этой сумме 2 (п — t) несовместимых событий, каждое из которых имеет вероятность Значит, искомая вероятность равна 1 п (п—1)’ 2(п-0 п(п—1) Выборки. Из п предметов выбирается т по очереди. Сколькими способами можно сделать выбор? Каждый такой выбор будем называть выборкой размера тип элементов. Из соображений симметрии вытекает, что если считать все перестановки равновероятными, то равновероятны и события, заключающиеся в том, что 23
заданные tn предметов занимают в заданном порядке первые т мест в выборке. Действительно, количество тех переста- новок, где зафиксированы предметы на т местах, совпада- ет с числом перестановок из оставшихся п — т предме- тов, которые могут произвольным образом располагаться на остальных п — т местах. Значит, вероятность любой выборки т предметов равна (п — m) I _ ,_________1 _________ п! п (п — 1) . . . (п — m + 1) Число же различных выборок из п элементов размера т есть величина обратная вероятности, так как, если имеется полная группа равновероятных событий, то вероятность одного события есть величина, обратная их числу. Итак, число выборок из п элементов размера т есть «(«-D ••• (n-/n+l) = -^'OT)-:f- Выборки с возвращением. Представим себе, что в урне имеются п пронумерованных шаров. Мы извлекаем шар, отмечаем его номер, а затем возвращаем шар в урну, после чего шары опять тщательно перемешиваются. Повторив эту процедуру т раз, мы получим выборку с возвращением (или с повторением): в ней, в отличие от предыдущего слу- чая, один и тот же предмет (точнее, его символ или номер) может встречаться несколько раз. Заметим, что число выбо- рок с возвращением совпадает с числом способов, которы- ми заданные т предметов могут быть разложены по п ящикам (можно считать, что если при k-м испытании был извлечен шар с номером I, то k-й предмет попал в i-й ящик). Обозначим через Nm число выборок с возвращением размера т. Пусть — число тех выборок, у которых на первом месте t-й шар. Поскольку на остальных т — 1 местах могут быть любые шары, то N„ равно числу выбо- рок без возвращения размера т— 1: N„ = Nm-\- Значит, Nm = N%+ ••• + С =nNm^. Так как N± = п, то N2 = п • п = п2, N3 = п • п2 = = п3, ..., Nm = пт. Рассмотрим такую задачу. Какова вероятность, что в группе людей, родившихся в невнсокосном году (нанри- 24
мер, в группе детсада или в классе школы), у кого-нибудь совпадают дни рождения? Вероятность этого события за- висит от числа людей. Предположим, что их т человек. Число способов, которыми могут расположиться т дней рождения по 365 дням, равно числу выборок с возвраще- ниями из 365 размера т, т. е. 365т. Число таких располо- жений, при которых все дни рождения различны, будет равно числу выборок (без повторений) из 365 размера т, т. е. 365 -364 ... (365 — т+ 1). Таким образом, вероятность того, что все дни рожде- ния различны, равна 365 • 364 . . (365 —m1) /._____1_\ Л______2_\ . 365т = \ 365 J 365 / (, т — 1 ) ’V 365~ / ‘ Вероятность того, что по крайней мере у двух людей из группы дни рождения совпадают, составляет 1 _ (1____L-1} /1____S—'l . . . (i _ ?„—1Л 1 \ 365 Д 365 / V 365 ) Например, при т = 10 эта вероятность равна приблизи- тельно 0,12, при т — 20 — около 0,5, а при т = 30 — уже 0,7. Таким образом, в школьных классах должно довольно часто наблюдаться такое событие, как совпадение дней рож- дения учеников. Сочетания. Рассмотрим теперь, сколькими способами из п предметов можно выбрать группу в т предметов (по- рядок в группе нас не интересует). Такие выборы называ- ются сочетаниями из п элементов по т. Число сочетаний обозначается символом С™ (из п элементов по т). Вычис- лим это число. Проанализируем вероятностный эксперимент, элемен- тарными событиями у которого являются выборки (без возвращений) из п элементов размера т. Число элементар- ных событий равно п (п — 1) ... (п — т + 1). Пусть А — событие, заключающееся в том, что в результате выборки выбраны заданные т элементов (например, аъ ..., ат) в произвольном порядке. Эти элементы можно выбрать стольким числом способов, сколько будет перестановок 25
из т элементов, т. е. ml способов. Поэтому вероятность события А — получить заданное сочетание — будет т ! __ т\ (п — т)! п (п—1) . . . (п— /п +1) п! Поскольку вероятности всех сочетаний равны, то ве- 1 роятность некоторого сочетания есть следовательно, ^.т _ П ! т\(п—т)\ ’ Размещения по ячейкам. В статистической физике состо- яние систем большого числа частиц характеризуется по- ложением в фазовом пространстве отдельных частиц. Все фазовое пространство разбивается на большое число частей (ячеек), и состояние системы описывается размещением частиц по ячейкам. В зависимости от того, какие размеще- ния считаются равновероятными, получаются различные статистики (другими словами, по-разному вычисляются вероятности различных событий, а следовательно, если эти вероятности соответствуют реальности, то и наблю- даемые частоты событий будут различны). Различные типы частиц подчиняются различным статистикам. Пусть имеется п частиц и N ячеек. Статистика Максвелла — Больцмана получается, если считать равновероятными все способы размещения частиц по ячейкам. При этом частицы выступают как индивидуаль- ные (они различимы одна от другой). Число размещений, как указывалось при рассмотрении выборок с возвраще- нием, равно числу выборок с возвращением из N элементов по п, т. е. Nn. Статистика Максвелла — Больцмана может быть спра- ведлива для макрообъектов. При переходе к микрообъек- там предположение о различимости объектов неестественно. Впервые обратил на это внимание Эйнштейн. Статистика Бозе — Эйнштейна. Будем считать, что рав- новероятны состояния системы, которые определяются на- бором чисел пг п2, ... , nN, где щ — число частиц в t-й ячей- ке (И( может обращаться в 0, если в i-й ячейке нет частиц, щ + ... + nN = п). Подсчитаем число состояний системы. Удобно каждому состоянию сопоставить последователь- ность из п нулей и N — 1 единицы по следующему прави- лу: пишем щ нулей, затем единицу, п2 нулей, единицу, ... 26
и т. д., nN нулей. Если где-нибудь идут подряд 2 единицы, то соответствующее п£ равно нулю, т. е. t-я ячейка пуста. Пусть, например, п = 7, N *= 4. Тогда последователь- ности 0 100 100 001 отвечает такое распределение по ячей- кам 1, 2, 4, 0. Таким образом, число состояний системы равно числу последовательностей из п нулей и N — 1 единицы. А их число равно числу способов, которыми можно из N + п —1 элементов (чисел) выбрать N — 1 элемент (номера, на ко- торых стоят единицы). Это число равно числу сочетаний из N 4- п — 1 элемента по У — 1, т. е. s-jv-i (N — п + 1) I Приведем для примера сравнение вероятностей различ- ных состояний по статистикам Максвелла Больцмана и Бозе — Эйнштейна для размещений 5 частиц по 6 ячей- кам. Размещение по ячейкам Число благо- приятных эле- ментарных событий Вероятность (ВJ) по Мак- свеллу — Больцману Вероятность (В2) по Бозе — Эйнштейну В^В., 111110 51 = 120 0,015 0,004 4 211100 60 0,008 0,004 2 221000 30 0,004 0,004 1 311000 20 0,003 0,004 0,7 320000 10 0,001 0,004 0,25 410000 5 0,0006 0,004 0,012 500000 1 0,0001 0,004 0,025 Как видим, вероятности различных состояний по различным статистикам существенно различаются. При статистике Максвелла — Больцмана более вероятны рав- номерные распределения, а при статистике Бозе — Эйнштей- на— неравномерные. Статистике Бозе—Эйнштейна под- чиняются фотоны, атомные ядра, содержащие четное число протонов и нейтронов. Для других типов частиц (электроны, протоны, нейт- роны) нужно использовать статистику Ферми — Дирака. В этом случае обязательно п N и возможны лишь та- кие состояния системы, при которых в каждой ячейке не более одной частицы. Все такие состояния считаются 27
равновероятными. Число их совпадает с числом возможных выборов из N ячеек п числа ячеек, занятых частицами. Поэтому оно равно числу сочетаний из N по п, т. е. См', вероятность одного состояния равна 1/Слг. Например, при М = 6, п = 5 вероятность одного состояния есть 1/Св = = Такую вероятность имеет первое из приведенных в таблице состояний, для остальных вероятности равны нулю. (В таблице указаны далеко не все возможные состоя- ния, а только типичные, характеризующиеся различными распределениями по ячейкам — таких состояний, при ко- торых в одной ячейке 2 частицы, а в трех — по 1, будет при статистике Бозе — Эйнштейна 60.) Любопытно отметить, что при.увеличении N вероятность события «в каждой ячейке не более одной частицы», в слу- чае статистики Бозе — Эйнштейна равная CnN Wl(/V—l)lnl = С/v+i-i п!(ДГ —n)!(W + n —1)! “ _ (N—V) . . . (N — п + 1) - (W+1) ... (tf + n-2) 1 приближается к единице, и если оо, то стремится к единице. Поэтому для «разреженных» систем, для которых ~ мало, статистики Бозе — Эйнштейна и Ферми — Дира- ка практически совпадают. § 4. Независимость случайных событий Понятие независимости—очень важное в теории вероят- ностей. Оно дает возможность, зная вероятности событий, найти вероятности их совместного осуществления. Этс понятие довольно точно отражает понятие независимости некоторых явлений в обычном смысле, т. е. отсутствие влияния одних событий на другие. Хотя, как увидим ниже, обычное понятие независимости и теоретико-вероят- ностная независимость отличаются друг от друга некото- рыми сторонами. Рассмотрим предварительно следующий простой при- мер. Пусть имеется уриа с белыми и черными шарами. Событие А заключается в том, что в первый раз из урны будет извлечен черный шар, событие В — в том, что во 28
второй раз будет извлечен черный шар. Если шары извле- каются друг за другом (без возвращения), то событие А существенно влияет на событие В. Действительно, если в первый раз вынули черный шар, то число черных шаров уменьшилось, а значит, соответственно уменьшилась и ве- роятность события В (например, если число черных шаров равно 1, то после события А событие В не может произо- йти). Если же первый раз был вынут белый шар, то умень- шилось число белых шаров при том же количестве черных, следовательно, вероятность В увеличилась (так, при одном белом шаре после его извлечения событие В стано- вится достоверным). Теперь обратимся к другому способу извлечения ша- ров — извлечению с возвращением: вынутый шар возвра- щается в урну, после чего шары тщательно перемешивают. Таким образом, перед повторным извлечением шара урна находится точно в таком же состоянии, в какбм она была перед первым извлечением, и то, какой шар вынули в первый раз, никак не влияет на возможность появления события В. Поэтому естественно считать, что события А и В независимы. Рассмотрим два эксперимента, в каждом из которых имеется конечное число равновероятных событий: п1 — в первом, п2 — во втором. Будем производить оба экспе- римента одновременно (точнее, будем одновременно рас- сматривать события, которые произошли в каждом экспе- рименте, они могут быть такими, что один обязательно про- исходит после другого, как в рассмотренном выше примере повторного извлечения шаров). Пусть Ер, ... , Еп’, — элементарные события в первом эксперименте, Ej2), ... ..., Ер —во втором. Тогда в составном эксперименте, состоящем в том, что производятся оба эксперимента, про- исходят элементарные события Е*’ • Ер (т. е. Ер про- изошло в первом, Ер — во втором эксперименте). Если результаты одного эксперимента не влияют на результаты другого, то при любом ЕР в первом эксперименте может произойти любое ЕР во втором эксперименте. Всего будет • п2 элементарных событий составного эксперимента, при этом они будут равновероятны. Таким образом, вероятность элементарного события в составном эксперименте будет = — • —. Первый сомножитель обозначает вероят- njrtj rtf n2 r 1 29
ность элементарного события в первом эксперименте, вто- рой — во втором. Таким образом, имеем Р (Е1^ Е^)^Р(Е^) • Р(£р). Это свойство перемножения вероятностей для произве- дения событий и кладется в основу определения независи- мости двух событий. События А и В называются независимыми, если Р (А • В) = Р (А) Р (В). (1) Покажем, что если событие А наблюдается в первом эксперименте, а событие В — во втором, то они независи- мы. Пусть А осуществляется, когда происходит одно из т.! элементарных событий первого эксперимента, а В — одно из т2 элементарных событий второго эксперимента Тогда событие А • В в составном эксперименте осуществля- ется, если происходит одно из элементарных событий 4° • Ж где k принимает mY различных значений, г i — т2. Поэтому число таких элементарных событий равно тг • т2. Учитывая, что общее число элементарных событий составляет пх п2, получим в соответствии с классическим определением вероятности Р (Л • В) -- пхп.г "1 т2 "Г' Но -у- и есть вероятности событий А и В соот- ветственно в первом и втором экспериментах. Значит, дей- ствительно выполнено (1),т. е. события А и В независимы При этом мы также говорим, что А не зависит от В, В и зависит от А. Покажем, что если А не зависит от В, то А не завися и от В (в обычном понимании независимости так должно i быть: А не зависит от того, произошло ли В или не про изошло). Имеем Р (А • В) + Р(А -В) = Р(Ау, Р(А-В) = Р(А) — Р(А- В) = Р(А) — Р(А) Р(В) = »Р(Л)(1-Р(В)) = Р(Л)Р(В). 30
Аналогично устанавливается, что тогда независимы и та- кие пары событий: А, В\ А, В. Укажем на кажущееся отличие понятий теоретико-ве- роятностной независимости от независимости в обычном понимании. Так как при обычном понимании будущее не влияет на прошлое, то, если эксперименты выполняются один за другим во времени, первый кажется независимым от второго, хотя второй и может зависеть от первого. Та- ким образом, обычное понятие независимости (зависимос- ти) несимметрично, тогда как в теории вероятности оно сим- метрично. Однако на самом деле здесь нет противоречия, если учесть, что, зная события в будущем, можно получить определенную информацию о том, что происходило в прош- лом (на этом основаны некоторые исторические исследова- ния, относящиеся к далекому прошлому). Проанализируем определение независимости нескольких событий. Здесь мы встретимся с существенным отличием обычного и теоретико-вероятностного понятий. В обычном по- нимании, если событие А не зависит от В и не зависит от С, то А не зависит и от В • С, т. е. от того, что произошли одновременно и В и С. Приведем пример, показывающий, что для теоретико- вероятностной независимости такое положение вещей не обязательно. Рассмотрим тетраэдр, стороны которого окра- шены в разные цвета: первая — в красный, вторая — в зе- леный, третья — в синий, а четвертая — во все три. Тет- раэдр бросают на плоскость, и он с одинаковыми вероят- ностями падает на каждую из граней. Обозначим через К (3, С) события: на той грани, на которую упал тетраэдр, имеется красный (зеленый, синий) цвет. В этом эксперименте 4 элементарных события. Каждое из событий К, 3, С происходит в двух случаях: либо если тетраэдр падает на грань соответствующего цвета, либо когда он падает на трехцветную грань. Поэтому Р(К)=Р(3) = Р(С)=4 = 4- Каждое из событий К • 3, К • С, 3 • С, К • 3 • С происходит тогда, когда тетраэдр падает на трехцветную грань, т. е. в одном случае из четырех: Р(К • 3) = Р(К • С) = Р(3 • С) = Р(К • 3 • С) = . 31
Поэтому Р(К-3)=4 = 4-.4- = Р(К).Р(3), Р(к-о=4-=4 • 4=₽wp^- Таким образом, событие К не зависит как от события 3, так и от события С. При этом и события 3 и С также независимы: Р(3 • С) =-|-= Р(3) • Р(С). Но событие К уже зависит от события 3 • С: р(К • з • с) = 4^4 = • р<3 • с>- (Если произошло событие 3 • С, то тетраэдр упал на трех- цветную грань, а значит, событие К также произошло.) Поэтому независимость даже трех событий нуждается в дополнительном определении. События А, В, С неза- висимы, если независимы каждая пара из этих событий и, кроме того, Р(А • В • С) = Р(А) • Р(В) • Р(С). (2) Так что для независимости трех событий, кроме соотно- шения (2), нужно выполнение еще трех таких соотношений: Р(А • В) *=Р(А) • Р (В), Р(А С) = Р(А) • Р(С), Р(В -С) =Р(В) . Р (С). Дальнейшее распространение понятия независимости на большее число событий проводится индуктивно: при определении независимости п событий уже используется независимость п — 1 события (при определении независи- мости трех событий использовалась независимость двух). Так, для четырех событий А2, Аа, А4: они будут независимы, если независимы каждые из трех событий и Р (Дх • А2 • А3 • А4) = Р (Ах) • Р (Д2) • Р (А3) • Р (Д4). п событий Alt ..., Ап независимы, если независимы каждые из п — 1 событий и, кроме того р Их а2 . ... • 4) = р Их) Р (4) • • • Р {Ап). 32
Оказывается, независимость событий А± , ... , Ап вле- чет независимость и такой последовательности событий, которая получается, если некоторые заменены на противо- положные. Так, в случае трех событий независимы каж- дые из трех событий: Aj, А2, A3J Ар Ag, Аз', Ац А2, А3', Ар Аг, Ag', Ах, А2, А3; Дх, Аг, А3; Alt А2, As. Поскольку любую такую последовательность событий можно получить, заменяя в последовательности событий лишь одно на противоположное (такую операцию можно производить несколько раз), то для доказательства утверж- дения достаточно показать, что независимы события Alf А2, ..., А„. Покажем это для случая п = 3, т. е. что из независимости Аг, Аг, А3 — вытекает независимость Av А2, А3. События Xi и Д2, Ai и А3 независимы, так как независимы Ах и Д2, Ai и А3 (из независимости трех со- бытий вытекает независимость каждой пары). Далее Р (А • Аг • А3) + Р (Ах • А2 • А31 = Р(А2. Аз), так как события Aj • Д2 • Д3 и Ai • Д2 • Д3 несовместимы и Ai • Д2 • Аа 4- Ai • Д2 • Аз = А2 • А3, Значит, P(Ai • Ai • Аз) = Р(Д2 • Д8) —Р(АХ Аг • Аз) = = Р (Д2) Р (Аз) - Р (Ах) Р (А2) Р (Аз) = = (1 - Р (АО) Р (А2) Р (Аз) = Р (AJ Р (Д2) Р (Аз). Рассмотрим наследование двух признаков, определя- емых генами, расположенными в различных парах хромо- сом. Интерес представляет тот случай, когда по обоим приз- накам родители гетерозиготны. Будем обозначать аллели соответствующих генов А, а (первый признак), В, b (вто- рой признак). В результате мейоза возможны такие четыре комбина- ции генов в гаметах: (А; В), (А; Ь), (а; В), (а; Ь). Поэтому после слияния гамет получаем следующие 16 возможных видов зигот (на первом месте — ген, передан- ный отцом, на втором — матерью): 3 533 33
(АА; ВВ) (АА; ЬВ) (аА; ВВ) (аА; ЬВ) (АА; ВЬ) (АА; ЬЬ) (аА; ВЬ) (аА; ЬЬ) (Аа; ВВ) (Аа; ЬВ) (аа; ВВ) (аа; ЬВ) (Аа; ВЬ) (Аа; ЬЬ) (аа; ВЬ) (аа; ЬЬ) Таким образом, с вероятностью -yg- потомок будет гомо- зиготным по обоим признакам (генотипы АА; ВВ, АА; ЬЬ, аа; ВВ, аа; ЬЬ), с вероятностью------гетерозиготен по обоим признакам (генотип Аа; ВЬ), с вероятностями ------- гомозиготен по одному признаку и гетерозиготен по дру- гому (генотипы АА; ВЬ, аа; ВЬ, Аа; ВВ, Аа; ЬЬ). Значения этих вероятностей определяются подсчетом числа представ- ленных в таблице элементарных событий, приводящих к данному генотипу. Легко проверить, что для любой ком- бинации генов у потомка справедливо равенство: вероят- ность данного генотипа равна произведению вероятностей комбинаций генов по каждому признаку, например Р (АА; ВВ) = Р (АА) - Р (ВВ), Р (Аа; ВЬ) = Р (Аа) Р (ВЬ). Здесь Р (АА), Р (ВЬ) и т. п. обозначают вероятности то- го, что у потомка по первому признаку генотип АА или по второму признаку — ВЬ. (Вероятности таких комби- наций вычислялись в § 2.) В частности, показано, что Р (АА) = Р (ВВ) = Так что Р (АА; BB) = P(AA)P(BB) = -jL 4 ’ Там же найдено, что Р (Аа) = а значит, и Р (ВЬ) = -у. Отсюда Р (Аа; ВЬ) = 4'4 = Р (Аа) Р <ВЬ)- Итак, мы пришли ко второму закону Менделя: при пе- редаче от родителей к потомкам признаков, определяемых генами в различных парах хромосом, они передаются неза- висимо друг от друга. Это справедливо и для большего числа признаков, чем два. 34
В качестве примера рассмотрим потомство кареглазых курчавых родителей, если они гетерозиготны по этим при- знакам (кареглазость доминирует над голубоглазостью, а курчавость — над прямоволосостью). Если А — ген каре- глазости, а — голубоглазости, В — курчавости, b — прямо- волосости, то потомки по фенотипу разделяются на такие группы: 1) кареглазые курчавые; 2) кареглазые прямово- лосые; 3) голубоглазые курчавые; 4) голубоглазые прямо- волосые. Первому фенотипу отвечают генотипы АА; ВВ, Аа; ВЬ, АА; Bb, Аа; ВВ. Поэтому вероятность появления та- ких потомков есть Р (АА) Р (ВВ) + Р (Аа) Р (Bb) + Р (АА) Р (ВЬ) + + Р(Аа)Р(ВВ) = 4 • 4+4 . ф+Ф 4 + 1 1 _ 9 + 4 ' 2 “ 16 ’ Второму фенотипу — соответствуют генотипы АА; ЬЬ, Аа; ЬЬ; третьему — аа; ВВ, аа; ВЬ. Вероятности обоих 1 1 3 одинаковы и равны -гт—F -г- = -тс-. Наконец, последний 10 о 10 имеет генотип аа; ЬЬ, вероятность его -рр § 5. Геометрические методы. Задача о встрече В § 3 были рассмотрены случайные эксперименты, имею- щие конечное число исходов. Однако они далеко не охваты- вают всех возможных случайных экспериментов. Во мно- гих случаях возможные исходы образуют бесконечную непрерывную совокупность. Самый простой пример — бросаем на пол шарик и смотрим, какой точкой поверхности он прикоснется к по- верхности пола. Это элементарное событие в нашем экспе- рименте. Множество таких элементарных событий совпа- дает со множеством точек поверхности сферы (шарика). Можно ли здесь разумно использовать понятие равно- вероятности для определения вероятности различных собы- тий? Какого рода события нужно рассматривать в этом эксперименте? Можем считать, что шарик окрашен в раз- личные цвета и нас интересует цвет, которым шарик кос- нется пола впервые. 3 35
Давайте изменим эксперимент: шарик будет неподви- жен, а на него случайным образом опускается точка. Пусть, например, шарик — наша Земля, на которую падает мете- орит. Нас может интересовать, упадет ли он на воду или сушу, если на сушу, то в пустыню или густонаселенную местность. Вместо метеорита это может быть автоматичес- кая космическая станция, случайно вышедшая из строя, или космический корабль инопланетян. Вернемся к нашему шарику. Пусть он окрашен в два цвета (черный и белый), причем цветовые пятна произволь- ной формы. Попробуем определить вероятность того, что шарик коснется пола черной поверхностью. Для этого пред- ставим, что шарик равномерно утыкан короткими иголка- ми, окрашенными в цвет точки поверхности, из которой выходит иголка. Пусть общее число иголок N = п + т, где п — число черных, т — число белых. При бросании шарик будет касаться пола одной из иголок. Если считать касания любой иголкой равновероятными, то вероятность коснуться пола черной иголкой равна Но при больших Л' п отношение примерно равно отношению площади поверх- ности мячика, окрашенной в черный цвет, ко всей площади поверхности шарика. Это равенство будет тем более точно, чем больше N. Но если иголки будут сплошь заполнять поверхность, то мы получим опять гладкий шарик. Итак, мы пришли к следующему методу определения вероятности в данном эксперименте: вероятность того, что точка, случайно брошенная на шарик, попадет в за- данную часть поверхности шарика, равна отношению площади этой части поверхности ко всей поверхности ша- рика. Легко представить и эксперимент, когда элементарные события можно считать точками некоторой линии. Так, при бросании тонкого кольца, которое можно рассматри- вать как окружность, наблюдается такое событие: кольцо коснулось поверхности данной точкой своей окружности. Здесь элементарные события—точки окружности. Пусть окружность окрашена в черный и белый цвета. С помо- щью рассуждений, использовавшихся при анализе экспе- римента с бросанием шарика, можно установить, что при бросании кольца вероятность того, что оно коснется впер- вые поверхности точкой, окрашенной в черный цвет, рав- 36
на отношению суммы длин отрезков дуг окружности, окрашенных в черный цвет, к длине всей окружности. Наконец, обратимся к эксперименту, в котором элемен- тарные события есть точки некоторого тела. Возьмем со- суд, заполненный газом. Пусть среди молекул газа есть одна «меченая». Какова вероятность того, что в определен- ный момент времени эта молекула попадет в заданную часть объема? Пусть, например, это молекула радиоактивного вещества. Нас интересует событие, заключающееся в том, что радиоактивное превращение произойдет в той части объема, где расположен счетчик таких частиц (только в этом случае данный факт будет зарегистрирован, и, зна- чит, мы узнаем о присутствии в сосуде «меченой» молеку- лы). Необходимость рассмотрения таких событий возникает, если для слежения за возможной утечкой некоторого газа в сосуды, содержащие этот газ (газгольдеры), добавляют радиоактивные примеси, а для обнаружения их снаружи сосудов помещают счетчики радиоактивных частиц. Для подсчета вероятности того, что «меченая» молекула в объеме S окажется в его части S1( разобьем весь объем иа N ячеек (частей) одинакового объема. Какая бы из ста- тистик (о них шла речь в § 3) не использовалась, вероят- ность попасть в одну ячейку будет Пусть пг — число ячеек, полностью попавших в Slt a — число таких, которые имеют с Sj общие точки (для пояснения приводит- ся рисунок для плоской ситуации, ячейками служат квад- Если N -> оо, то оба отношения -у- и -у- стремятся к отношению объема к объему S. Таким образом, вероят- 37
носгь попадания точки (молекулы) в данную часть S, объем S есть отношение этих объе?. ов. Если эксперименты с конечным числом исходов можг представлять как случайный выбор из конечного чис.т предметов, то в описанных примерах эксперименты состой в случайном выборе одной точки из совокупности точек образующих некоторую геометрическую фигуру (линию плоскую фигуру, пространственную фигуру). Наблюди мые события состоят в том, что выбранная точка будс принадлежать данной части фигуры. Вероятность тако1 события определяется как отношение мер части фигуры : всей фигуры (в зависимости от вида фигуры иод «мерок понимается длина, площадь или объем). Приведем три наиболее характерных эксперименте связанных со случайным выбором точки. 1. Случайный выбор точки из отрезка. Выбирается то1 ка отрезка [а, Ь]. Вероятность того, что выбранная точк попадет в отрезок [a, fi], лежащий в отрезке [о, ft], равг р — а b — а ' На практике со случайным выбором точки из отрезк мы встречаемся при рассмотрении ошибок пзмереиш Каждый измерительный прибс —4------—х------------1- имеет шкалу, (разбитую на о: а ос fl b резки равной длины) п некотс рый указатель (стрелку). Этс указатель устанавливается при измерении между двум делениями шкалы, например между отметками п и п-г', В этом случае положение указателя можно рассматривав как случайный выбор точки пз отрезка [п, п 11. 2. Случайный выбор точки из плоской фигуры. В этс случае задана некоторая ограниченная фигура G, из кот рой и выбирается точка. Вероятность того, что выбраннг точка находится в некоторой части G, образующей фигур 61( определяется так: _____ площадь G, у площадь G У Рассмотрим подробней случай, / когда G — прямоугольник. Будем считать, что длины его сторон а и g ________________у ft. Выберем оси координат так, как указано на рисунке (с. 39). Чтобы выбрать некотору точку Р в прямоугольнике, нужно выбрать ее координат 38
хи у, при этом координата х есть некоторая точка на от- резке 10, о], координата у — точка на отрезке 10, Ь]. Покажем, что этот выбор следует производить незави- симо. Пусть А — событие, заключающееся в том, что точ- ка Р выбрана так, что координата х оказалась из отрезка [а, [3] на оси х, лежащем в отрезке 10, о], событие В за- ключается в том, что координата у оказалась из отрезка [у, б] на оси у, лежащем в отрезке 10, Ь]. Событие А происходит, если точ- ка Р попадает в прямоугольник с а основанием [а, р] высоты b, а со- 5 бытие В, если точка Р лежит в пря- моугольнике, боковая сторона ко- торого есть отрезок [у, б] па оси у, ? а длина основания а. Наконец, собы- тие А • В происходит, если точка Р лежит в пересечении этих двух пря- ’ ос /з Ь моугольников, т. е. в прямоугольни- ке с длинами сторон 0 — а и б — у (все прямоугольники изображены на рисунке). Имеем P(X) = .lLz^.L^J-”., Р(В)= = ' ' ba a v ' ab b Эти соотношения показывают, что, выбирая случайно точку Р в прямоугольнике, мы случайно выбираем ее координаты на сторонах прямоугольника. Наконец, Р (А • В) = = JL_EL . L = р (А)Р(В). Таким образом, события А и В независимы: при слу- чайном выборе точки из прямоугольника мы случайным образом выбираем и ее ко- ординаты. Следует отметить, что этот результат справедлив только для прямоуголь- ника, причем со сторона- ми, расположенными па- раллельно осям коорди- нат. Рассмотрим в качестве примера случайный выбор из повернутого на 45° квад- рата (см. рисунок). Пусть 39
сторона квадрата а. Событие, заключающееся в том, что ко- ордината х выбранной точки Р попадет в отрезок [с, с + + h], происходит тогда и только тогда, когда точка Р лежит в трапеции, вырезаемой из квадрата прямыми х = с и х = с + h. Основания трапеции 2 ----сj и 2 (а^-~ — с — hj ^мы считаем 0 с < с + й < а-^2 J, высота h, так что площадь равна (а~У2 —2с — h) h, а вероятность события (1/2-----—---h} \ а /а Итак, вероятность того, что координата х попадает в отрезок длины h, не пропорциональна h (если бы она вы- биралась случайно из отрезка длины а]/2, она бы равня- ft \ лась ), поэтому нельзя считать, что эта координата а - Г аУ 2 аУ 2 1 выбрана случайно из отрезка-----—. Очевидно также, что значение координаты х влияет на значение координаты у, так как при заданном х координата у меня- I / a// । Л а /2 , , ] ется на отрезке —I—---------Iх II, —------Iх I • 3. Задача о встрече. Пусть два объекта (субъекта) попа- дают на место встречи в некоторые случайные моменты вре- мени из отрезка [0, о]. Каждый объект проводит там время т (фиксированное) и затем покидает это место. При этом они прибывают на место встречи независимо один от дру- гого. Нужно определить вероятность того, что объекты встретятся, т. е. в некоторый момент времени окажутся одновременно на месте встречи. С такой ситуацией мы сталкиваемся, например, при рас- смотрении химической реакции двух веществ в растворе в присутствии катализатора: здесь место встречи — активная зона у молекулы катализатора, а должны встре- титься молекулы различных веществ. Другой пример — встреча в заданном месте (например, на водопое) двух задан- ных животных (хищника и жертвы или разнополых осо- бей одного вида). Будем отмечать моменты попадания объектов на место встречи точками х (первого) и у (второго) на двух взаимно перпендикулярных сторонах квадрата со стороной а (эти стороны можно считать расположенными на осях 40
прямоугольных координат, как указано на рисунке). Встреча между объектами состоится, если расстояние меж- ду моментами появления объектов не превосходит т, т. е. |х— у\ т. Множество точек квадрата, имеющих коор- динаты (х, у), удовлетворяющие этому неравенству, представляет собой шестиугольную фигуру, кото- рая получается в результате пере- сечения квадрата и полосы, ле- жащей между прямыми х — у = т, х — у = —т. Искомая вероятность равна отношению площади этого шестиугольника к площади квад- рата. Заметим, что два треуголь- II ника, дополняющих шестиугольник г z до квадрата (треугольники I и II на рисунке), составляют вместе квадрат со стороной а — т. Значит, площадь шестиугольника равна аг — (а —т)г, а вероятность встречи будет аа — (а — т)а __ J _ Л_т_\2 <га \ а / * а / 1 Если т = -у, то искомая вероятность равна 1 — 1---*= = -д- (больше половины). 4. Выбор точки из куба. Рассмотрим случайный выбор точки из куба со стороной а. Будем считать, что одна вер- z шина куба лежит в начале координат, а оси координат направлены по ребрам, выхо- дящим из этой вершины. Веро- / / ятность того, что точка будет с----------( выбрана из некоторой части куба, равна отношению объ- ема этой части к а3 — объему / Т куба. Для того чтобы вы- / / брать точку внутри куба, нуж- ----------* но указать ее координаты х, У> z, каждая из координат меняется от 0 до а. Точно так, как при рассмотрении случайного выбора точки из прямоугольника, можем установить, что при слу- чайном выборе точки из куба каждая координата случайно 41
выбирается из отрезка [0, al, причем выбор разных коор- динат происходит независимым образом. Например, если А есть событие «координата х лежит в отрезке [aj а2]», В — событие «координата у лежит в отрезке ff}1( [32]», а С — «координата z лежит в от- резке [у1( т21», то А • В • С есть событие, при котором од- новременно выполняются та- кие неравенства для коорди- нат выбранной точки: cq < х < а,, ₽! < у < 02, ?! < z ?.,. Это означает, что точка попала в параллелепипед, который вырезают из ку- ба полосы, параллельные координатным граням ширины а2 — «1, |32 — Та — Т1> т. е- это будут размеры сторон параллелепипеда. Поэтому Р (Л • В • С) = (eg — eg) (P-г —Р1)(Уг —71). а3 К1 . Р2 Pi _ ?2 Yi а а а Но —2 д к‘ есть вероятность выбрать случайно из отрез- ка [0, al точку так, чтобы она попала в [cq, a2], аналогич- — R1 v1 и но ——— и а есть вероятности того, что случайно выбранные точки у и г попадут соответственно в отрезки [₽i> Рг1. lVi, VaL Рассмотрим такую задачу. Из отрезка [0, al выбираются случайно, независимо одна от другой три точки х, у, г. Какова вероятность, что из отрезков длип х, у, г можно составить треугольник? Из геометрии известно, что такой треугольник можно составить, если выполнены неравенства х + у > г, х -г z > у, z + у > х. Обозначим через А со- бытие, которое заключается в том, что выполнены все эти три неравенства. Пусть далее В, С, D — соответственно события: z^-x + у, У~>х+г, x^z+у- Будем считать, что все числа х, у, г положительны. Тогда события А, В, С, D несовместимы (Л = В + С + D, если происходит В и С, то х = 0, z >= у). Значит, Р (Л) = 1 — Р (В) — Р (С) — - Р (D). 19
Из соображений симметрии легко видеть, что Р (В) = = Р (С) = Р (£>). Вычислим Р(В). г = х + у на плоскос- ти, заштрихованной внутри куба (см. рисунок). Поэтому событие В происходит, если точка попадает или на эту плоскость, или выше нее, т. е. попадает в пирамиду OPQR (она перевернутая) с площадью д2 основания — и высотой а. Значит, ее объем Поэтому Р(Л) = 1 —ЗР(В) — 1 —3~ = § 6. Схема независимых испытании Рассмотрим некоторый эксперимент и событие А, которое с вероятностью р (О < р < 1) может происходить в этом эксперименте. Будем повторять эксперимент независимо п раз. Сколько раз произойдет событие А при п повторе- ниях этого эксперимента? Обозначим через Ak, k = 1, 2, ... ..., п событие, заключающееся в том, что событие А про- изошло в k-м эксперименте. Сначала разберем такой важный частный случай общей ситуации: какова вероятность того, что событие А про- изойдет хотя бы раз в серии из п экспериментов. Это означает, что произойдет хотя бы одно из событий Alt Аг, ... ..., Ап, т. е. произойдет событие А1 + ... +А„. Для вы- числения Р ( Аг + ... + Ап) (так как указанные события могут происходить одновременно, то нельзя пользоваться формулой сложения вероятностей) заметим, что противо- положное событие Заключается в том, что А ни разу не произошло, а значит, произошли события Alt ..., Ап: 4 + • • • + Ап = А{ • А2.........А„. Поскольку эксперименты производятся независимо, то события Alt ..., А„ независимы, так что р (4 • 4 ... 4) = р (4) р (4) ... р (Ап). 43
Но вероятности событий Ак одинаковы и равны 1 —'р (Р (Л) = 1 — Р (Л)). Значит, Р (Лх + . . • + А„) = (1 - р)”, откуда Р(Л,+ • • • + Л„) = 1 — (1 — р)". (1) Это и есть формула, дающая вероятность того, что в п независимых испытаниях событие, имеющее вероятность р, произойдет по крайней мере 1 раз. Из этой формулы вытекает такое важное следствие: как бы мала ни была вероятность события Л, при достаточ- но большом числе испытаний оно произойдет (хотя бы раз) с вероятностью, сколько угодно близкой к единице. Дейст- вительно, правая часть равенства (1) при п-> оо стремится к 1, так как 1 — р < 1 и, значит, (1 — р)п -> 0 при п -> oq. Пусть, например, /? = 0,0001. Тогда при п = 100 000 вероятность в правой части (1) равна примерно 0,99995. Благодаря этому обстоятельству в физике были обнару- жены (и продолжают обнаруживать) новые элементарные частицы. Большинство из них возникают в ядерных реак- циях с очень малыми вероятностями, кроме того, как пра- вило, они существуют очень короткое время, так что веро- ятность обнаружить их в единичном эксперименте ничтож- на (но положительна!). Повторяя эксперименты достаточно много раз,— а это возможно, так как количество атомов, которые участвуют в экспериментах (при этом то, что про- исходит с отдельным атомом, можно считать независимым от остальных экспериментом) имеет порядок 1020,— мы тем не менее в состоянии регистрировать такие маловероятные события. Вычислим теперь вероятность того, что при п повторе- ниях эксперимента событие Л произойдет ровно т раз (пг п). Обозначим это событие через Ст. Если произошло событие С,п, то среди событий Ль .... А„ произошло т событий, а среди событий Ль .... Ап — п — т. Это бу- дут события вида Л1 • Л2 ... Ат • Ат-1-i ... Ап, (2) Л1 • Л2 . . . Л/п—1 • Ат • Am-f-l • Am-f-2 • • • Ап и т. д. Вероятность каждого такого произведения в силу независимости событий, происходящих в различных экспе- 44
риментах, равна произведению вероятностей отдельных со- бытий, среди которых т имеют вероятность р, ап — т — вероятность 1 — р. Значит, вероятность отдельного произ- ведения равна р'п(1-рГ'л. Сколько произведений событий вида (2) входит в С„(? Каждое такое произведение определяется выбором из п элементов (номеров событий) т (тех, при которых происхо- дит событие А; в экспериментах с остальными номерами происходит Л). Но число способов выбрать из п элементов пг равно числу сочетаний из п по т, т. е. С™. Заметим, что различные произведения вида (2) являются несовместимыми событиями. Действительно, для таких двух произведений всегда можно указать такое k, что в одно входит Ak, а во второе Ak. Значит, вероятность собы- тия Ст равна сумме вероятностей событий вида (2), а так как все они равны между собой, то она равна С,", умноженному на вероятность одного события. Таким обра- зом, Р(Ст) = Стпрт (1 - р)п~т = рт (1 - р)п~т. (3) Вероятности Р (Ст) носят название биномиальных. При т = 0 и т = п считаем С™ = 1 (или 0! = 1). Тогда фор- мула (3) будет справедливой и для т = 0 и т = п. Напри- мер, P(CO) = P(A ... л„) = (1-р)л. Поскольку при проведении п экспериментов произой- дет хотя бы одно из событий Ст, т = 0, 1, ..., п , то = Со + С\ + • • • + Сп. (U — достоверное событие). События в правой части послед- него равенства несовместимы, так что 1 =Р(С0)+Р(С1)+ • . . +Р(Сп). Подставляя вмес+о вероятностей их значения с помо- щью формулы (3), получим (1 - р)" + п(1 - р)п~1 р+-п {п~ ° (1 - р)п~2р* + ••• + п । /« i п—т т , , п 1 + Р + • • • -гР =1- 45
Это есть формула бинома Ньютона (мы ее получили из вероятностных соображений). Поэтому вероятности (3) и носят название биномиальных. Подсчитаем вероятности появлений события в 5 испыта- ниях, если вероятность появления его в одном равна -у. Тогда Р(Сй)_(4)’ = ^-„ 0,132. P(C1) = 5.4.(4), = -i«0.329, ₽ (Q=44 (4)' (4)’=44 ~ «зав. р <с>> “ 44 (4)2 (4)’ - -ж- «Оли. '•с<)-з-(4)(4)3 4-4г=(’.(’41. ₽«?,)-0,004. Как видим, событие появляется 1 или 2 раза с вероят- 2 ностью примерно -у, а более чем 3 раза — с вероятностью меньшей, чем 0,05. Заметим, что если происходит событие Съ частота появления события А-у, а если С2, то часто- л 2 112 Л . та А равна -у. -у < -у < -g----это наиболее близкие возможные частоты к значению вероятности, они оказыва- ются наиболее вероятными. Рассмотрим пример с гетерозиготными по признакам «кареглазость» и «курчавость» родителями, который уже обсуждался в § 4. Мы видели, что по фенотипу дети таких родителей могут быть четырех типов: 1) кареглазые курча- вые с вероятностью -jy, 2) кареглазые прямоволосые с веро- з ятностью -jg-, 3) голубоглазые курчавые с вероятностью 3 1 jy, 4) голубоглазые прямоволосые с вероятностью -jy. Пред- положим, у них родились пять детей (без двойняшек). В этом случае рождения отдельных детей можно рассматри- вать как независимые испытания. 46
Составим таблицу вероятностей для событий, заключаю- щихся в том, что среди детей заданное число будет принад- лежать к одному из четырех типов (т — число детей, Ak — тип ребенка, k = 1, 2, 3, 4). \ т А ° 1 2 1 7 \5 1 да 0,016 \ 16 / 5- —.(—/да ю. (_L|2|— 16 \ 16 / \ 16 1 16 / да 0,103 да 0,267 2'3(4)s-°'351 4 (-Я)'= 0.723 „ 3 • 131 9 • 133 5 = 0,409 10 — = 0,188 166 165 154 153 5 = 0,241 10 • = 0,032 165 166 3 4 ' 5 1 9 \3/ 7 \2 в 10-Ы Ы = 5 = 0,34 27 • 132 10 = 0,044 16® 152 10 т- = 0,002 165 „ 81-13 „ / 3 \5 5 • = 0,005 = 0,0002 16® \ 16 / 15 / 1 \5 5- = 0,0001 = 0,000001 105 \ 16 / Из этой таблицы, например, вытекает, что вероятность появления среди детей хотя бы одного голубоглазого и пря- моролосого равна примерно 0,3. Заметим: вероятность того, что хотя бы один ребенок будет голубоглазым, составит 1 — (—У’ = 1 ----243 » 0 77 — 1 14/ 1 1024 ’ , 3 солее чем -г. 4 § 7. Закон редких событий Формула биномиальных вероятностей при большом числе испытаний п неудобна для вычисления, поскольку в нее входят трудно считаемые факториалы больших чисел. Сей- час мы получим некоторые приближенные выражения для указанных вероятностей в случае большого tv, эти формулы 47
будут тем более точными, чем больше будет п. В этом пара- графе мы рассмотрим специальный случай, когда вероят- ность появления события в одном испытании очень мала, а число испытаний так велико, что вероятность появления хотя, бы одного события в серии из п испытаний не очень близка к нулю и не очень близка к 1. В этом случае событие А может либо ни одного разу не произойти в серии, ли- бо произойдет конечное число раз (1, 2, 3, ... число раз существенно меньше, чем число испытаний). Такого рода события называются редкими. К ним относятся, например, рождение тройни у людей, регистрация космических час- тиц сверхвысоких энергий, возникновение электрон-позит- ропной пары, различного рода катастрофы. Чтобы вывести формулу вероятностей редких событий, нам потребуется один математический факт. В теории пре- делов устанавливается, что при х -> 0 величина (1 + *)1М стремится к некоторому пределу, равному приближенно 2,718281828... и обозначаемому буквой е. Число е играет очень важную роль в математике, оно служит основа- нием натуральных логарифмов и, кроме того, входит во мно- гие математические и физические формулы, в частности в формулу Пуассона для вероятностей редких событий, которую мы получим ниже. Если вероятность появления события А в одном испыта- нии равна р, то вероятность того, что оно ни разу не поя- вится в п испытаниях, составляет Если р 0, то и — р -> 0 и, значит, (1— р) ₽->е. Поэтому при достаточно малых р 1 — (1—p)n^il—е~пр 1—е~а, где а = пр. Для того чтобы это выражение было отлично (не при- ближалось) ни к 0, ни к 1, нужно, чтобы а не стремилось ни к 0, ни к оо, т. е. было ограниченным. Это означает, что п 1 , должно иметь порядок — (или, что то же самое, р имеет 1 \ тл порядок — I. Предположим, что пр ~ а, а число п -> сю. 48
Тогда для вероятности того, что произошло т событий, можем записать такое представление: ИI „т „\п—т т!(п — т)! Р ~ 1 / , 1\ / < Ш — 1 ) т т ,, . п—т — —г- *------• • • *----------га р (1 — р) ml \ п / \ п j ' га/ Число гаг у нас фиксировано, п -*• сю, пр ~ а. Поэтому ('-4) так как каждый сомножитель стремится к 1. Далее (пр)т стремится к am, (1 — р')п -> е~° (это было установлено выше). Наконец, так как p^ Q, (1 —р) ->1, то и (1 —р)~т^-1. Окончательно получаем П1 т /1 \П—т О. —а —г-;---тт—р (1—р) -»• е . ml (п — т)! r v ml Правые части этих соотношений 171 рт(а)=-^ге~а (1) дают вероятность того, что произойдет гаг редких событий. Формула (1) носит название формулы Пуассона. Ею поль- зуются при конечных (но больших) га, подставляя пр на место а. Из формулы (1) можем получить следующую формулу математического анализа: ea=l+ra + 4-+ • • • +-^-+ ... (2) И действительно, при неограниченном возрастании га может произойти любое из событий Ст> где Ст — собы- тие, заключающееся в том, что произошло ровно гаг редких событий. Значит, 1 = Р(С0) + Р(С1)+ . . - +Р(Ст)+ ... (справа стоит бесконечная сумма, т. е. сумма ряда). Умно- жая это соотношение на еа и заменяя Р (Ст) на рт (а), получим (2). В истории физики известен случай, когда именно наб- людение редких событий привело к великому открытию. Это было открытие Э. Резерфордом атомного ядра. Мы несколько схематично опишем опыт Резерфорда. Соответствующие вычисления будут носить поясняющий 4 533 49
характер, поэтому мы будем оперировать весьма приблизи- тельными значениями. В лаборатории Резерфорда наблюдали прохождение потока а-частиц (ядер гелия) через тонкую фольгу. При этом довольно редко отмечалось такое, событие, когда а-частицы как бы отскакивали от фольги и летели в обрат- ном направлении. Сотрудники Резерфорда, проводившие опыт, считали, что такого быть не может, ибо'противоречит имеющемуся представлению о строении вещества. Поэтому они относили «обратно движущиеся частицы» к каким-то невыясненным помехам. Резерфорд же пришел к выводу, что внутри атомов имеются тяжелые ядра. Вследствие столк- новений с ними и получаются «обратно движущиеся час- тицы», а из-за малости размеров ядер (по сравнению с ато- мами) такие столкновения происходят достаточно редко. Рассмотрим некоторые числовые характеристики экспе- римента. Если в качестве источника а-частиц взять 1 г радия, то ежесекундно он будет излучать около 4 • Ю1’ частиц. Из всех этих частиц, равномерно вылетающих по всем направлениям, нужно вырезать достаточно узкий пу- чок, который затем будет направлен на испытываемую фоль- гу. Число частиц в таком пучке будет иметь порядок 104 в секунду, т. е. 108 в сутки. Теперь уже известно, что при диа- метре атома порядка КГ"8 см ядро имеет размеры порядка 10~12 см. Поэтому отношение площадей поперечного сече- ния ядра и атома, равное отношение квадратов их диамет- ров, имеет порядок 10-8 (нужно рассматривать сечение атома, перпендикулярное к направлению движения час- тиц). Так как прохождение каждой частицы через фольгу можно рассматривать как независимый эксперимент, веро- ятность того, что частица при одном эксперименте столкнет- ся с ядром, есть 10—8. В сутки имеем 108 таких экспери- ментов. Вероятность того, что в-течение суток будет заре- гистрировано т обратных частиц, можно определять с помощью формулы Пуассона, взяв а = 10-8 • 108 = 1. Значит, для вероятностей того, что появится т частиц, можем составить такую таблицу: т 0 1 2 3 4 5 6 рт (1) 0,37 0,37 0,184 0,061 0,015 0,003 < 0,00! 50
Любопытно сопоставить ее с другой, соответствующей наблюдению в течение двух суток. В этом случае а = 2. т 0123 4 5 6 7 8 Рт (2) 0,134 0,265 0,265 0,176 0,088 0,035 0,012 0,003 < 0,001 За двое суток интересующее нас редкое событие будет наблюдаться с вероятностью, уже довольно близкой к 1 (0,866), а за трое, как показывают вычисления, — с веро- ятностью, большей 0,95. § 8. Закон больших чисел Пусть производится п экспериментов, в каждом из которых может произойти событие А с вероятностью р. Если собы- тие А наблюдалось в т экспериментах из п, то частота появления события А равна Как связаны частота и вероятность? Ранее, при введении вероятности, отмечался такой экспериментально наблюдаемый факт, как колебание час- тоты около некоторого фиксированного значения, которое и принималось за /значение вероятности. Имеет ли этот факт объяснение в теории вероятностей? Оказывается, да. В этом параграфе будет разобран закон больших чисел, являющийся точной математической формулировкой упо- мянутого эмпирического факта. В описанной выше ситуации, обозначая частоту собы- тия А через vn, в результате проведения п экспериментов мы будем наблюдать одно из событий В1П: частота vn = т = 0, 1, ..., п. События Вт несовместимы и по формуле биномиальных вероятностей Р^=~тЦп~т)Т-Р * Пусть а > 0. Оценим вероятность события, заключаю- щегося в том, что частота vn больше, чем р + а. Такое со- бытие происходит, если происходит одно из событий Вт с номерами т, для которых выполнено неравенство -^->р + а, т> п(р + а). 4' 51
Поэтому искомая вероятность представима в виде P(vn>p + a)==P(Bm.) + P(Bm.+l)+ +Р(В„), (1) где т* — наименьшее целое число, для которого выполне- но неравенство т* > п (р + а). Для оценки суммы вероятностей в правой части (1) рас- смотрим отношение Р ______ nt m-j-1 tn—1 P(Bm) - (/n+1)1 (n-m-1)1^ (l~P> : _____n I___ m ,. . n—m ml (n — m) ! p ____ ml(n—m)! P P' (m+l)l(n — m—1)1 1—p __ n — m p m + 1 1 — p ' Оно имеет смысл при О пг п — 1 (т. + I ti) и, как видно, убывает с ростом т (числитель дроби уменьшается, а знаменатель увеличивается). Найдем то т, начиная с которого отношение меньше 1, т. е. -^Т' -Г-р~< «р —(т+1)(1 —р), пр < тр + т (1 — р) + 1 — р = т + I — р, т> пр + р—1. Если пг1 наименьшее целое, при котором выполнено не- равенство ffij > пр + р — 1, то тогда ffij — 1 пр + р — 1, т. е. т1 tip + р и т* — ffix > п (р + а) — пр — р = па — р. (2) Так как при m > т* Р (Bm+i) р (В/п»+1) _ п — т* р Р (Вт) Р(Вт.) ~ т*+1 1-р • л п — т* р - то, полагая лл = —— , будем иметь п /п* +1 1 — р J P(Bm+1)<XnP (Вт). Значит, Р (Bm»+h) KiP (Дп»-|-/г—1) кпР (Bmf+k—2) ^XhnP(Bmt). Поэтому р (вт.) + р (вт.+е + • • • + р (вп) Р (Вт.) + ХпР (Вт.) + Х2пР (Вп.) +. •. + М-т,Р (Вт,) ~ = р (Вт<) [I + 4- + ... + хгт’]. 52
Справа в скобках стоит геометрическая прогрессия с первым членом 1 и знаменателем < I (ибо tn* > mJ. Имеем < т»4-1 1 + ^+ ••• = и, значит, сумма в правой части (1) оценивается выраже- нием (3) Используя значение Х„, можем записать: 1 1 — 1 _ п~т* Р _ 1 Л» ~ 1 т* + 1 ' 1 _ р — m* (1 — р) + (1 — р) — пр + т*р _ >п* + (1 — р) —лр = (т* + 1) (1 - р) (т*+1)(1_р) л (р-|-«) + (1 — р) — пр па ____ а п (1 — р) л(1 —р) 1 — р (мы воспользовались неравенствами т* > п (р + а), т* + + 1 п). Значит, 1 1-Р 1 — ).п а Далее Р (BmJ >Р(Дп,+1) > ••• >Р(5т»). Поэтому 1 > Р (В/п,) 4- Р ) + • • • + Р (Вт*) > > Р (Вт*) + Р (Вт*) + ••• +Р(Вт*)~ = [(m*-m1) + l]P(Bm.)> > (па 4- 1 — р) Р (Вт*) > паР (Вт*). Таким образом, паР (Вт*) I, Р (Вт*) . Мы получили оценки сверху для обоих сомножителей в (3). Перемножая их, получим число 1 , которое оце- нивает сумму вероятностей справа в (1). Итак, имеет место неравенство: P{Vn>p + a}^±^L. (4) Найдем теперь оценку для вероятности события v„ < < р — а. Оказывается, ее можно получить, используя не- равенство (4). Для этого рассмотрим вместо события А 63
событие А. Пусть р —вероятность этого события, vn — его частота в п экспериментах. По доказанному справедливо неравенство Ho_v„ + v = 1 и р + р = I. Поэтому событие (v„ > > р + а} совпадает с событием {1 —v„ > 1 —р + а} или {v„ < р — а}. Таким образом, P{vn<p — Событие | vn — р | > а влечет одно из событий v„ — р > > а (т. е. vn > р + а) или vn — р < — а (т. е. v„ < р — — а). Эти события несовместимы, так что Р {| — РI > «} = Р {v„ < Р — а) + р {vn > р + а) < < р . _i_^_ =_1_ па2 па2 па2 Или окончательно P{|v„ — р| (5) При п -* оо правая часть неравенства (5) стремится к нулю, каково бы ни было а > 0. Отсюда и вытекает закон больших чисел, утверждающий, что вероятность того, что частота появления события в п независимых испытаниях будет отличаться от вероятности события (при одном испы- тании) больше, чем на заданное положительное число а, стремится к нулю, каково бы ни было а > 0. Если подбрасывать симметричную монету (с вероятнос- тью выпадения герба V2) п раз, то, обозначая частоту вы- падения герба через vn, можем, используя неравенство (5), оценить вероятности отклонения частоты от значения 1/2 при разных п и а таким образом: Ч. п а ч. 1000 5000 10 000 100 000 1 000 000 000 о,1 0,1 0,02 0,01 0,001 0,0000001 0,05 0,4 0,08 0,04 0,004 0,0000004 0,01 — — 0,1 0,0001 0,005 — — — — 0,01 64
В таблице против соответствующих значений п и а записано выражение оценивающее вероятность собы- I 1 I тт тия v„----g- > а- ”ем точнее мы хотим с помощью час- тоты оценить вероятность события, тем больше наблюде- ний нужно сделать. Заметим, что оценка (5) весьма гру- бая, она нужна лишь для обоснования закона больших чисел. § 9. Нормальная аппроксимация Теперь рассмотрим более точно вероятности для отклойе- ния частоты от вероятности, которые уже рассматривались в предыдущем параграфе. Пусть т)„ = vn —р, где vn — частота события А в п экспериментах, р — вероятность события А в одном испытании. Разность т)„ будем назы- вать флуктуацией частоты. Следующий пример поясняет это понятие. Представим себе газ, наполняющий сосуд V (например, комнату). Если выделить в этом сосуде некоторый объем то вероятность того, что заданная молекула попадет в У1( равна отноше- нию объемов Vj и сосуда. Каждая молекула попадает в независимо от других (мы пользуемся статистикой Максвел- ла — Больцмана). Пусть в сосуде N молекул и их в объеме Давле- ние в объеме Vi пропорционально и обратно пропорцио- нально величине рассматриваемого объема. Если — дав- ление в Vi, а Р — среднее давление во всем сосуде, то при некотором с р = c^i р — 1 объем V, ’ объем V Значит, р р cN ( \\ объем Vj \ 1 объем V, \ W объем V ) “* г, объем V , . = Р —л----(VN — Ph объем Vi ' где v,v —частота попадания молекул в Vi в N испыта- ниях, р —вероятность попадания отдельной молекулы в Vi- Разность между давлением газа в данном небольшом объеме и средним давлением и есть флуктуация давления. Полученная формула для флуктуации давления показы- 55
вает, что оно просто выражается через флуктуацию часто- ты такого события: молекула попала в выделенный объем Уже формула (5) предыдущего параграфа показывает, что при больших п естественно рассматривать лишь вели- чины отклонения (т. е. флуктуации) частоты от вероятности порядка —L^. Действительно, на основании указанной фор- У п мулы Г 1 Vtl J ха & ---• п п и при достаточно большом х выражение справа становится сколь угодно малым. Мы найдем точное асимптотическое выражение для вероятности слева для всякого х > О при п->оо. Для этого надо найти предельное значение ве- роятности I У п ) при п -> оо. Оказывается, при п -> оо для любого г эта вероятность стремится к нулю, но порядок стремления бу- 1 дет так что после умножения на у п эта вероятность у п уже будет иметь конечный предел: lim—р)Р= 1 е~~. (1) п^-ео ( У П ) У ill (Вообще г слева зависит от п, меняясь так, чтобы т|л могло принимать соответствующее значение, т. е. чтобы при не- т , г Vp (1 — р) котором целом т — = р -|----- ; предполагает- п У п ся, что г стремится к некоторому предельному значению, которое и входит в правую часть (1).) Формула (1) носит название формулы Муавра —Лап- ласа. Ее применения весьма распространены. Вывод этой формулы довольно громоздкий. Мы для пояснения рассмот- рим простейший случай, когда р = Va (именно этот слу- чай исследован Муавром, общий случай рассмотрен Ла- пласом). Нам потребуется одна асимптотическая формула для факториалов больших чисел, так называемая формула Стирлинга: п\ ~ )/2лп ппе~п (2) 56
(знак ~ означает, что отношение чисел, соединенных этим знаком, стремится к 1, л —отношения длины окружности к диаметру, е — основание натуральных логарифмов, оно уже рассматривалось в § 7). Для р = Va формула (1) принимает вид lim -&-Р (ti„ = /woo * 1 1 р-272 /2л (3) Пусть т — -^-п + -г-^— (г таково, что это число целое). Тогда " 2" т\(п — т) 12" ‘ Воспользуемся для факториалов формулой Стирлинга: ис- пользуя (2), можем записать tn\ ~ Y2лт тте~т, (п — т}\ ~ ]У2л(п — т) (п — т)п т ет "• Значит, Уп 2 __________/п/2лп ппе~п________________________ 2 /2шп тте~т /2л (п — т) (п — /п)л_л1е_(л-'л)2л _____________1______ . _______п"_____ 2 1 /2п т п — т ’ (2т)т (2п — 2т)п~т Т.п п Исследуем каждый из двух сомножителей в последнем произведении. Так как 1 , г /п т 1 . г т = -75- п 4-75- , - = -75- 4-7=^ > 2 ' 2 ’ п 2 2/п т 1 п п — т , т 1 ТО----> -К- при п -> ОО. Поэтому И -- =1---— -> -7г- п 2 г } п П 2 при п->оо. Так что 2 |/2л--^-.^=^->2 )/2л •-А-• 4-= • (4) Б7
Преобразуем выражение (2т)т (2п — 2т)п~т _ / 2т / 2п — 2т п~т пп л ] л Пределы сомножителей справа можно найти, используя, предел для числа е, приведенный в § 7: П (2m)m (2n — т = —г®/2 . г* == ег»/2 Л->-оо П (2т)т (2п — 2т)п~т Учитывая (4), получаем равенство (3). Из формулы (I) вытекает следующее важное следствие. Рассмотрим вероятность того, что флуктуация частоты т]п лежит в заданных пределах, например вероятность того, что а Ь. Пусть т1 наименьшее целое число, которое удовлетво- ряет неравенству: а<; т~пР "" Vn а тг — наибольшее из чисел, для которого 58
Если т меняется от тх до т2, то флуктуация час- тоты, умноженная на У~п, меняется от а до Ь. Следо- вательно, P{a^/nr1„<&}=p{vn = ^-} + + = ... +p{v„ = -^-|. (5) Последнюю сумму можно преобразовать на основании формулы (1), используя то, что р fv _ ЛЬ] ~ . __L_ е г'2"."’ I” п J У пр (1—р) У2л * где znm = . Произведение, стоящее в правой Упр(\—р) части последнего равенства, можно представить так: (z«,/n+i £л,т) -у=- е п-т. Это площадь прямоугольника, заштрихованного на рисунке. Сумма справа в (5), таким образом, — сумма прямо- 1 - У2л угольников, высоты которых есть значение функции е~г'/2 = ф (г) в точках zn,m, а основание — отрезок [гп.т, Если перейти к пределу при п -> <х>, то сумма площадей прямоугольников будет стремиться к площади фигуры, заштрихованной на правом рисунке. Сверху опа ограничена графиком функции <р (г), снизу — осью г, а с , а Ь боков — пределами г, = г_.... ...= и г» = -у-л.-— ...=, к И /р(1-Р) Vp(l-p)’ этим значениям стремятся zn,mi и zn,m, соответственно. 59
b/Yp(l-p) Эта площадь равна интегралу \ <р (z) dz, что и есть а//р(1—р) _ предельное значение вероятности события а V=С Ь. Как видно из формулы, более простое выражение полу- чится для вероятности события а "|Л - Лп В этом случае пределы интегрирования будут прост: а и Ь. Таким образом, мы получаем следующее утверждение которое носит название интегральной предельной теореме Лапласа: п р(\-р)г]п , Ь г2 /2п J В частности, отсюда вытекает, что 2 /2л а Je-z!/2dz. а Для функции, стоящей справа, составлены таблицы, , помощью которых можно оценивать точно вероятност отклонения частоты от вероятности. Приведем некоторы характерные значения этой функции: а 0,5 1,0 1,5 2 2,5 3 3,4 3,9 0,6171 0,3173 0,1336 0,0455 0,0124 0,0027 0,0007 о.ооо: Из этой таблицы видно, что значение флуктуации, пре восходящее по абсолютной величине 4 ]/"-р , встрече ется с вероятностью, меньшей 0,0001. Оценим порядок флуктуации давления в нормальнее г, объем V/ , комнатных условиях. Пусть р — объ~м у- (это малая веле чина). Тогда, полагая vjv — р ~ р ^^Р\ будем имя — Р ~ Р • — 1 Р Р(1 — Р) _ п 1 N YNp ’ 60
Если N = 1024 (такого порядка число молекул в ком- нате, а р — 10~4), флуктуации имеют порядок 1О~10. Чем меньше объем, тем значительнее флуктуации; Напри- мер, если взять объем порядка кубического миллиметра (при объеме комнаты 150 м3), то р = 10“п, Np = 1013, флуктуации имеют порядок 10-6. § 10. Оценка неизвестной вероятности события Во многих случаях нам предварительно может быть и не- известна вероятность события А, но мы можем,’’многократ- но производя эксперимент, в котором событие А проис- ходит, находить его частоту. Какие достоверные выводы можно сделать о вероятности события А, зная его частоту? Заметим, что часто нас не интересует вероятность сама по себе, а нужно определить некоторую физическую вели- чину, через которую выражается вероятность. Приведем два простых примера подобных ситуаций. Пусть имеется большая партия однотипных изделий. N — число изделий, среди них — п негодных. Нас интере- сует доля брака Предположим, что анализ качества изделия приводит к его разрушению (или просто негод- ности). Поэтому проверять все изделия не имеет смысла. Производится выборочный контроль случайным образом отобранных М изделий (их число считается существенно меньшим N). Так как MJN —малое число, можно считать, что вероятность извлечь негодное изделие при каждом из М извлечений изделий для выборочного контроля неизмен- на. Поэтому можно считать, что производится М независи- мых экспериментов, в каждом из которых с вероятностью -у появляется событие «выбранное изделие оказалось не- годным». Если среди этих М изделий оказалось т негод- т п ных, то по частоте нужно оценить вероятность т. е. долю негодных изделий в партии. Второй пример связан с упоминавшимся в § 7 опытом Резерфорда, в котором атомы бомбардировались «-части- цами. Зная вероятность столкновения частицы с ядром атома, можно судить о размерах ядра. Экспериментаторам известны исходные данные, относящиеся к числу а-частиц 61
в пучке в единицу времени, т. е. известно число экспе- риментов (здесь в качестве эксперимента выступает пролет через облучаемую фольгу каждой отдельной а-частицы). Наблюдая «отскоки» а-частиц, можно узнать частоту собы- тия «а-частица столкнулась с ядром». Для определения размера атомного ядра нужно найти вероятность этого со- 2 бытия, так как эта вероятность равна примерно где R — радиус атома, г — радиус ядра. Итак, предположим, что событие А имеет неизвестную вероятность р, произведено п экспериментов (п считаем достаточно большим) и частота появления события А в этих экспериментах равна v„. Тогда из предельной теоре- мы Лапласа (см. § 9, (6)) вытекает, что вероятность собы- тия /р-(11р) |vn-p|<a # (1) при достаточно больших п не зависит от р. При этом выбо- ром а эту вероятность можно сделать сколько угодно близ- кой к 1. Например, как вытекает из таблицы, приведенной в § 9, при а = 2 вероятность этого события больше 0,95, при a = 3 больше 0,997, при a = 4 больше 0,9999. Пусть, например, a = 3. Тогда, какова бы ни была неизвестная вероятность р, с вероятностью не меньшей, чем 0,997, выполнено неравенство V p(i—р) । v« ~ р । з- Из этого неравенства можно получить неравенство для р. Возводя в квадрат и избавляясь от знаменателя, находим п (у2п — 2pvn + /?2) с Зр — Зр2, (п + 3)рг — (2nv„ + 3) р + nv2n С 0. Это квадратическое неравенство относительно р. Для того чтобы квадратный трехчлен был отрицательным (при условии, что Коэффициент при рг положителен), нужно, чтобы р менялось между корнями этого квадратного трех- члена. Они определяются по формуле (2nv„ + 3) ± V4n2v2 + 12nv„ + 9 — 4n2v* — 12nv* _ P!,2 — 2 (n + 3) - = vn + ±WT3) K 12nv" + 9~ 12nv" • 62
Таким образом, с вероятностью, не меньшей 0,997, выпол- нено неравенство "I- 2« + б” 2п + 6 12nVn — 12nv„ + 9 < р < <v” + тятг + TSTT v 12“v” -12"^ +9 • <2’ Пусть, например, произведено 104 испытаний. В них событие А произошло 325 раз. Значит, v„ = 0,0325. Вычисляя значения в правой и левой частях неравенства ;2), находим для р такие границы: 0,0325 + 0,00015 - 0,00307 < р < 0,0325 + + 0,00015 + 0,00307, 0,02958 < р < 0,03572. Указанные интервалы носят название доверитель- ных. Вероятность, с которой выполнено неравенство (значе- ния на концах неравенства случайны, они зависят от результатов эксперимента), называется уровнем доверия. Формула (2) дает доверительный интервал для /?, соответ- ствующий уровню доверия 0,997. Беря в (1) а = 4 и про- изводя аналогичные вычисления, можем получить дове- рительный интервал, соответствующий уровню доверия 3,9999. Близкой к задаче об оценке неизвестной вероятности есть задача о проверке гипотезы о вероятности события. Иногда можно из косвенных соображений гипотетически эпределить вероятность некоторого события. Предположим, что скрещиваются особи, гетерозигот- ные по двум признакам, т.е. имеющим генотип (Аа, ВЬ). Если соответствующие гены расположены в различных парах хромосом, то передача признаков происходит неза- висимо и вероятность такого генотипа (аа, ЬЬ) в потомстве равна yi- Мы хотим проверить гипотезу, заключающуюся в том, что гены, определяющие указанные признаки, рас- положены в различных парах хромосом. Для этого нам нужно проверить гипотезу, что вероятность генотипа (аа, ЬЬ) в потомстве равна Пусть проверяется гипотеза, что вероятность события А равна р. Для этого произведено п испытаний и вычисле- на частота появления А, равная v„. 63
Далее рассуждаем так. Если гипотеза верна, то вероят- ность того, что выполнено неравенство Vp(l-p) К-р|>а (3) при достаточно больших п определяется с помощью таб- лицы из § 9. Если некоторое событие имеет достаточно малую веро-’ ятность, то оно практически не происходит при единичном испытании. Например, можем считать, что уже события с вероятностью 0,05 при одном испытании не происходят. Тогда, учитывая, что соответствующее значение а = 2, мы вычисляем выражение Если оно окажется больше 2, то гипотеза отвергается, если" же меньше 2, то принимается. Выбор а в неравенстве (3) связан с тем, какую вероят- ность отвергнуть правильную гипотезу мы допускаем. Бе- ря а = 2, мы можем, руководствуясь указанным прави- лом, отвергнуть правильную гипотезу с вероятностью 0,05. Если возьмем а = 3, то эта вероятность будет 0,003, если а = 4, то 0,0001. Пусть, например, р = п = 10 000 (большое коли- чество независимых экспериментов получаем у растений). Тогда п = I Г 256 • 10 000 1600 Р (1 — Р) ~ ' 15 ~ /15 При а = 3 мы должны отвергнуть гипотезу, если v„ — > 0,073, а в противном случае принять. § 11. Условные вероятности В § 4 уже обсуждался вопрос о зависимости событий. С ве- роятностной точки зрения зависимость событий А и В заключается в том, что осуществление события В влияет на вероятность события А. Так, если эксперимент заключается в последовательном извлечении двух шаров из урны (без возвращения), событие В — первый шар черный, событие 64
A — второй шар черный, а урна содержит п белых и т черных шаров, то для вычисления вероятности события А, если уже известно, что В произошло, нужно найти вероят- ность того, что из урны, содержащей п белых и т — 1 черный шар, будет извлечен черный шар. Эта вероятность т — 1 равна —;----г. Давайте подсчитаем вероятность того, что при извлече- нии двух шаров второй шар окажется черным. Выбрать два шара последовательно из п + tn шаров можно (п + + т) (п + т — 1) способами. Оба черных шара можно вы- брать т (т — 1) способами, а белый и черный —пт спо- собами, так что вероятность события А будет zn (n + m — 1) _ т (п + т) (п + т—1) п + т Эта вероятность отличается от той, ко’горую мы получи- ли в предположении, что произошло событие В. В разобранном примере было ясно, как вычислять ве- роятность события А, если известно, что событие В про- изошло. Теперь рассмотрим общую ситуацию. Для того чтобы стало понятно, как определить условную вероят- ность для произвольных событий А и В, вспомним, как понятие вероятности связано с частотой: вероятность — это предельное значение частоты, когда число эксперимен- тов неограниченно возрастает. Пусть эксперимент был произведен п раз, k'n (В) — число раз, когда наблюдалось событие В. Поскольку нас интересуют только те эксперименты, когда В произошло, то лишь результаты этих kn (В) экспериментов мы и бу- дем анализировать. Другими словами, вместо исходного эксперимента мы имеем дело с новым (условным) экспери- ментом: проводим исходный до тех пор, пока не произойдет В, и отмечаем результат этого эксперимента; те экспери- менты, где В не происходит, просто игнорируем. (Так, в приведенном выше примере будем извлекать по два шара, возвращая их после извлечения, до тех пор, пока первый шар не окажется черным; результат этого эксперимента, определяемый цветом второго шара, и будем отмечать). Таким образом мы имеем kn (В) повторений условного эксперимента. В условном эксперименте событие А проис- ходит только тогда, когда в исходном эксперименте прои- 5 533 65
зойдут и А и В, т. е. АВ. Это значит, что событие А в kn (В\ условных экспериментах произойдет kn (А • В) раз. Час- тота появления события в условном эксперименте будя • Д-чя того чт°бы найти предельное значение этогс “п (о) отношения при неограниченном возрастании числа экспе- риментов, представим его так: kn (А В)/п _ vn (А В) kn (В)/п vn (В) ’ где vn (А • В) и vn (В) — частоты соответствующих собы- тий. Поскольку частоты стремятся к вероятностям, то пре дел этого выражения равен (предполагаем Р (В)# =# 0)- Будем обозначать условную вероятность события J относительно события В через Р (А/В). Эта вероятиосп определяется соотношением: Р(Л/В) = ^_^, . (1 Из данного выражения вытекает следующая общая фор- мула произведения вероятностей: Р(А • В) = Р(А/В) • Р (В). Найдем связь между условными вероятностями Р (А/В< и Р (В/А). Имеем Р (А • В) = Р (В/А) Р (А) = Р (А/В) • Р (В). Значит, Р(ВМ) = Р(Л/В)4^. Приведем пример «обратного» влияния будущего ш прошлое. Опять рассмотрим тот же эксперимент последова тельного извлечения двух шаров из урны с п белыми и я черными шарами. События В и Л, как и раньше, обозна- чают извлечение черного шара в первый и второй раз. Мы уже вычислили Р (А/В) — —,ffl~ 1, , Р(А) = — Очевидно, Р(В) = т Поэтому Р (В/А) _ В (Д/В) • ДИ- = Р М/В) - . 66
Оказывается, событие А, происходящее позже В, вли- яет па В точно так, как и событие В на Л. Во многих случаях условные вероятности вычисляются достаточно просто. Рассмотрим два наиболее характерных случая. 1. Пусть эксперимент имеет конечное число равноверо- ятных элементарных событий: Et, ..., Еп. Если В = £\, ... ..., Elt, то для вычисления условной вероятности нужно подсчитать, какие из событий Е^, ..., Eit влекут событие А (пусть таких событий k). Тогда k Р(А/В} _ -g) _ _Л_ _ _L Р (А/И) — Р(В) — / i • п Таким образом, условная вероятность вычисляется точ- но так, как безусловная, только нужно считать, что в экс- перименте имеется I элементарных событий (те, которые составляют В), и подсчитать, сколько из этих событий бла- гоприятствуют А. Рассмотрим следующий пример. Пусть в семье имеется трое детей. Считаем, что мальчики и девочки равновероятны. Имеем всего 8 равновероятных событий: (М, М, М), (М, М, Д), (М, Д, М) (Д, М, М), (М, Д, Д), (Д, М, Д), (Д, Д, М), (Д, Д, Д) (Д —девочка, М —мальчик). Пусть событие В заключается в том, что в семье есть мальчик; А — число мальчиков больше, чем число девочек. Событию В благо- приятствуют 7 элементарных событий, из них при 4 проис- ходит А, значит, Р (А!В) = -i-. Если спрашивать у маль- чиков, кого у них в семье больше — братьев илн сестер, они чаще будут отвечать, что братьев. Если тот же самый вопрос задавать девочкам, то они чаще будут говорить, что сестер. 2. Пусть эксперимент заключается в случайном выборе точки из некоторой фигуры G (будем ее для определенности считать плоской), а событие В заключается в том, что точка попала в часть фигуры G. Пусть, далее, А — событие «точка попала во множество С2» (тоже часть G). Если известно, что точка лежит в G1( то имеет смысл рассматривать лишь те С2, которые являются частями Gx. Тогда _______ площадь G2 площадь G площадь G2 ' ' площадь G; ' площадь G, площадь Gj ’ 5: 67
Таким образом, условный эксперимент в данном случае есть тоже случайный выбор точки, только уже из области бх, состоящей из тех элементарных событий, которые вле- кут событие В. Рассмотрим в качестве примера ту же задачу о встрече двух объектов, которая обсуждалась в § 5. Объекты па промежутке [0, а] попадают независимо на место встречи и находятся там время т. Событие В заключается в том, что встреча объектов состоя- лась. Пусть событие Л состоит в том, что первому объекту пришлось ожидать второй не меньше, чем t (t < т). Най- дем Р (A/В). Воспользуемся той же геометрической ин- терпретацией, которая была приведена в § 5. На'рисупке точки квадрата, соответствую- щие событиям В и А, отме- чены различной штриховкой. Событию В отвечает много- угольник OPxQRSxT, а собы- тию А —две трапеции P'tPxQQ', tT'S'SxT. Площадь OPxQRSxT вычислена в § 5 и равна а2 — (а — т)2. Чтобы вычислить площадь двух трапеций, заметим, что они вместе с многоугольником OP'tQ'RS'tT' составляют' OPxQRSxT. Площадь OP'tQ'RS'tT' определяется точно так же, как и площадь OPxQRSxT: она равна а2 — (а — t)2. Значит, ис- комая условная вероятность будет а _ (Д _ Т)> _ да _ (0 _ <)2 (Д _ t)2 —(д — т)2 да — (а — т)г = а2 — (а — т)г Например, при т = -^-, t = эта вероятность равна О о / 5 I2 / 2 \2 25 — 16 6 / ( 3 / 36 _ 9 — ~ _ 4 ~ 20 • * I 3 / * * 9 Формула полной вероятности. Пусть Bv ..., Вт —неко- торая полная группа событий, т. е. Bk несовместимы, и Вх + ... + Вт — достоверное событие. Во многих случаях можно просто вычислить условные вероятности Р (А/Вк). 68
Формула полной вероятности дает выражение вероятности события А через условные вероятности. Имеем Р(Л)=Р(Л . (В,+ ••• +вт)) = = Р(Л.В1)+Р(Л.Я2)+ ••• + Р(А-Вт). Воспользовавшись, формулой (1), можем записать Р(А • Bk) — Р (A/Bk) Р (Вк). Поэтому Р И) = Р (A/BJ Р (В,) + Р (А/В2) Р (В2) + • • • ... +Р(А1Вт)Р(Вт). (2) Это и есть формула полной вероятности. Распределение генотипов в популяции. Рассмотрим неко- торую совокупность особей какого-нибудь биологического вида. Нас будет интересовать, как часто будут встречаться те или иные генотипы по одному признаку, точнее, как они будут меняться от поколения к поколению. Возможные генотипы АА, Аа, и аа. Предполагается, что родители комбинируются случайным образом. Пусть далее р (АА), р (Аа), р (аа) — вероятности того, что слу- чайно выбранная особь имеет соответствующий генотип. Вычислим, пользуясь формулой полной вероятности, значения вероятностей для генотипов потомков этих осо- бей. Будем исходную совокупность особей называть роди- тельской популяцией, их детей — популяцией первого поколения, детей у первого поколения — популяцией вто- рого поколения и т. д. Вероятности для генотипов в k-ы поколении обозначим через рк (АА), рк (Аа) и рк (аа). Для особи первого поколения возможны такие комби- нации родителей (первым будем записывать генотип ма- тери): АА X АА, Аа X АА, аа х АА, АА X Аа, Аа X Аа, аа X Аа, АА X аа, Аа X аа, аа X аа. Эти комбинации обра- зуют полную группу событий. Так как родители выбираются независимо, то вероятность каждой комбинации есть произ- ведение соответствующих вероятностей. Скажем, Р (АА х АА) = р (АА) р (АА) (Р (АА X АА) есть вероятность того, что мать и отец имеют генотип АА). Поэтому Р± (АА) = Р (АА/АА х АА) р (АА) р (АА) + 69
+ Р (АА/АА х Аа) р (АА) р (Аа) + Р (АА/Аа х АА) х X р (Аа) р (АА) + Р (АА/Аа х Аа) р (Аа) р (Аа; (при других родителях генотип АА у ребенка появиться не может). Очевидно, Р (АА/АА х АА) = 1, Р (АА/АА х Аа) = Р (АА/Аа х АА) = —, Р (АА/Аа х Аа) =-|-. Следовательно, Pi (АА) = р* (АА) + р (Аа) р (АА) + р2 (Аа) = = [р (АА) +-^~Р (Аа))2. Аналогично Pi (аа) = (р (аа) + р (Аа))2. Поскольку р± (АА) + Pi (Аа) + pt (аа) = 1, то Pi (Аа) = 1 — (р (АА) + -I- р (Аа))2 - — (р (аа) + 4“ Р <Аа))2 = & (АА> + Р (Аа) + Р (аа))2 ~ — (р (АА) + -^~Р (Аа))2 - (р (аа) + ~^~Р (Аа))2 = = 2 (р (АА) + -j- Р (Аа)) (р (аа) + -^ Р (Аа)) При вычислении вероятностей для второго поколения можно использовать полученные выражения, только вмес- то вероятностей для родительской популяции подставлять вероятности для первого поколения. Поэтому р2 (АА) = (pt (АА) + 4" Pi (Аа))2 = == [(р (АА) + 4"Р (Аа))2 + (р (АА) + ~ГР (Aa)J X 70
X (р (аа) + -i-р (Aa))j* = (АА) +-±-р (Аа)) х X (р (АА) +~^-р (Аа) + р (аа) + ~~р (Аа)) j2 = = (р (АА) + -1- р (Аа))2. Аналогично получаем р2 (аа) = (р (аа) +-^ р (Аа))2, р2 (Аа) = 1 — р2 (АА) - р2 (аа) = = 2 (р (АА) + -±-р (Aa)j (р (аа) + ~^-р (Аа)). Следовательно, вероятности различных генотипов уже с первого поколения являются неизменными. Предположим, что родительская популяция состояла только из гомозиготных особей, причем вероятность доми- нантного признака АА была р, а вероятность рецессивно- го — 1 — р. Тогда для всех последующих поколений веро- ятность генотипа АА равна р2, генотипа Аа —2р (1 —р), генотипа аа — (1 — р)2. Распределение генотипов в популяции с учетом пола. Будем учитывать теперь и пол входящих в популяцию осо- бей. Передача пола потомкам также обусловливается хро- мосомным механизмом. В наборе хромосом имеется одна пара, которая и определяет пол. У женщин —это пара двух идентичных хромосом XX; у мужчин хромосомы в паре различаются: XY. Возможные комбинации хромо- сом у потомков XX (одна X — хромосома от матери, вто- рая — от отца, ребенок —девочка), XY (X —хромосома от матери, Y — хромосома от отца, ребенок — мальчик). Если интересующий нас признак определяется генами, локализованными на другой паре хромосом, то этот при- знак передается потомству независимо от пола. Рассмотрим сначала этот случай. Пусть для особей женского пола вероятности генотипов в родительской популяции будут р (АА), р (Аа), р (аа), а для особей мужского пола — р' (АА), р' (Аа), р' (аа). Рассуждая точно так, как в предыдущем случае, полу- чаем Pi (АА) = [р (АА) + -j- р (Аа)) [р' (АА) + -j- р' (Аа)) , 71
Pi (аа) = [p (аа) + -i- p (Aa)) (p' (aa) + p' (Aa)), Pi (Аа) = (p (AA) + -Lp (Aa)) (p' (aa) + -±- p' (Aa)) + + (p (aa) + 4" P (Aa)j (p' (AA) + 4” p' При этом распределение генотипов в первом поколе- нии не будет зависеть от пола. Со второго поколения веро- ятности генотипов уже не будут меняться, так как, взяв в качестве родительской популяции популяцию первого поколения, мы приходим к выше рассмотренной задаче. Используя полученные формулы, можем найти вероятности для распределения генотипов, начиная со второй популя- ции: при /г О 2 2 4 2 pft(AA) = ( р (АЛ) р'(ЛА) -ф р (Аа) р'(Аа) 12 pk (aaj = ( Р (аа) + р' (аа) । р (Аа) + Р' (Аа) 2 pk (Да) = 2 ( Р(ЛА)+Р'(АА) , р (Аа) + р’ (Аа)) 4 / р (аа) -|- р' (аа) р (Аа) + р' (Ла) \ Х ( 2 + 4 ) ’ Признаки, сцепленные с полом. Это такие признаки, которые определяются генами, расположенными на поло- вых хромосомах. Если это Y-хромосома, то такой при- знак обязательно передается от отца к сыну, а женщины его не имеют. Так что никакой задачи не возникает. Рассмотрим признак, определяемый Х-хромосомой (Примерами таких признаков являются гемофилия, даль- тонизм). Они могут наблюдаться как у мужчин, так и у женщин. Обозначая соответствующие признаку гены через Айа, будем иметь такие генотипы: для женщин —АА, Аа, аа (поскольку у них две Х-хромосомы), для мужчин А, а (у них лишь одна Х-хромосома). Будем обозначать через р (А) и р (а) условные вероятности генотипов Айа при условии, что индивид имеет мужской пол, а через 72
р (АА), р (Аа), р (аа)—условные вероятности геноти- пов при условии, что индивид имеет женский пол. Существует 6 возможных комбинаций родительских ге- нотипов: АА х А, АА X а, Аа X А, Аа х а, аа X А^ аа х а. Имеем Р (А/АА X А) (это вероятность рож- дения мальчика); Р (А/АА X а) = у (на тех же основа- ниях); Р (А/Аа X а) = Р (А/Аа х А) = у ^мальчику с вероятностью у попадет от матери ген А^. В остальных случаях мальчик с генотипом А появиться не может- (Х-хромосома к мальчику попадает от матери). Аналогично Р (а/аа х а) = у , Р (а/аа х А) =у Р(а/Аа х А) = Р(а/Аа х а) = . Девочки получают обя- зательно Х-хромосому отца и одну из Х-хромосом матери. Поэтому Р (АА/АА X А) = у, Р (АА/Аа х А) = у-; в. других случаях генотип АА у девочки невозможен: Р (Аа/АА х а) = -у , Р (Аа/Аа х А) = -L, Р (Аа/Аа х а) = , Р(аа/аа х А) = у , Р (аа/аа X а) = у, Р (аа/Аа X а) = |. Будем, как и раньше, условные вероятности генотипов в k-м поколении при условии, что они имеют соответству- ющий пол, обозначать pk (A), pk (a), pk (АА), pk (Аа),. Рь (аа). Тогда Pi (А) = -у- р (АА) р (А) + у р (АА) р (а) + у- р (Аа) р (а) + + у- Р (Аа) р (А) у. 2 73
Мы вычисляем условную вероятность генотипа при усло-> вии, что родился мальчик, поэтому полученную вероят-' ность генотипа А —а он может быть только у мальчика - делим на ------вероятность рождения мальчика. Так как р (А) + р (а) = 1, то Pt (А) = р (АА) + ~ Р (Аа). Аналогично рДа) = р(аа)+ ^-р(Аа). Точно так вычисляем вероятности генотипов для девоч- ки в первом поколении: Pi (АА) = |р (АА) + ~р (Аа) | р (А), Pi(aa) = [р (аа) + ~р (Аа)|р(а), Pi (Аа) = р (АА) р (а) + р (аа) р (А) + Р (Аа). Для того чтобы вычислить вероятности генотипов в 7г-м поколении, нужно взять за исходные вероятности те, которые будут в k — 1-м поколении, и воспользоваться по- лученными формулами. Таким образом, Pk (А) = pk—i (АА) + — pk—\ (Аа), Р*(а) = Pk-i (аа) + ±-pk-\ (Аа), pk (АА) = j рк~\ (АА) + (Аа) j p*_i (А), Pk (аа) = pt-, (аа) + -±- pk-i (Аа)] p*_i (а), Рл(Аа) = р/г-i (АА) p;i_! (а) + p*_i (аа) рд—1 (А) 4- р*_, (Аа). Оказывается, что если вероятности генотипов для особей разного пола связаны определенным образом, то тогда они не меняются в различных поколениях. Пусть р (А) == р, р (а) = 1 — р, р (АА) = р2, р (Аа) = 2р (1 — р), р (аа) = (1 — р)2. 74
Тогда Pi (А) = \рг + р (1 — р)] = р, Pi (а) = (1 — р), Pi(AA) = [р2 + р(1 — р)}р = г?2, щ (аа) = (1 — р)«, Pi(Aa) = 2р(1 — р), т. е. частота генотипов в первом поколении такая же, как и в родительской популяции. Поэтому она все время оста- ется постоянной. Каковы бы ни были начальные вероят- ности для генотипов, они через несколько поколений ста- новятся примерно неизменными, так что между вероятнос- тями генотипов у мужчин и женщин имеется указанная выше зависимость: р(АА) = р2(А), р(Аа) = 2р(А)р(а), р (аа) = р2 (а). Если при передаче признака имеется доминирование (например, дальтонизм рецессивен), то рецессивный при- знак проявляется гораздо чаще у мужчин, чем у женщин. Так, вероятность дальтонизма для мужчины у^-, а для / 1 \2 женщины ~ 0,0001. § 12. Формула Байесса Пусть Е1г Ет —полная группа событий, которые мо- гут происходить в эксперименте, и А — некоторое собы- тие. Если известны вероятности событий Ek и условная вероятность А при условии, что произошло Е/г для k = = 1, ..., т, то по формуле полной вероятности мы мо- жем определить и вероятность события А, и условные веро- ятности событий Ek при условии, что произошло А. Имеем P(A-E/!) — P(A/Ek)P(Ek), Р(А)=Р(А/Е1)Р(Е1)+ ••• +Р(А/Ет)Р(Ет), P(EilA}=—__________ ? (A/Ek) Р (£fe)_____ zjy P(A/E1)P(Ei)+ +Р(А/Ет)Р(Ет) ‘ Формула (1) носит название формулы Байесса. Эта формула обычно интерпретируется следующим об- разом. Предположим, что событие А может произойти при одной из т взаимоисключающих гипотез. Событие Ek игра- ет роль £-й гипотезы. Известна вероятность события А при каждой из гипотез. Из априорных соображений гипо- тезам можно приписать определенные вероятности. 75
Пусть в результате эксперимента произошло событа А. Условные вероятности гипотез при условии, что нг блюдалось А, называются апостериорными вероятности. (опи вычисляются с учетом того, что произошло в экспери менте, в отличие от исходных вероятностей, которые назь ваются априорными). Формула Байесса дает значенн; апостериорных вероятностей гипотез. Рассмотрим сначала схематический пример. Имейте 3 урны, каждая содержит 10 шаров, причем в первой 8 бе лых и 2 черных, во второй 5 белых и 5 черных, в третье 2 белых и 8 черных. Эксперимент заключается в том, чг. выбирается случайно одна урна, а затем из урны извлек ется два шара. Наша цель —на основании результате эксперимента установить, какая из урн была выбрана. В этом случае имеются 3 гипотезы: Ek — выбран: k-я урна, k = 1, 2, 3. Пусть событие А состоит в том, что извлечены 2 черны, шара. Тогда Р И/Fi) = ю . 9 = -jg- > Р {А/Е^ = 10 g = -45-, . 1 п Априорные вероятности гипотез равны -у. Поэтому д.д апостериорных вероятностей будем иметь следующие зна- чения: 1 1 Р (f'lM) = ] / 1 10 28 х = ~39~ ’ 3 \ 45 + 45 + 45 ) 10 1 45 ’ 3 ю Р (Ег/А) = 1/1 , 10 28 \ = “39" ’ 3 (v 45 + 45 + 45 / р(£3М) = -|г- Таким образом, с вероятностью примерно 0,72 можно утверждать, что справедлива третья гипотеза. Пусть В — событие «извлечены черный и белый шары 76
(в любом порядке). Тогда £W£>) = -nr4-. р(в/<4.) = 44- и Р(^/Я)=4г- Р(Ъ/В)=-^-, Р(Е3/В) = -^~. В этом случае апостериори наиболее вероятна вторая гипотеза, хотя ее вероятность и меньше половины. Если С — событие «извлечены 2 белых шара», то Р (Е./С) = -g-, Р (Ег/С) = -g-, Р'(Е3/С) = 4- • Как видим, если происходит А или С, гипотезы хорошо различаются: с большой вероятностью можно выбрать одну из гипотез. Если же происходит В, то, даже выбирая наиболее вероятную гипотезу, мы с вероятностью больше -i- 32 производим неправильный выбор (Р (Е1 + Е3/В) — cs 0,56). Пусть имеется родительская пара с доминантным фено- типом по некоторому признаку. Нас интересует, являются ди родительские особи гомозиготными или гетерозиготны- ми по этому признаку. Для проверки гипотезы рассмат- риваются их потомки. Предположим, что их было k. Если среди них есть хотя бы 1 фенотип, который отвечает рецес- сивному аллелю, то это означает, что оба родителя гетеро- зиготны (только при генотипе Аа у обоих родителей мо- жет появиться потомок с генотипом аа). Поэтому задача имеет нетривиальное решение лишь в том случае, когда у всех k потомков тот же фенотип, что и у родителей. Есть три гипотезы относительно генотипов родителей: I — АА X АА; II —АА х Аа, III —Аа X Аа. Вероят- ности этих гипотез определяются вероятностями для раз- личных генотипов в популяции, откуда взяты особи (мы видели в § 11, что эти вероятности в популяции не меняются в различных поколениях). 77
Пусть эти вероятности равны р\, ри, рш. Если Ь- событие, что из k потомков ни один не имеет генотип аа, и Р(В/1) = 1, Р(В/П)=1, Р(В/Ш) = (4)* (это условные вероятности при 1, II и III гипотезах). Значит, Р(1/В) =----------р-1--— Р\ + Рп + рш • I — I Р(П/В) = —-7-3................ Pi + Рп + Рш ' / 3 >k Pill I ) P (Ш/В) =----------------- Pl +Pn + Pin • Hr) Например, при pi = рп = рш будем иметь P(I/B) = B(II/B) = При большйх k первая вероятность равна пример» а Р (Ш/В) ~0. В общем случае при достаточно больших, Р (Ш/В) - 0, а В (1/В) - , ?т = • Т. е. после наблюдения события В мы можем гипотез} III отбросить; при этом вероятности (апостериорные) ги потез I и II одинаково возрастут. Очевидно, что выбор гипотезы I или II не влияет н} фенотип потомства. Поэтому для различения этих гипоте! нужно привлекать следующее поколение. Пусть имеюта лишь две гипотезы —I и II — и во втором поколении, па лучаемом случайным скрещиванием из первого, имеете} I особей. Если хотя бы у одной был генотип аа, то справе^ лива гипотеза II. Пусть их фенотип совпадает с фенотй пом родительских особей. Тогда, если В — указанное cd бытие, то Р (B/I) = 1. Для вычисления Р (В/П) заметиц что генотип аа во втором поколении возможен с вероятно 78
стьюесли родители имели генотип Аа и Аа, который в первом поколении (у одного родителя) появляется с ве- роятностью -у. Поэтому вероятность генотипа аа во втором 1 поколении равна jg- и р(в/п) = (4|-). Отсюда / 15 V D “Тк” ₽|1 ₽(,/В) “\Av" В(П/В) = \, /ь V Pi + (“ПГ) Рп Pl 'г (Дб~) Р11
II. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ § 13. Примеры случайных величин Результаты многих экспериментов выражаются числам!!, так что сами эксперименты можно рассматривать как изме; ренне некоторых величин. Рассмотрим наиболее характер-; ные примеры. 1. Из партии изделий для контроля выбирается и изделий; в результате их проверки обнаруживается v де! фектных. Это число v является случайным, оно может, иметь значения 0, 1, т. В каждом эксперименте v при-} нимает вполне определенное значение, но при повторенш. эксперимента число дефектных изделий меняется случав! ным образом. Случайное число v полностью характеризует- ся т + 1 событиями: Ео, Elt ..., Ет, событие Ек заклкн чается в том, что число v обнаруженных дефектных изде; лий равно k. Найдем вероятности событий Ek. ; Пусть N —число изделий в партии, среди них п дефект-, ных. Если не обращать внимание на порядок извлечен^ изделий, то число способов извлечь т изделий из N есть == ; (см. § 3). Число способов извлечь к (N — т)\ ml ' л ' дефектных изделий равно произведению числа способов извлечь k предметов из т на число способов извлечь т — k из N — п (если имеется k дефектных изделий, то бу- дет и т — k годных изделий, которые должны быть выбраны из общего числа N —п годных изделий). Поэтому П / Е- \ __________(У — mjlml п! (У — и) !___ * С$ N1 fel(n — k) 1 (т — k) 1 (N k — п — т) t ’ Или можно так: р iv _ _ (N — m)l(N — n)l nl ml 1 ‘ Nl (Nk — п — т) 1 (п — k) 1 (т — k) I kl ' k = 0, .. . , т. (1) во
Набор этих вероятностей определяет распределение слу- чайной величины V. Зная ее распределение, мы можем судить, как часто случайная величина v принимает те или иные значения. 2. Пусть в эксперименте событие А может происходить с вероятностью р. Эксперимент проводится т раз. Число появлений события А в т экспериментах является случай- ной величиной ц. Набор вероятностей Р {ц k], k = 0, ..., т называется распределением этой величины. Как вытекает из результатов § 6, pk(\-p)m~k. (2) Любопытно отметить, что при W п оо и -> р правая часть (1) стремится к правой части (2). Это вытекает из того, что (N — т)! _ 1 ,,—т /V! /V (/V — 1) . . . (N — т + 1) ~ ’ Гм—= (N — п) (N — п — 1) ... (N — п — (т — k))! ' ' ' ' ... (/V — и — m -|- ^ + 1) ~ (^ — n)m~k, (n-k) \ = — П (п—6+1)~п* (здесь знаком ~ соединяются выражения, отношение ко- торых стремится к единице). Поэтому (N — tri) \ (N — п) \n\m\ /VI (N + k — п — т) ! (п — k) \ (т — k) ! k\ nk пк (N — n)m~k ! n \k ! i n m m ( /V H * 1 N т—k Следовательно, при больших N сложное выражение (1) можно заменить более простым (2), полагая р = если только при этом и п достаточно велико. 3. Рассмотрим теперь число появлений некоторого ред- кого события. Пусть, например, v — число регистраций кос- мических частиц некоторым счетчиком за определенное время, v будет случайной величиной, которая может при- нимать значения 0, 1, 2,... Как было показано в § 7, событие 6 533 81
и'* {v = tri} имеет вероятность вида е~а. В отличим от величин, приведенных в примерах 1 и 2, здесь случай- ная величина v принимает бесконечное число значений. Распределение ее определяется уже бесконечной последо- вательностью вероятностей nk р {v = k} = е~а, k = 0,1,2,... (3, (а > 0 —некоторая величина). Заметим, что вероятности вида (3) также могут быть получены из (1) с помощью определенного предельного перехода. Пусть N -> оо, п -> оо и-^-->0. Если при- этом и т -> оо, так что mnN~l -> a, m2N~l -> 0, то пра-1 вая часть (1) стремится к правой части (1). Это уетанавли- вается таким же образом, как в § 7 была получена формула! Пуассона. i Величины, рассмотренные в примерах 1—3, припимала- целочисленные значения. Однако случайные величины мо- гут принимать и произвольные вещественные значения. 4. Пусть из отрезка [а, bl на вещественной осн выби- рается случайно точка £. % —случайная величина, прини- мающая произвольное вещественное значение между ; и Ь. Значит, множество возможных значений величины : бесконечно. Но, в отличие от случайной величины, рассмот- ренной в примере 3, каждое свое значение, как мы убе- димся ниже, она принимает с вероятностью 0. Поэтому нельзя говорить о распределении этой случайной величины в том смысле, как мы делали в примерах 1 —3; распределе- ние ее невозможно задать с помощью вероятностей, с кото- рыми она принимает свои возможные значения. Как же все-таки охарактеризовать с вероятностной точ- ки зрения эту случайную величину? При измерении вели- чины, принимающей произвольные значения, пас в пер- вую очередь интересует, между какими делениями измери- тельной шкалы прибора, с помощью которого величина измеряется, она окажется. Другими словами, наше вни- мание привлекают события вида се < £ < р (так, если шкалу прибора можно представить линейкой с отметками через интервалы длины h, то нас интересует, между какими делениями вида kh и (k + 1) h величина окажется, т. е. 82
нас интересует, какое из событий вида kh < Е < (k + 1) h произошло). Как мы видели в § 5, если точка выбирается случайно из отрезка [а, Ь], то вероятность того, что она будет вы- брана из отрезка 1а, pj, лежащего в [а, /?], равна отноше- нию длины этого отрезка к длине отрезка [а, /?]. Таким образом, У fi ‘ \ ь_ а • Совокупность этих вероят- ностей и является аналогом распределения для непрерыв- но меняющейся величины. Покажем, что при любом х из [а, Ь\ вероятность события {£ = х} равна нулю. Дейст- вительно, если это событие произошло, то произошло и событие {а < £</?}, како- вы бы пи были аир, для которых а событие (Е = х) влечет событие {а < указанного вида. Поэтому а [J. Значит, для аир Р — а b — а р {В = х}^Р (а < Е<р} = Но можно выбрать а < х < р так, чтобы р — а было сколь угодно малым. Значит, Р {Е = х} меньше произ- вольного положительного числа, поэтому эта вероятность равна нулю. 5. Рассмотрим задачу о встрече, о которой уже шла речь в § 5. Величина времени, проходящая от момента появле- ния первого объекта па месте встречи до момента появле- ния второго объекта, есть случайная. Обозначим ее через г). Если объекты появляются на месте встречи в течение промежутка времени [0, а], то т] может принимать любые вещественные значения из промежутка [0, а]. Какова ве- роятность того, что т] примет значение из некоторого про- межутка (а, Р), лежащего в [0, а]? В § 5 уже указывалось, что эксперимент в задаче о встрече можно рассматривать как случайный выбор точки из квадрата со стороной а, если выбранная точка будет иметь координаты х и у, то эти числа и будут временами 6* 83
появления объектов на месте встречи. Так что при выборе точки (х; у) величина -q принимает значение |х — у\. Для того чтобы значения величины -q попали в интервал (а, $ нужно, чтобы точка (х; у) попала в одну из двух заштри- хованных трапеций, симметрично расположенных относи- тельно диагонали квадрата. Основаниями верхней трапе- ции служат отрезки прямых у — а + х, у = р ~Ь х Вычисляя площадь трапеции как разность площадей тре- угольников, получаем Р {а <П < Р} = 2 | j = _ (Р —а) [2а — Р —а] а2 Это равенство определяет распределение величины т]. Если длина р — се -> О, то и вероятность стремится к нулю. Поэтому Р {т) = х} — 0 для всех х. Случайные величины, которые каждое свое возможное значение принимают с вероятностью 0, называются непре- рывными. Примерами непрерывных случайных величин могут служить размеры и веса отдельных представителей данного биологического вида, энергии космических час- тиц, моменты солнечных вспышек и т. д. §14. Функция распределения Пусть в некотором эксперименте наблюдается случайная величина Ее основной вероятностной характеристикой является функция распределения, определяемая равенст- вом Е(х) = Р{1 < х} для всех вещественных х. Зная функцию распределения, можно определить вероятность того, что величина £ по- пала в интервал [а, Р): =P{s<₽}-P's<a} =Е(₽)-Е(а). Пусть р„ -> а и р„ > а. Тогда lira [F (Р„) — F (а)] = lira Р (а < g < р„} = Р {£ = а}. Последнее свойство вытекает из следующей аксиомы вероятности, которая считается выполненной на вероятност- ных пространствах с бесконечным числом исходов (до сих 84
пор эта аксиома нам не была нужна и поэтому не упомина- лась). Аксиома непрерывности, а) Если Ап — последователь- ность событий, причем Ап для всех п влечет Л„+1> а собы- тие А заключается в том, что происходит хотя бы одно из событий Ап, то Р (Л) = lim Р(Л„). П-+СС б) Если Ап такая последовательность событий, что для всех п А„+1 влечет А„, а А —событие, заключающееся в том, что происходят все события А„, то Р(А) = lim Р(Л„). П-+Са Пусть рп, убывая, стремится к < } cr {а g < [}„} и события исходят одновременно, если только а, тогда (а < < S < Рл} про- Е —'а. Итак, зная функцию распределения, можем найти вероятность того, что величина принимает заданное значение. Используя ак- сиому непрерывности, убеждаемся, что lim Р К < Е < ₽} = lim [F (₽) - F (а„)] = О '.’-►СК5 П-+ СО при ап -> |j, ап < р, так как одновременно события {а,; Е <р} для всех п невозможны,а вероятность невозможного события равна нулю. Если величина £ имеет непрерывное распределение, то функция распределения -непрерывна, так как F (х) = lim F (х + h), h-*0 /г> О Р (д == х] = lim [F(x h) — F (x)| = 0. h-fO »>0 Если же функция F (x) имеет разрыв (скачок) в точке х0, то величина этого скачка равна вероятности того, что ве- личина примет значение х0. Укажем некоторые общие свойства функции распреде- ления. 1. Опа не убывает: при х < у будет F (х) F (у), так как F (у) — F (х) = Р (х g < г/} > 0. II. При х + оо F (х) -> 1. Действительно, при п -> -> оо события (д < п} влекут события {£ < п -г 1} и хотя бы одно из этих событий происходит. Поэтому на основании 85
аксиомы непрерывности lim Р {£ < п} = 1. III. Аналогичные соображения показывают, что' lim F (х) = 0. (Примерные графики функций распределения изобра-, жены на рисунке.) Случайная величина называется дискретной, если ее возможные значения образуют некоторую последователь- ность xlt х2, ... (конечную или бесконечную). Пусть pk вероятность того, что величина принимает значения xk. Тогда функция распределения величины так выражается через pk и xk: чтобы найти значение F (х), нужно сложить все те значения pk, для которых xk < х. Рассмотрим примеры дискретных случайных величин и их функций распределения. Будем пользоваться следу- ющим сокращенным обозначением суммы: если alt а2, ... — некоторая последовательность чисел, то У ak — сумма k<x at + ... + ат, где т наибольшее число, для которого т < х. 1. Биномиальное распределение. Случайная величина принимает значения 0, 1, ..., п, при этом P{l = k} = Ck„pk (1 — р)п~к, £ = 0,1, ... , п, 0<р< 1 —некоторое число. Таким образом, биноми- альное распределение зависит от двух параметров: п — целого натурального числа и р £ (0, 1). Функция распре- деления случайной величины определяется следующим образом: F (х) = 0 при х 0, F (х) = 1 при х > п, а при х £ [0, п] F(x)= £ C^(\-p)n-k. 86
Биномиальное распределение имеет число появлений некоторого события в п экспериментах, если вероятность появления его в одном эксперименте равна р. 2. Геометрическое распределение. Пусть событие А имеет вероятность р, 0 < р < 1. Будем повторять эксперимент до тех пор, пока А не произойдет впервые. Число повторе- ний эксперимента v до первого появления события А — случайная величина. Если v = k (k = 1, 2, ...), то в k — 1-м эксперименте произошло событие А с вероятно- стью 1 —р, а в k-tA эксперименте —событие А. Значит, Р (v = k} = р (1 — p)ft_1. Случайная величина, принимающая всевозможные на- туральные значения с указанными вероятностями, имеет геометрическое распределение (вероятности образуют гео- метрическую прогрессию). Функция распределения в этом случае имеет вид F(x) = О, s Р(1 — р)\ k<x X > 1. 3. Равномерное дискретное распределение. Величина £ принимает значения 0, 1, ..., п с вероятностями, равными функция распределения величины определяется ра- венствами О, Л+ 1 п + 1 ’ 1, Г(х) = х^О; k < х ^.k + 1, k = 0, 1, ..., п — 1; X > п. Наиболее характерным примером равномерно распре- деленной дискретной случайной величины служат деся- тичные знаки для случайно выбранной точки из отрезка [О, 1]. При этом п = 9. Например, первый десятичный знак числа из отрезка [0, 1] равен k (k — 0, 1, ..., 9), Г k k+ 1\ если число лежит в отрезке I jq-, • 1Q I, а вероятность точке попасть в этот отрезок равна его длине, т. е. i. Второй десятичный знак равен k, если число лежит в одном из 87
десяти отрезков: Г k k+ 1 \ Г 10 + 6 10 + ^+ 1 \ [ 100 ’ 100 /’ I 100 ’ 100 J ’ • • • Г 90 + k 90 + 6-1-1 \ • • ’ | 100 ’ 100 ) • Длина каждого отрезка равна а поскольку их 10, то вероятность того, что точка попадет в один из них, равна 4. Распределение Пуассона. Величина J-, принимающая значения 0, 1,2,..., имеет распределение Пуассона, если при некотором а > 0 выполняются соотношения P£ = k} = -£-e~a, £ = 0,1.......... Как уже отмечалось, распределение Пуассона .будет у числа появлений некоторого редкого события в определен- ный промежуток времени. Функция распределения имеет вид 0, х+(0, Эта функция распределения (как и вероятности) зави- сит от одного параметра а, который называется парамет- ром распределения Пуассона. Среди величин, имеющих непрерывные распределения, практически наиболее важными являются абсолютно неп- рерывные распределения. Это такие распределения, для которых вероятность попадания в малый интервал 1х, х + Лх] может быть представлена приближенно так: Р {££[*, х + Дх]} ~f (х) Дх (как и раньше, знак ~ соединяет величины, отношение которых стремится к 1, в нашем случае при Дх-> 0). Функция / (х) называется плотностью распределения случайной величины (или дифференциальной функцией рас- пределения). Зная плотность распределения, можем найти вероятность попадания £ в некоторый интервал 1а, Ь]. Для этого разобьем его на малые интервалы точками а = х0 < Xj < ... < х„ — Ь. Вероятность того, что величи- на попадет в lxft, x^+J, равна примерно f (xft) Дхй, Дх* = 88
= Xfe+i — xk. Складывая эти величины и переходя к пре- делу при &хк 0, получаем вероятность попадания в [а, /?]: ь Р {а < £ < b} = lim У f (хк) \хк = j f (x) ax. a Через плотность выражается и функция распределения: нужно в предыдущем равенстве перейти к пределу при я -> — оо, а F (Ь) = у f (х) ах. —-00 Для непрерывной случайной величины плотность ана- логична вероятностям принимать отдельные возможные зна- чения для дискретной величины. Формула,'выражающая функцию распределения через интеграл от плотности, явля- ется аналогом формулы, выражающей функцию распределе- ния через сумму вероятностей значений для дискретной величины. Рассмотрим примеры непрерывных случайных вели- чин, их функций распределения и плотностей. 5. Равномерное распределение. Пусть случайная вели- чина £ равномерно распределена па отрезке [О, 1]. Это означает, что точка £ случайно выбирается из этого отрез- ка, так что для всякого отрезка 1%, х + Дх], принадле- жащего [a, Ь], вероятность того, что £ будет выбрана из Отого отрезка, равна отношению длины отрезка к длине отрезка [а, Ь]: Р (х < 5 < х 4- Дх) — , -х , если я<х <х +Ах <6. 1 = 1 1 Ь — а 1 Если взять точку х вне отрезка [а, Ь], то при достаточ- но малых Дх Р (х < g < х + Дх} = 0. Соэтому плотность распределения случайной величины авна О, х < а или х >- Ь, х£ [а, Ь). 82-
Функция распределения случайной величины имее вид Г(х) = О, х — а b — а ’ 1, х < а, х > Ь. 6. Нормальное распределение. Случайная величина имеет нормальное (или Гауссово) распределение, ес; плотность распределения задается формулой f (х) = —=-е ' ’ V 2л ~2" или ft х2 Pla<s<i,|=-j7=.• В § 9 установлено следующее: к интегралу предыдуще формулы справа стремится вероятность того, что величш 1/ —~; lv„—р], где v„—частота появления пекот: г р(1 — р) рого события, имеющего вероятность р, в п независим испытаниях, будет принадлежать интервалу (а, Ь). Таю образом, нормальное распределение является предельно для флуктуации частоты, умноженной на р ^п_ Фун цня распределения для нормальной величины имеет в> X иг F (х) = —-=г Се 2 du. ' |/2л J Как мы увидим, нормальное распределение шири распространено в явлениях природы. Это является еле ствием центральной предельной теоремы, которая бу; рассмотрена в одном из последующих параграфов'. В дальнейших примерах анализируются случайные: личины, наблюдающиеся в конкретных эксперимента 7. Пусть эксперимент заключается в том, что из кру радиуса R случайно выбирается точка. Рассмотрим ра стояние данной точки от центра круга. Это случайг величина, принимающая значения от 0 до R. Обозначим через р (р > 0). 90
Если 0 < х < R, то П ( - , лх2 X2 Р {Р < *} — — R2 ‘ Вычислим плотность распределения. Имеем Р {х < р < х + Дх} = [(х + Дх)2 — х2] = = -4г Дх (2х Н- Дх) ~ -Й- Дх, если только О х < х + Дх ^R. Значит, плотность определяется равенством f(x) = О, х > R. О, 8. Случайная величина £ есть координата проекции на ось х точки S, случайно выбранной на окружности ради- уса R с центром в начале координат. Найдем ее функцию распределения и плотность распределения. Вероятность то- го, что £ лежит в интервале (х, х + Дх), равна умно- женной на удвоенную длину дуги верхней полуокружности, проектирующейся на отрезок [х, х + Дх]. Длина этой ду- ги равна п . x-f-Дх г, . х R arcsin —--------R arcsin -5-. К л Воспользуемся тем, что для малых дуг у sin у ~ у. По- этому п Г . х + Дх х 1 R arcsin —=--------агсчп ~ К *\ I _ . I . х + Дх х I ~ R sin I arcsin -—-R-----arcsin j = r, . . x + Дх . x = R sin arcsin ——• • cos arcsin -=----- К к n . . x х+Дх — R sin arcsin -=- • cos arccos —. 91
Поскольку sin arcsin у — у, cos arcsin у = 1 — у2, л х Лх . х arcsin —'-------arcsin -5--- Таким образом, плотность распределения имеет be л у R2 — х2 Функцию распределения определить значительно пре ще. При —R < х < R Р {— R х} = [arcsin------arcsin (— l)j = 1 . X . 1 =__arcsln_+—. Следовательно, F(x) = О, —R, +-^-arcsin, —R^x^R. 1, x> R. § 15. Среднее значение Как охарактеризовать случайную величину одним числи Пусть, например, случайная величина есть какой-ли( параметр для представителей какого-нибудь биологич 92
ского вида (вес горохового зерна, рост взрослого человека, длина тела ящерицы, ширина размаха крыльев у вороны и т. п.). Хотя от наблюдения к наблюдению значение слу- чайной величины (параметра) меняется, но существует не- которое «среднее» ее значение: средний рост человека, средний вес зерен гороха и т. д. В этом параграфе мы займемся определением среднего значения случайной величины. Предположим сначала, что случайная величина £ при- нимает конечное число различных значений xlt х2, ..., х,п с вероятностями ръ р2, ..., рт соответственно. Повторим независимо п раз эксперимент, в котором наблюдается величина J-. В каждом эксперименте отметим значение слу- чайной величины. (Например, желая установить длину ящериц определенного вида, будем отлавливать этих яще- риц в различных местах расселения вида и измерять их длину.) Обозначим значения величины Через yt, .... уп (среди них могут быть и повторяющиеся). Среднее ариф- метическое значение из наблюдений -^- (у± 4- ... -| уп) также величина случайная, она зависит от изменения как серии наблюдений, так и п. Однако, как и частота появления некоторого события в л экспериментах, среднее значение имеет тенденцию опре- деленной устойчивости: при возрастании п стремится к некоторому неслучайному числу. Это неслучайное пре- дельное значение арифметических средних и называется средним значением случайной величины, или ее математи- ческим ожиданием. Свойство устойчивости арифметических средних выте- кает из свойства устойчивости частоты события. Обозначим через Ait i — 1, ..., т событие, заключающееся в том, что случайная величина приняла значение х{. Если событие At в п экспериментах произошло kn (А() раз, то Ух + ••• + Уп ~ К (Аг) хх + ... 4- kn (А,„) хт (среди у у, ..., уп значение xt встречается столько раз, сколько раз произошло событие Аг; тоже можно сказать и относительно других возможных значений случайной величины). Поэтому I,, , kn (Дл . — (i/i + • • • + Уп) = х1 -.-|- • • • + х, — XiVn (Ах) 4- ••• 4- xmvn (А;„), 93
здесь vn (Л^) —частота события А( в п экспериментах. Заменяя частоты предельными значениями — вероятностя- ми событий, получим среднее значение, или математиче- ское ожидание, случайной величины (оно обозначается сим- волом Mg). Средним значением случайной величины g, принимаю- щей значения хг, , хт с вероятностями ръ ..., рт, назы- вается число Mg = хгр! + • • + хтр,п. Рассмотрим примеры на вычисление среднего значения. 1. Пусть g принимает значения 0, 1, ..., т с вероятное- 1 -г тями —г-т-. Тогда т+ 1 Mg = 0 • - ‘ , + 1-----1—г- -h • • • Ч-= ъ m + 1 ' m + 1 1 1 т + 1 __ 1 m(m + 1) т ~ т + 1 ’ 2_2~ ’ 2. Случайная величина g имеет биномиальное распре- деление: P£ = k} = Cknpk (1 — p)n~k, 6 = 0, 1, ... , m. Тогда Mg = 0 • (1 - p)n + 1 • np (1 - p)n~] + • • • + +fen(n~1) i^V^p^-p)"-^ ••• + nP" = ~ »p|(l-„Г1 + ... + 1"^iL7^n+'>p‘"x x (1 — p)n~k + ••• + pn~l] = n/H(l — P) 4- рГ-1 = np. Для произвольных дискретных случайных величин сред- нее значение определяется аналогично: это сумма произве- дений xkpk, где xk — возможные значения случайной ве- личины, a pk — вероятность того, что величина g прими данное значение. Символически это записывается так: Mg = £ xkpk- Если множество возможных значений бесконечно, то под бесконечной суммой понимают предел суммы Х1Р1+ ... +хпрп, когда п -> оо. 94
Рассмотрим примеры на вычисление математического ожидания для величин, принимающих бесконечное мно- жество значений. ' 3. Пусть величина I имеет геометрическое распределе- ние: Р = п] = (1 —р) рп~], п = 1, 2,... . Тогда = 1 • (1 — р) + 2(1 — р)р -Н • • • 4- и(1 - р) рп~' + • • - • •• = (1-р)(1 + 2р + 3р2+ ••• +прп~х+ •••) = = (1-Р)[1-гР + Р2+---1+(1-^)[Р-;-Р2 + Р3+---Ц- + (1-р)[р2-|-р3+ ••• 1-1- + + (1 — р) 1Рп + pn+i + •••!+ ••• =(1 — Р)х х[____L— _1__р . -1. Р2 + ...1 =_____!_ Л [ i-р f 1 _р -1 1 _ р - i-р • 4. Величина 5 имеет распределение Пуассона с пара- метром а, т. е. J? P{l = k} = ^0,1, ... Тогда k ME = 0 • е~а + 1 • -и- е~а -}- • • • -|- k е~а + • • • = 11 R. = а[е-‘+ ... +^-^6-+ ...] = а, так как выражение в скобках есть сумма вероятностей всех значений для величины, имеющей распределение Пуассо- на, а значит, равна 1. Мы установили вероятностный смысл параметра а для распределения Пуассона; а есть среднее значение случайной величины с этим распределением. Отметим, что распределение Пуассона возникло как пре- дельное для биномиального при п -> оо, пр-^-а, а пр есть среднее значение для биномиального распределения, поэтому то, что 7ИЕ --= а, для распределения Пуассона вполне естественно. Для величин, принимающих бесконечное множество значений, может оказаться, что среднее значение равно бесконечности. Это кажется парадоксальным: все значе- ния случайной величины конечны, а среднее значение — бесконечно. Однако это не парадокс, а особенность беско- нечного множества, одно из отличий его свойств от свойств конечных множеств. 95-
Рассмотрим пример, иллюстрирующий указанную воз- можность. 5. Случайная величина I принимает значения 1, 2, 4,... лП 1 1 1 ... , 2 , ... с вероятностями -у, —, ... соответст- венно. Пусть, например, имеется большое число пробирок, в которых посеяна некоторая бактериальная культура. Вероятность того, что она окажется жизнеспособной дл? каждой пробирки, равна За единицу времени, необхо- димую для исследования содержимого пробирки, коли- чество бактерий в пробирке, где они жизнеспособны, удва- ивается. Пробирки выбираются по одной и исследуются Количество бактерий в первой пробирке с жизнеспособ- ными бактериями (за единицу измерения принимается ко- личество бактерий в начальный момент времени) будя случайной величиной. Поскольку вероятность извлечт л л л 1 пробирку с жизнеспособными бактериями равна -у, тс вероятность того, что такая пробирка впервые будет ис- следована при £-м испытании, равняется Тогда числе бактерий в ней за время k — 1, удваиваясь на каждом ша- ге, будет 2*-1. Для вычисления среднего значения это?, величины нужно найти бесконечную сумму 4-1+4 -2+ +4--2‘“'+ - = 11™(4 + 4'1...... + 4г4)“lim 4 = П-+СХ) \ Z * / п-ф-оо А Рассмотрим теперь определение среднего значения для произвольной случайной величины. Пусть £ такая величи- на и F (х) —ее функция распределения. Построим дис- кретную случайную величину, которая мало отличается от величины £. Это можно сделать следующим образом. Возь- мем h > 0 и будем измерять £ с точностью до h, полагая £л = kh, если kh g < kh + Л. Величина £Л отличается от £ не больше чем на h и -> g при h -> 0. Кроме того, величина |Л имеет дискретное распределение, опа прини- мает значения лишь вида kh, причем P{lh~kh} =F((k+ l)h)-F(kh). Следовательно, = ^kh[F ((k +l)h)-F (kh)]. 96
Поскольку Вл -* 1 при h -> 0, то естественно предел последнего выражения при h -> 0 назвать математическим ожиданием случайной величины: Ml = lim h V k [F ((k 4- 1) h) — F (kh)] Лч-O (математическое ожидание существует, если существуют Mlh и последний предел). Вычислим математическое ожидание, используя дан- ное выше определение, для непрерывных случайных вели- чин. 6. Пусть величина 1 равномерно распределена на отрез- ке [а, Ь]. Если а kh < kh 4- h < b, то F (kh + h) — — F (kh) = &77J, при kth a < krh 4- h, F (krh 4- h) — — F (kji) = ~ °, при k2h sgC b < k2h + h, F (k2h + + h) — F (k2h) = (мы использовалй выражение для функции распределения равномерно определенной величи- ны, приведенное в § 14). Таким образом, = kjl -1 ^7Н- - + k2h + — (fe1+l + + + 2 + • • + (k2 — 1) = kyh 1 +7-------|- Л- h fi ^2^ I ^2 , (^14- ^2) (^2 ki 1) Из определения kv и k2 вытекает, что krh a, k2h -> b при h -> 0. Поэтому h (kx + k2) -► a 4- b, h(k2 — ki — 1) -► b — a, kJi-\-h — a-^-0, b — Следовательно, Me = lim ML = fc2~a2 = a+A . л->о л 2( -a) 2 Для равномерно распределенной случайной величины среднее значение совпадает с серединой отрезка, в котором величина I изменяется. 7. Найдем среднее значение времени ожидания в зада- че о встрече. Эта случайная величина т] рассматривалась в примере 5 § 13. Для нее была получена такая формула: Р{а^т] < Р} = (Р — а) [2а — Р — а], 0<а<р<а. 7 из 97
Поэтому, беря h = будем иметь при 0 k < г F (kh + h) — F (kh) = P {kh < kh + h] = = [2a — 2kh — h[. Если же k не удовлетворяет приведенному неравенству то F (kh + h) — F (kh) = 0. Значит, Муи = -^5- S & [2a — 2kh — h], где k меняется от 0 до n. Но 1 + 2 + • • • + n = _n.(n2+1} , 1 + 22 + • • • + n2 = »(»+!) (2n+ 1) 6 Поэтому ,M„, = [(2я-Л) - 2Л.»("+»»" + !>.]. Поскольку nh = а, .. 2а —h а2 4- ha 2а3 4- 3a2h 4- ah2 Mr\n = —2---------±---------X—J:------- Мт] = lim Mti„ = а--i-a = . h->o d d 8. ность Пусть 5 имеет нормальное распределение, т. е. пло распределения равна 1 /2л х‘ 2 . Тогда F (kh + h) — F (kh) ~ h • -p__- e 2 . Поскольку 2 =2i e 2 — k 2 Uo, T *=i V / то Л4£й = 0 для всех /i>0. Значит, Mg « 0. 88
Приведем два важных свойства математического ожида- ния, они будут использоваться в дальнейшем: 1. Пусть | —некоторая случайная величина, с —по- стоянная. Тогда с% также случайная величина. При этом М (eg) = с Mg. Это означает, что при умножении случай- ной величины на некоторое число на это же число умно- жается и среднее значение случайной величины. Проверим это свойство для величин дискретных. Пусть g принимает значения х1г х2, ... с вероятностями ри р2, ... . Величина eg принимает значение схк, если g = xk, по- этому всевозможные значения величины есть последователь- ность схк, сх2, ... , при этом величина eg принимает значе- ние схк с вероятностью рк. Значит, М (eg) = ^cxkPk = с £ хкрк = cMg. II. Пусть g и т]—две случайные величины, которые наб- людаются в одном эксперименте. Тогда £ + т] также слу- чайная величина, наблюдаемая в этом эксперименте. Спра- ведливо равенство М (g + г]) = Mg + Мт], т. е. среднее значение суммы случайных величин равно сум- ме средних значений этих величин. (Это справедливо, если средние значения существуют.) Данное свойство очевидным образом распространяется на сумму нескольких случайных величин. Остановимся лишь на случае, когда величины прини- мают конечное число значений. Пусть g принимает значе- ния ..., хт, т]—значения ylt ..., pt. Если одновре- менно происходят события {g = xk] и {т] = у/}, то g + У] = = xk + у,-. Обозначим через Р {g = хк, у] = р/} — вероятность события {g = xk] • {т] = Pj}. Тогда по опре- делению М (g + У]) = X (хк + yj) Р {g = xh, У] = Pj} = = S хкР (g = xk, У] = Pj\ + S y,p = хк, У] = Pj}. (1) , Заметим, что если сложить события {g = xk} х X (у] = р/} по /, то получим событие {g = xk}, значит, S Р {В = xk, У) = У/] = Р {В = хк} I (слева отмечено, что вероятность складывается по всем /)'. 7* 99
Аналогично X Р {В = xk, П =* = P h = !/,}• k Поэтому, производя в сумме сначала сложение по /, а затем по k, получаем S xkP {£ = xk, Т) = yt} = S xkP {g = xk} = Ml. Точно так X у,р {В = xk, л = = S у,р h = y,} = W Значит, правая часть формулы (1) есть Ml + Л4т], что и требовалось доказать. Это свойство иногда облегчает вычисление математи- ческого ожидания. Рассмотрим пример. 9. Вычислим математическое ожидание величины v, рас- смотренной в примере 1 § 13. v —число дефектных изде- лий в выборке объема т из партии в N изде'лий, содер- жащей «дефектных. Вычисления, основанные па вычислен- ных в § 13 вероятностях, очень сложны. Пусть т изделий выбираются по одному, — число дефектных изделий, выбранных в &-й раз (vk = 1, если выбрано дефектное изде- лие, vk — 0, если выбрано стандартное изделие). Тогда v = Vi + • • • + vm, Mv = Afv! + • • • + Mvm. Ho Mvk =1 • P [vk = 1). Из соображений симметрии вытекает, что вероятность вынуть дефектное изделие нг каждом шаге одна и та же и равна (вероятность того, чтс дефектное изделие выбрано на первом шаге). Значит, MV1 = Mv2= ... =Mvm = ^, Mv=^-. § 16. Дисперсия случайной величины Среднее значение случайной величины — это такое значе- ние, возле которого группируются ее наблюдаемые значе- ния. Однако они могут группироваться по-разному: более тесно и, наоборот, более широко. Проиллюстрируем это на таком примере. Пусть наблю- даемые значения первой величины: 9, 7, 10, 13, 11, 8,9, 10, 8, 12. Среднее арифметическое наблюдений равно 9,7, Отклонения наблюденных значений от среднего арифмети- ческого изменяются от —2,7 до 3,3. В такой цепочке на- 100
олюдении: и, у, в, 1б,У,б, 11, в, iu, 1U—среднее арифмети- ческое то же, что и раньше, — 9,7. Но теперь наблюдения более широко расположены около среднего значения, откло- нения от среднего меняются от —3,7 до 5,3. Как охарактеризовать «кучность» наблюдений возле среднего значения? Для этого используется величина, кото- рая называется средним квадратическим отклонением. Если xlt .... хп —наблюдения, х = ... 4~ х„) — среднее арифметическое, то квадрат среднего квадратиче- ского отклонения s2 определяется как среднее арифметиче- ское квадратов отклонений наблюдений от среднего арифме- тического: s’=7[(xi-x)!+ ••• +(хл-х)2]. Для первой серии наблюдений s2 =-3,210, так что 8» 1,8. Для второй серии наблюдений s2 = 5,21, s» »2,3. Во втором случае среднее квадратическое отклонение больше. Пусть хп—наблюдения некоторой величины £. Тог- да при возрастании п к бесконечности величина х прибли- жается к Ml, так что *2~ 4-k*i-^)2+ +(*n-wi- Очевидно, что (xk — Ml)2 будут значениями случайной величины (£ — 2И£)2, которую можно наблюдать в том же эксперименте, что и величину £. Среднее арифметическое из значений этой случайной величины при п -> оо стремится к ее математическому ожиданию, т. е. к числу Dl = M{l- W, которое называется дисперсией случайной величины g. Она является мерой рассеяния значений случайной величины вокруг среднего значения. Поскольку (£ — Ml)2 имеет только неотрицательные значения, то и М (£ —Л4£)2 > 0. При вычислении дисперсии удобно использовать не- сколько преобразованную формулу. Так как (g - Ml)2 = I2 - 21 Ml + {Ml)2, то на основании свойств математического ожидания M(l — Ml)2 = Ml2— М [(2М1) - g] + М {Ml)2. Но, очевидно, что математическое ожидание постоянной величины (она с вероятностью 1 принимает свое единст- 101
венное значение) равно самой этой величине. Кроме того! 2М£ — величина постоянная и может быть вынесена за знг| математического ожидания. Поэтому М (В — MS)2 = MS2 — 2MS • Ml + (MS)2. Окончательно получаем следующее выражение: DI = Mg2 — (М£)2. Таким образом, дисперсия случайной величины равн среднему значению квадрата величины минус квадрат сре; него значения. Величина а = j/'Dl называется стандарт ным отклонением, оно имеет ту же размерность, что и сам величина. Если g является дискретной величиной и принимает зв; чения х1г х2, ... с вероятностями рг, р2, ..., то S2 буд( принимать значения х?, х|, ... с теми же вероятностям! Поэтому Ml? = S xtPk и DI = S *kPk ~ (S Wk)2- Для непрерывных распределений можно использовать ai проксимании величин с помощью дискретных, так как л было сделано при вычислении математических ожиданий предыдущем параграфе. Таким образом, устанавливает! формула DI = lim V k2h2 (F (kh + h) — F (k)) — (MS)2. Рассмотрим примеры на вычисление дисперсий случа! ных величин. 1. Величина g принимает значение 1 с вероятностью, и значение 0 с вероятностью 1 — р. Тогда I,2 = g, М£2 =, и DI = Ml2 — (Ml)2 = р — р2 == р (1 — р). 2. Величина g имеет биномиальное распределение параметрами п и р, т. е. Р {£ = k} = Cknpk (1 — p)w Как вычислено в § 15, Ml, = пр. Имеем Ml? = 1 • пр (1 - р)«-' + 4 п(п~1) Р2 (1 _ р)л-2 + ... : + fe2^(n~1t);2-^;fe+1)^(l-pr-4 ••• +nv, <02
k-e слагаемое в этой сумме можно преобразовать так: k (k -1, "('l~',).'2-..(*7t+l) р* (i - w~*+ + к п<п-р. ("-»+!> р. (1 _ рГ-« _ = n (п — 1) p2C„feZ2/-2 (1 - p)n~k + npCkn-\pk-1 (1 - p)n~k. Поэтому M? = п{п-1)р2 [(1 - р)п~2 + (п — 2) р(1 - р)л~3 + • • • • • • + Cttf-2 (1 - р) л~* 4- • • • 4- рл“2] 4- 4-пр [(1 — р)л-1 4-(п — 1)р(1 — р)л~24~ ••• 4- + C^z’ip*-1 (1 — p)n~k 4- • • • 4- Pn~l\ = п {п — 1) P2 4- up, так как суммы в скобках являются суммами биномиаль- ных вероятностей и, значит, равны 1. Окончательно полу- чаем DI = п (п — 1) р2 4- пр — {пр)2 — пр{\——р). 3. Пусть величина £ имеет равномерное дискретное распределение, т. е. g принимает значения 0, 1, т с вероятностями . Тогда М^ =----L-— (1 4- ... +т2) = ъ т +1 4 1 1 ' _ 1 , m(m+ l)(2m+ 1) т + 1 6 Как было вычислено в § 15, , Значит, т т2 т т.2 т2 т - — — 4- -§ J- — -уу 4- -g - • 4. Величина £ имеет распределение Пуассона с парамет- ром а. Пусть [А 1 “+2о’+ +-<Аг+ •••=-“- [ o’-1 1 = а р а 4- ае. а4~ ••• 4—щ е^а 4~ • • • j 4- 4- а2 [е-а 4- ае~а 4- ... 4- 2)[ е~а 4- •. • ] = а 4- а2 103
(в скобках стоит сумма вероятностей для распределена Пуассона, значит, она равна 1). Таким образом, DI, = а + а2 — (М%)2 = а + а2 — а2 = а. Поэтому для пуассоновского распределения дисперсш совпадает с математическим ожиданием. Отметим два простых свойства дисперсии. I. Если с постоянная, то D(g + c) = Dg. Действительно, М (g + с)2 = Mg2 + 2сМ^ + с2, (Mg + с)2 = — (Mg)2 + 2сМ£ + с2. Вычитая эти два выражения, полу чаем требуемое. II. Если с постоянная, то D (eg) = c2Z)g. Действительно, М (eg)2 = c2Mg2, , (Mcg)2 = (cMg)2 =, = c2 (Mg)2, (мы использовали свойство 1 математической ожидания из § 15), так что D (eg) = c2Mg2 — с2 (Mg)2 = c2Dg. Рассмотрим применение этих свойств к вычислению дис- персий непрерывных величин. 5. g имеет равномерное распределение на отрезке [а, &]. Тогда g —а имеет равномерное распределение на [О, b —а). Пусть h = вр gft = kh при [kh, kh + h), k == 0, 1, .... m. Тогда gft = hv, где v имеет такое же рас пределение, как величина в примере 3. Значит, гл I т2 । т) I т2 1 , Dlh + 6 / —\ (m+ I)2 ’ ТГ + (т+1)2 6 /• Переходя к пределу при h -> 0, т. е. т -> оо, получаем Og=-l_(b_a)2. 6. Рассмотрим величину g, имеющую нормальное рас- пределение. Для вычисления дисперсии этой величины обра- тимся к величине т] с биномиальным распределением. Как вытекает из результатов § 9 и задачи 6 § 14, величина n-пр л / п Упр(Д—р)~'Уп р> у Р(1 —Р) 104
имеет в пределе при п оо нормальное распределение. Поэтому, учитывая результаты задачи 2 и свойства I и II, приходим к формуле Dg=limD/ у11 ==-1= lim 1__________= i Л-юо (1 —Р) / л-юо пр (1 —р) 1 §17. Независимые случайные величины Если две случайные величины £ и т) наблюдаются в разных независимых экспериментах, то события {£ < х} и (г| < у] независимы, каковы бы ни были х и у. Поэтому вероятность одновременного осуществления данных событий равна про- изведению их вероятностей. Это можно записать следующим образом: Р{1<Х, Т)< у] ^Р{1<х}Р{т]< у]. (1) Величины £ и т] называются независимыми, если для них выполнено равенство (1) для всех х и у. При этом вели- чины £ и т] могут наблюдаться и в од- » ном и том же эксперименте. Рассмотрим примеры независимых случайных величин. 1. Пусть из прямоугольника, одна из вершин которого расположена в на- чале координат, а две стороны с разме- рами а и & на осях координат, выбирается случайно точка. Обозначим координаты этой точки через £ и т]. Если х и у — числа, для которых 0 z а и 0 то собы- тие {£ < х} и {т] < у} происходит, если точка выбрана из прямоугольника с вершиной в начале координат и сторо- нами х и у. Вероятность этого события равна площади пря- моугольника ху, деленной на площадь большого прямо- угольника ab (так определяется вероятность при случай- ном выборе точки из прямоугольника). Значит, Р (5 < * п < 1/1 (2> Так как т] < Ь, какую бы точку из прямоугольника мы не выбрали, то событие {г| < Ь} достоверно. Поэтому собы- тие < х} • {г] < &} совпадает с событием < х) и Р {I < х, т] < b} — Р {I < х}. Полагая в (2) у = Ь, будем иметь P(g<x} = -£-. 105
Аналогично при х — а получим из (2), что Р {т) < у} = = у. Так что для величин £ и т] выполнено равенство (1), если х и у таковы, как было указано выше. Пусть теперь х 0. Тогда событие {£ < х} невозмож- но, и в обеих частях равенства (1) получаем 0, оно выполне- но и в этом случае. Если х > Ь, то событие {£ < х} досто- верно, Р {£ < х} = 1 и {£ < х} • (т) < у] = {т] < у\. Зна- чит, Р {£ < х, т) < у} = Р {т] < у} = 1 • Р {т| < у} = = Р{1<х} Р{т\<у}, т. е. равенство (1) выполнено при всех х. Аналогично убеждаемся, что у тоже можно выбирал произвольно и при этом равенство (1) сохраняется. Та ким образом, величины £ и т|, наблюдаемые в нашем экспе рименте, независимы. 2. Пусть эксперимент заключается в случайном выбор, точки из круга радиуса R с центром в начале координат Если ит], как и в первом примере, координаты точки, - (см. рис. на с. 107) П (е Р 1 1 / пР2 1 ГА \ Л —2 (ё /2 J 7?2 (. 4 2 Д 2 ’ Точно так Но одновременно события и |т] < — произойти не могут, так как те части круга, где для ко ординат точки выполнены указанные неравенства, в пересекаются. Значит, Величины и т] в этом случае не являются независимым! Рассмотрим другую пару величин: полярные координат! выбранной точки р — расстояние точки от начала коорд! 106
нат и <р — угол между положительным направлением оси х в лучом, проведенным из начала координат через точку, угол отсчитывается от оси х против часовой стрелки, р и Ф — случайные величины, р меняется от 0 до R, ф — от О до 2л. Пусть 0 R, 0 г/ 2л. Тогда событие {р < х} • {ф < у} происходит, если выбранная случайно точка попала в сектор круга радиуса х, вырезаемый углом величины у, одна сторона которого есть положительная полуось х. Площадь такого сектора равна у х2у. Значит, г> ( > х2У У Р {Р < X, Ф < у} — — R2 • -2^- . Полагая поочередно х = R и ф = 2л, находим =-^-, Р{Р<^} Отсюда вытекает независимость величин р и ф (при х < 0, у < 0 или х > R, у > 2л рассуждаем точно так же, как в предыдущем примере). Пусть | и т] — независимые величины, причем каждая из них дискретна. Тогда справедливо равенство Р {£ = X, Т| = у] = Р {£ = X} Р {Т] = у}. Для пояснения рассмотрим случай, когда величины £ и т] принимают каждая конечное число значений; значе- ния £ —хи ..., хп, значения г] —уг, ..., ут. Будем пред- полагать, что они записаны в порядке возрастания. Если х < х' и у < у', то Р{х<Л<х',у^т\<у'}=Р{1<х',у^х\<у'} — -Р[1<х,у^<у'} =Р{1<х',Т\<у'} — — Р {£ < х', Т] < у} — Р {£ < X, Т] < у'} 4- Р < X, Т] < у] = 107
= Р {£ < х'} Р {п < у'} — Р{1<х'}Р{х]<у} — — Р {£ < х) Р {П < у'} + Р {£ < X] Р {т] < у\ = = {Р (s < х'} — Р {£ < х}) (Р {т] < у'} — Р {т] < у}) = = P{x<^<x'}P{z/<T] <у'}. Возьмем х и х' такими, чтобы единственное значение' лежащее между х и х', было xk, а г/ и у' такими, чтоба единственным значением т], лежащим между у и у', был yt. Тогда (х < а < х'} = {£ = xk}, {г/<Л</) = = {г] = У;}. Поэтому р {£ = Хк, п = yt] = Р {£ = Хк} Р {Т] = yt\. На данном равенстве основано следующее важное свойст-| во независимых случайных величин. I. Если а и т] независимые величины и существую! и Л4г], то МЕт] = МаМт) (3 (математическое ожидание произведения независимых слу чайных величин равно произведению их математически ожиданий). Докажем это равенство для дискретных величин. Пуст; значения а будут хъ ..., хп, а значения т] —ух, Тогда произведение ал принимает значение xkyh когдг происходит событие {а = xk] {л = yt}. Значит, мал = S xkytp {а = xk} p{i]= yt}. Сумма, стоящая справа, есть произведение двух сумм {ё = *1} + • • • + хпР {£ = хл}) (у.Р {т) == Z/1} + • • • + УтР {Л Ут}) Выражение в первой скобке есть Л4а, а во второй —/Иц. Тем самым формула (3) доказана. Из этого свойства вытекает следующее. II. Если а и г] независимы, то справедливо соотно шсние Р> (£ + л) = £>£ + £>л (4 (дисперсия суммы независимых случайных величин равна сумме их дисперсий). Действительно, d (а+л) = м (а+л)2- (ма + w = + гмал + + Мт)2 — (Д4а)2 — 2МаМл — (Мт))2 = £>а + Ол + + 2 (мал—мамц) = £>а+^л> 108
так как на основании (3) выражение в скобках в последней строке равно нулю. Заметим, что если £ и т) не являются независимыми, соотношение (3) может не выполняться. Например, при hl] = М£2 Ф (Ml)2, если только DI Ф 0. Тоже касается соотношения (4). Например, D(l + l) = D(^ = b-Dl, а не 2 • DI, как вытекало бы из формулы (4). Понятие независимости обобщается на несколько слу- чайных величин. Случайные величины ..., 1п называются независимы- ми, если, каковы бы ни были хъ ..., хп, события {^ < <хх}, ..., < хп) независимы. Это- эквивалентно [соотношению {51 < • • •» 5л хп} = ~ Р {51 < *1}......Р {5л < хп} • Свойство I обобщается так: если существуют Mlk ... 5л = ... М'Еп, (5) [го соотношение выводится из (3) по индукции. Величины ..., 1п называются попарно независимыми, [если lk и h независимы, каковы бы ни были k I. Свойство II распространяется на попарно независимые величины: D (t] + • • • + 5л) = Dc.r + • • • + Dln. (6) Например, для трех величин будем иметь D (51 + 5г + 5з) = М & +12 + 53)2 - (M5i + МЬ + М|3)2 = = Mg + Mg + Mg + 2Л4^ + 2М^ + 2М5253 - - (Л451)2 - №)2 - (Ж)2 - 2М&М& - 2МЬМ£3 - - 2Л^<з = + D& + Dt3 + 2 (М^2 - М^2) + + 2 (Л4^ - М^МЪ) + 2 (М^ - = = °51 + ^5г + °5з. [так как 1 М515а= ^51А152, ^515з= М1£3= М&И^. 109
§ 18. Закон больших чисел При рассмотрении понятия среднего значения в § 15 мк исходили из арифметического среднего независимых на- блюдений случайной величины, полученных при повторении эксперимента, в котором эта величина наблюдается. Су- ществование предельного значения у средних арифмети- ческих при возрастании числа наблюдений постулирова- лось на основании эмпирических фактов. Оказывается, сходимость средних можно получить строго математически. Это и составляет содержание закона больших чисел для случайных величин. Напомним, что аналогичная ситуация была и при опре- делении вероятности события: сначала постулировалоа существование предельных значений частот, а затем после введения вероятности доказывался закон больших чисел, утверждающий сходимость в определенном смысле частот события к его вероятности. Мы рассмотрим сначала простейший вариант, когда ве- личины £2> ••• являются независимыми наблюдениям; некоторой случайной величины, принимающей конечна число значений х1г ..., хт. Для всякого е > 0 выполнено соотношение lim Р «-►оо 1 п Это соотношение устанавливается с использованием заков<| больших чисел для частот событий. Обозначим через vn (g — xt) частоту события {£ — х(' в первых п наблюдениях, т. е. число тех величин пр; k п, которые принимают значение xh деленное на п. Тогда 1 \ 1 7-Sb = %(S = -ti)+ ••• +xmvn(^ = xm), • • • + + I^l|v„^ = xm)-P{g = xm} |. 110
Пусть |xj с для всех k. Тогда , « <c(|v„(g =Xj) — P{l = X2] I + ••• + + Ш1 = хП1)-Р{1 = хт I). Если n i в событий > e, то происходит хотя бы одно (c|v„(g = xA) — P{g = xA}| > k = l, ...» m, ак как, если для всех k происходят события с| V„ (5 - Xk) — Р (g = xk} | > — j , k = 1, ... , m, to —S —Ml <Je. Таким образом, n i = ... +(dv„(l= xnl)-P{l = = xm)|>-^-}<p{|vn (g = xx)-P{g = = *i}| > -^-1+ ••• +^K« = *1)-^ = *1)I>-^1- mu ) \ utrb ) Если n -> co, то все слагаемые в правой части на основа- нии закона больших чисел стремятся к нулю. Справедли- вость (1) доказана. Прежде чем перейти к общему случаю, разберем важное неравенство, выведенное П. Л. Чебышевым и носящее его имя. Пусть § такая величина, для которой существует диспер- сия. Тогда для всякого е > О Р (|g-Mg| >8) . (2) Чтобы получить это неравенство, установим упрощенный вариант неравенства Чебышева. Если т] неотрицатель- ная случайная величина, то для всякого X > О <4-^- (3) 111
Рассмотрим величину т]х, определенную так: при т) < к, т]х = X при т) > к. Тогда тр, т] и, значит, Мт]. Но Л4гр. = 0 • Р (г) < X} + КР {л > X} = ХР {т) > X,}. Таким образом, Alt] > Мт)х, = А.Р {т] > X.}. Отсюда вытекает (3). Для доказательства (2) рассмотрим неотрицательную величину т) = (| —М|)2. Имеем Alt] = О|. Значит, 4-og. в2 Перейдем теперь к формулировке и доказательству об- щего закона больших чисел, установленного П. Л. Чебы- шевым. Пусть |2, ..., |„, ... — последовательность попарно не- зависимых случайных величин, для которых существуют математические ожидания и дисперсии, причем для неко- торого с D|fe с для всех k. Тогда для всякого е > О (1я 1я HmP П->с<> I Л 1 П 1 (4) 8 Это означает, что среднее арифметическое случайных величин мало отличается от среднего арифметического их математических ожиданий. Для доказательства рассмотрим случайную величину n = — X I*. Для нее справедливы равенства л । Iя 1 /п \ 1 п Mn=4-SM|ft, Он = 4-0 Sift =4-SD|ft It I It \ I I ft I (мы используем свойство суммы попарно независимых слу- чайных величин). Записывая для величины г) неравенство: Чебышева по формуле (2), будем иметь ( , п . « I & п 1 112
Так как D£k с, то п S Dlk < пс 1 (сумма п слагаемых, каждое из которых не превосходит с). Следовательно, ( 1 л 1 " Р — S Ik------L S Ж I я j л 1 При п -> оо правая часть стремится к нулю, каково бы ни было е > 0. Соотношение (4) доказано. Укажем примеры наиболее характерных ситуаций, в которых проявляется или используется закон больших чисел. £) 1. Давление газа на стенку сосуда определяется импуль- сами молекул газа, соударяющихся со стенкой. Для прос- тоты возьмем молекулы, летящие перпендикулярно к по- верхности стенки (на самом деле нужно рассматривать про- екции скоростей на это направление). Если молекула массы т соударяется со стенкой со скоростью v, то в результате упругого удара ее скорость, оставаясь по величине той же, меняет знак. Изменение количества движения этой моле- кулы равно 2 то. Если за некоторое время h со стенкой столкнулись п молекул и их скорости были vlt .... vn, то общее изменение количества движения газа равно п £2 mV'. На основании второго закона Ньютона оно равно 1 импульсу силы со стороны стенки на газ: произведению си- лы на время. Сила воздействия стенки сосуда на газ равна на основании третьего закона Ньютона силе воздействия газа на стенку, т. е. силе давления газа. Если площадь стенки 3, давление Р, то Л л £ 2mvt = hSP, Р = ~ £ Vi. Скорости отдельных молекул случайны, справа стоит случайная величина. Тем не менее давление газа постоянно. Это результат действия закона больших чисел. Вместо сум- мы справа можно рассматривать ее математическое ожи- дание. 2. Ток в проводнике создается движением свободных электронов. Если е — заряд одного электрона, a v — его з 533 113
скорость, то он создает ток ие. Поэтому суммарный ток, соз- даваемый п электронами, если их скорости у1; ..., vn, будет / = е (vx + .... + vn). Здесь справа также стоит случайная величина, так как скорости отдельных электронов случайны. Тем не менее можно говорить о силе тока. И зависит она не от скорос- тей электронов, а от таких характеристик, как напряже- ние на концах проводника и его сопротивление. Именно они определяют среднюю скорость электронов, через нее и выражается сила тока. Так что в выражение справа вмес- то скоростей можно подставлять их среднее значение. Это также проявление закона больших чисел. 3. Исключение сл^айных ошибок измерений также основано на действии закона больших чисел. Пусть измеря- ется некоторая величина х. Обычно с помощью измеритель- ных приборов нет возможности определить ее абсолютно точно. Существует некоторая ошибка измерения, скажем, £. Если Л1£ #= 0, то тогда говорят, что прибор имеет систе- матическую ошибку. Перестроив шкалу, можно добиться, чтобы систематическая ошибка отсутствовала, т. е. чтобы М^, = 0. Если хь ... , хп —измерения величины х, а = Xj —х, ..., £n = x(l— х — ошибки измерения при раз-; личных измерениях, то естественно считать их независимы- ми случайными величинами. Так как М£к = 0, то на основании закона больших чисел при п -> со. Значит, беря среднее значение измерений (хх + ... ... + х„) = х + — (£х + ... + £„), мы можем сколь угод- но точно получить значение измеряемой величины, хотя все измерения производились с ошибками. 4. При определении средних характеристик некоторого биологического вида берут некоторое число особей (доста- точно большое) и проводят соответствующие измерения.; Арифметические средние, в силу закона больших чисел, дают достаточно хорошее приближение для средних по все- му виду. Это значит, что для определения, например, сред- 114
него веса, скажем, особей данного вида не нужно взвеши- вать всех представителей, достаточно взвесить 100 неза- висимо отобранных особей. §19. Центральная предельная теорема При конечных значениях п даже в условиях применения закона больших чисел разность между средними арифмети- ческими независимых случайных величин и их математи- ческих ожиданий не равна нулю. Эта разность носит наз- вание флуктуации (точно так мы говорим о флуктуации частоты). Существуют флуктуация давления газа на стен- ку сосуда, флуктуация силы тока, флуктуация средних от измерения какой-либо характеристики или величины. Для грубой оценки характера отклонения суммы слу- чайных величин от математического ожидания этой суммы можно использовать неравенство Чебышева. Пусть + ... + —независимые случайные величины, для кото- рых существуют математические ожидания и дисперсии. Тогда на основании неравенства Чебышева /" п Подставим вместо х величину у у D$,k. Получим Это показывает, что отклонения суммы случайных ве- личин от суммы их дисперсий имеют порядок ограничена так что величина (в вероятностном смысле). Центральная предельная те- орема устанавливает, что (при определенных условиях) эта величина в пределе при п -> оо имеет нормальное 115
распределение, т. е. распределение с плотностью 1 f (х) = - е 2 . ' /2л Наиболее просто центральная предельная теорема фор- мулируется для того случая, когда %k являются независи- мыми наблюдениями одной и той же случайной величины. В этом случае у величин совпадают функции распределе- ния (такие величины называются одинаково распреде- ленными), математические ожидания и дисперсии. Пусть = а,- Dtk = b. Тогда п п - YMlk = na, ^Dlk = nb. i i Каковы бы ни были хг < х2. lim Р xt< । / п \ Доказательство равенства (1) опирается на довольно сложный аналитический аппарат, поэтому мы рассмотрим его в простейшем случае, когда величина | принимает все- ** 1 го два значения. Заметим, что если 5 = уу (s —а), то М5=-^Ж-а) = 0, Z)i = -±Z)(g-a)-4-1. у О и и Далее, > / у = > у’ у^_ У nb I • I Y П Vh V п Поэтому доказательство центральной предельной теоре- мы достаточно получить для величин с математическим ожи- данием 0 и дисперсией 1. Если 5 принимает два значения, то и | принимает два значения. Обозначим значения J через yY и уг, Р U = У1\ = Р> Р {£ = Уг\ = 1 —Р- ТогДа Откуда Ml = t/iPi + «/2(1 — Р) = О- Р — 1 У1 — р Уъ< 116
.1 = DZ = y\p 4- z/i(1 — p) = [I1.pp)i + (1 — p)]yl = — 1 ~ P -2 _____ P У2' __________ Значит, yx = У , y2 = _ у . Обозначим через А событие = ух}. Если v„ —час- тота события А в п испытаниях, т. е. среди величин ... £„ nvn раз встречается значение ух и п — nv„ раз зна- чение у2, то ь+ ••• +Ь = »('>./-Ц4--(1-ч,)^-гу- = ,7=7, (Vn —Р). У р (1 — р) Поэтому _________ ут (ii + • • • +у = рЛ р(\~р) {Уп ~ рУ>- Остается воспользоваться результатами § 9, в частности (юрмулой (6), в которую вместо а и b следует подставить и х2. Центральная предельная теорема дает более точную оценку для флуктуаций, чем та, которая может быть полу- чена на основании неравенства Чебышева. Пусть, напри- иер, величины ••• , независимы и одинаково распре- 1елены, = 0, D%k -= 1. Тогда ( 1 п ) I / 1 л \ 1 р —> х — V . | п Zu х2 I п х-i 1 пх* 11 J \ I / На основании центральной предельной теоремы 117
Последнее выражение, как вытекает из таблиц, приве- денных в § 9 при х ]Аг >• 3, меньше чем 0,0027, в то время как неравенство Чебышева дает оценку |«0,11. Центральная предельная теорема справедлива и для различно распределенных независимых случайных вели- чин при некоторых дополнительных ограничениях. Для этого, например, достаточно, чтобы все величины были ограничены одной постоянной. Для того чтобы лучше понять возможные следствия из центральной предельной теоремы, нам понадобится поня- тие об общем Гауссовом распределении. Величина g имеет Гауссово распределение, если существуют Mg, £)g и вели- чина имеет нормальное распределение (5 имеет математическое ожидание 0 и дисперсию 1). Найдем плотность распределения величины Пусть Mg = a, = а2. Тогда f = £ = а£+й- Вероятность того, что g попадет в интервал [х, х + Дх], совпадает с вероятностью того, что g попадет в интервал (х — а), -у-(х+Дх —a)j , т. е. интервал [у, у 4- Д(/|, где у = — (х — а), &у = Ах. По определению плотнос- ти нормального распределения эта вероятность эквивалент- 1 -4-^ л 1 д* на выражению —е 2 Ду - г— е 10 -------. н /2л V 2л о Таким образом, ' 1 <*—q>* P(x<g<x+Ax)----------т=-е 20‘ Дх. 1 ь ’ / 2л о Это означает, что g имеет плотность распределения, равную 118
Здесь а — М£, а2 — DZ. Гауссово распределение можно непосредственно задавать с помощью плотности вида (2), оно зависит от двух параметров и однозначно определяется заданием среднего значения и дисперсии случайной вели- чины. Из центральной предельной теоремы вытекает, что сум- му большого числа независимых случайных величин имеет приближенно Гауссово распределение. Каждый раз, когда наблюдаемая величина есть сумма большого числа неза- висимых случайных величин, мы можем ожидать, что она имеет Гауссово распределение. Такими будут флуктуации давления газа, силы тока в проводнике (основываясь на соображениях, приведенных в предыдущем параграфе). Гауссово распределение будут иметь ошибки измерения (этот факт был обнаружен К. Гауссом, отсюда и название распределения). Приведем одно важное следствие центральной предель- ной теоремы для биологии. Оно относится к размерам раз- личных органов биологических индивидов. Можно исхо- дить из такой схемы роста индивида. Увеличение размера органа в определенный промежуток пропорционально уже достигнутому размеру с коэффициентом, вообще говоря, случайным, зависящим от условий внешней среды. Пусть весь период роста разбит на п промежутков, t]0 — началь- ное значение размера, — коэффициент пропорциональ- ности на k-м промежутке. Естественно предположение, что значения на разных промежутках времени независимы. Если т|А — размер органа после истечения k-ro промежут- ка времени, то гц = Поэтому r]i = ^т)0> Ла = = ?2П1 = &Л1П0. Пп = П<Л1 ••• tn- Возьмем логарифм г)л, получим log = log По + log £1 + • • + log Из независимости величин г)д> £1, •••> вытекает независи- мость их логарифмов, поэтому log имеет приближенно нормальное распределение. Таким образом, размеры органов биологических инди- видов являются такими случайными величинами, логариф- мы которых имеют Гауссово распределение. В этом случае говорят, что сама случайная величина имеет логарифми- чески Гауссово (логнормальное) распределение. Факт логарифмически Гауссовых распределений для размеров многих органов подтвержден экспериментально. 119
§ 20. Эмпирическая функция распределения Случайные величины, наблюдаемые в различных экспери- ментах, имеют, как правило, неизвестные нам функции распределения. Здесь мы встречаемся с такой же ситуацией, как и при наблюдении случайных событий, вероятности которых неизвестны. Для решения многих задач важно знать распределение случайных величин, ибо на их ^основании принимаются те или иные решения. Так, можно пренебрегать маловероят- ными событиями, однако для оценки степени риска, кото- рой мы подвергаемся при таком пренебрежении, нужно знать вероятности этих событий. В § 10 рассматривалась задача об оценке неизвестной вероятности события по ре- зультатам независимых экспериментов, в которых это со- бытие наблюдается. Аналогично, имея независимые наб- людения величины можно оценить ее функцию распре- деления. Для этого и используют эмпирическую функцию распределения. Пусть проведено п независимых экспериментов, в кото- рых наблюдалась одна и та же случайная величина £. Обо- значим через xk значение величины в k-м эксперименте. Расположим п значений хх, х2, .... хп в порядке возраста- ния: Xi %2 хп- Эта последовательность называ- ется вариационным рядом. Если наблюдения были —2; 0; 1; 1,5; —1,5; 1; 0; —1; 0; 2, то соответствующий вариацион- ный ряд будет —2; —1,5; —1; 0; 0; 0; 1; 1; 1,5; 2. Как видим, в вариационном ряде значения могут повто- ряться. Пусть kn (х) обозначает число членов вариационного ря- да, для которых х* < х. Тогда эмпирическая функция распределения определяется равенством F*n W= vkn Например, для приведенной выше последовательности наблюдений имеем х 17,5] (Jif: (‘о]1:(°; 11 (I; 1,5] (1,5; 2](2;оо> Fn* (х) 0 0,1 - 0,2 0,3 0,6 0,8 0,9 1 120
Так как kn (х) — число появлений событий {£ < х} в п наблюдениях (именно хх, хп), то Fn (х) есть частота события {£ < х]. Поэтому при п оо рц (х) на основании закона больших чисел, установленного в § 8, стремится к вероятности этого события, т. е. к Р {£ < х}. Если обозна- чить функцию распределения через F (х), то стремление F„ (х) к F (х) происходит в следующем смысле: для всякого е > О lim Р {| F*n (х) — F (х) | > е} = О л->оо (заметим, что эмпирическая функция распределения есть случайная величина, поэтому имеет смысл рассматривать указанную вероятность). Для того чтобы оценить скорость сходимости эмпириче- ской функции распределения к функции .распределения, можно использовать те же соображения, которые исполь- зовались в § 10 при оценке неизвестной вероятности с помощью частоты. Это можно сделать, так как Fn (х) есть частота события {£ < х}, a F (х) — вероятность этого события. Поэтому, как вытекает из § 9, для любых а < 0 lim Р {а < f(x)(1_f(x)) (Fn (х) — F (х)) < 0} = Таким образом, отклонение эмпирической функции рас- пределения от функции распределения имеет порядок /4-F(x)(1-F(x)) . Исследование отклонения эмпирической функции рас- пределения позволяет проверять гипотезу о Согласии на- блюдаемых значений случайной величины с заданной функ- цией распределения. Эта задача по-разному решается для цискретных и непрерывных распределений, эмпириче- жую функцию распределения естественно использовать именно для непрерывных величин (в случае дискретных зеличин задача сводится к проверке гипотезы о вероятности :обытия, которая уже рассматривалась в § 10). Пусть, исходя из теоретических соображений, можно предположить, что данная величина £ имеет функцию 121
распределения F (х). В нашем распоряжении имеются наблю- дения хь хп величины £, полученные в независимых экспериментах. Нужно решить, подтверждают или опро- вергают эти наблюдения гипотезу о том, что £ имеет рас- пределение F (х). Для решения обратимся к той же идее, которую исполь- зовали в § 10 при проверке гипотезы о том, что вероят- ность события А равна заданному числу р. Если гипотеза верна, то, скажем, вероятность того, что — р | > 3 меньше, чем 0,0027, поэтому, отвергая гипотезу, если выполнено это неравенство, и принимая в противо- положном случае, мы исключим истинную гипотезу с весь- ма малой вероятностью. В нашем случае дело усложняется тем, что наблюдается не одно событие, а бесконечное мно- жество событий < х\. Чтобы избежать этой трудности, А. Н. Колмогоров пред- ложил рассматривать максимальное отклонение эмпири- ческой функции распределения от F(x); точнее, он пред- ложил рассматривать величину Dn = У п шах | F (х) — F*„ (х) | X (справа стоит умноженное на У' п максимальное отклонение по абсолютной величине функции F*n (х) от F (х)). Оказа- лось, что величина Dn имеет при п —> оо предельное рас- пределение, причем оно не зависит от гипотетической функ- ции распределения F (х). Н. В. Смирнов обнаружил, что таким же свойством об- ладает и величина Dt = V п max (F„ (х) — F (х)) X (здесь берется максимальная положительная разность меж- ду Fn (х) и F (х)). Преимущество величины Dt заключается в том, что предельное распределение для нее имеет более простой вид, чем у Dn. Справедливо равенство: при а > О lim Р {D+ < а} = 1— е~2а!. Например, при а = 2 lim Р {Dt > а} < 0,0004. 122
Использовать этот результат можно следующим обра- зом. Строим по наблюдениям F*n (х), находим Dt. Если D„ > 2, гипотеза отвергается, при Щ 2 считаем, что они не противоречат гипотезе, можно продолжить наблю- дения для уточнения. Предположим, проверяется гипотеза о равномерной распределенности величины на [1, 301 (предполагается, что некое событие может произойти с равными вероятностями в любой день месяца, хотя здесь мы имеем дело с дискрет- ным распределением, но в силу малости вероятностей от- дельных значений можем с достаточной степенью точности считать его непрерывным). Проведено 20 наблюдений, они записаны в порядке возрастания; далее в таблице приведе- ны значения в этих точках эмпирической и гипотетической функций распределения и их разность, если она положи- тельна. 1 1 3 5 5 5 6 7 10 II 0,1 0,15 0,3 0,35 0,4 0,45 0,03 0,1 0,17 0,2 0,23 0,33 0,07 0,05 0,13 0,15 0,17 0,12 11 13 13 14 16 18 20 22 24 25 0,55 0,65 0,7 0,75 0,8 0,85 0,9 0,95 1 0,36 0,43 0,46 0,53 0,6 0,67 0,73 0,8 0,83 0,19 0,22 0,24 0,22 0,2 0,18 0,17 0,15 0,17 Максимальное отклонение будет 0,24. Следовательно, Dto= К20 • 0,24= 1,56. Оценим вероятность того, что > 1,5 (будем исполь- зовать предельное распределение). Имеем Р [Dt > 1,5} = e-2<w = е~4-5 < 0,012. 123
Поэтому, отвергая гипотезу о равномерном распределении, мы примем неверную гипотезу с вероятностью меньшей, чем’"0,012. Кроме эмпирической функции распределения рассмат- риваются также эмпирическое среднее значение и эмпири- ческая дисперсия. Они вычисляются по эмпирическому распределению точно так, как математическое ожидание и дисперсия вычисляются по обычному. Эмпирическое рас- пределение — дискретное. Пусть г2 < г2 < ... < zm — раз- личные члены вариационного ряда. Если среди членов вариационного ряда = гь k2 = г2, .... km = zm (kr + ... + km — n), то эмпирическое распределение есть распределение величины, принимающей значения гь ... k k zm с вероятностями ..., —Среднее значение для такого распределения будет „ __ , I t „ __ Х1 + • • ' + хп Хп-~г1+ • • • + — --------- , т. е. это просто среднее арифметическое из наблюдений. Из закона больших чисел вытекает, что хп стремится к а, где а = Величина I п (х — а) при /г ->- оо имеет нормальное предельное распределение со средним 0 и дисперсией b = (это следствие централь- ной предельной теоремы). Пусть s2 — эмпирическая дисперсия. Тогда она опре- деляется равенством «П=^(г1-Х)2+ = ^1г1+ - х?+ ••• +хл ~2 *=---------------------X =-------------------X2 = П П = 4- s хп)2. Это просто среднее квадратическое отклонение. Так как в силу закона больших чисел для величин х2, ..., х2 (будем предполагать, что De2 конечна) среднее 4 (х2 + ... + х,2) сходится к М£2, а хп -> то s„ будет сходиться к 124
b = DI. Если заранее известно, что распределение величи- ны Гауссово, а неизвестны его параметры а и Ь, то величи- ны хп и Sn используются в качестве их приближенных значений. § 21. Корреляция случайных величин Если случайные величины £ и т] независимы, то М£т] — — М£Мг] = 0. Для произвольных величины £ и ц выраже- ние МЁц — М£/Иг] может быть отлично от нуля. В этом случае величины £ и ц называются коррелированными. Коррелированные величины не являются независимыми. Рассмотрим две величины £ и т] с конечными дисперсия- ми. Покажем, что имеет место неравенство [М (£ — М|) (ц — Мт))]2^£)| • Dx\. (1) Обозначим £ — = £', ц — Мт) = ц'. Тогда М (£' + /т]')2 = М (£')2 + 2/МГт]' + t2M (т)')2. Справа записан квадратный трехчлен относительно t. Этот квадратный трехчлен неотрицателен для всех t, по- этому его корни либо совпадают, либо мнимы, следовательно, (Mg'rf)2 — M (S')2 М (ц')2 < 0. Если вспомнить обозначения Г и т]', то из последнего неравенства вытекает (1). Заметим, что Л1 (£ — Л4Ё) (ц — Л4ц) = — М (М£) т) — Ml (Мт)) + + Л4£Л4т] = М£т] — М^Мт). Из неравенства (1) и последнего равенства вытекает, что величина удовлетворяет неравенству называется коэффициентом корреляции величин £ и ц. Если г?п = 0, то величины называются некоррелированными (они будут такими, например, в случае независимых величин). Рассмотрим некоторые свойства коэффициента корре- ляции. I. Пусть величины и rf выражаются через £ и ц соот- ношениями = al + b, т/ = ст, 4- d, а > 0, с > 0. 125
Тогда = г^,. Действительно, М = аМ1 + b, Mr\ = cMt] + d, М (£' — Л4£') (т/ — Mrf) = М (al — aMl) (ст] — сМт]) = = асМ (I — Л4£) (т) — Мт]), DI' — a2Dl, ZAf = с2От]. Поэтому __ асМ (| — Л1|) (г] — Л1т]) _ ГГтГ “ Уa«Dg c2Drj ~ II. Если |г^п| = 1, то £ и т] связаны линейным соот- ношением £ —г) — Air) Vdi Урт) Установим это равенство для случая r^n = 1. Положим g' = , rf = . Тогда Ml' = Mr]' — 0. УР| УРг) 1 Поэтому М (V — т]')2 = М (V)2 + М (У)2 — 2М1'г]' = = DI' + Drf — 2г^ = 0. Поскольку (I' — т]')2 неотрицательная величина и ее математическое ожидание равно 0, то рта величина равна нулю с вероятностью 1. Значит = т]', откуда и вытекает (2) для = 1. III. Предположим, что мы желаем приближенно выра- зить т] через £ с помощью линейной функции ц « al + b. Как выбрать а и b так, чтобы точность этой формулы была наибольшей? Ошибка представления есть т] — al — b. Будем подбирать а и b так, чтобы М (г] — al — b)2 было наименьшим (чтобы среднее значение квадрата ошибки было минимальным). Имеем М (т) — al — b)2 == [Мт] — аМ1 — b]2 + D (rj — al. — b). Второе слагаемое от Ь не зависит. А первое имеет вид (Мт] — аМ1 — Ь)2. Это неотрицательная величина, она принимает наименьшее^ значение, если b = Mr] — аМ1. 126
Второе слагаемое можно записать так: D (т] — aS) = От] — 2аМ (£ — Л4£) (т] — Мт]) + а2Ос = = Dr] — 2argtl J/Dx]l/D^ + a2 De = Dy\ (1 — r|n) + + — 2ariri V Dx\ VDe + a2D% = = Z>q (1 — r|n) + (КРп^п — а УDfy2. Первое слагаемое от а не зависит, второе неотрицательно и обращается в нуль при k Dr] — а = 0, а = г6п j/" . Таким образом, наилучшее представление (с наимень- шим средним значением квадрата ошибки) величины ц с помощью величины £ имеет вид В = (£ — М$ + Мт] + е, (3) где е ошибка, при этом Ме2 = £>ц(1 — fy). (4) Чем ближе к 1, тем точнее будет формула после отбрасывания е. Поэтому есть мера линейной зависи- мости между величинами £ и т]. Свойство III используется при нахождении линейных зависимостей между наблюдаемыми величинами. Напри- мер, в биологии можно исследовать зависимость между размерами определенных органов для некоторого вида либо влияния определенных условий на протекание каких-либо физиологических процессов в организме. Можно таким об- разом изучать зависимость урожайности от проведения тех или других сельскохозяйственных мероприятий, например от количества внесенных удобрений. Во всех этих случаях имеется такая общая схема. В эксперименте одновременно наблюдаются две величины £ и т]. При повторении эксперимента п раз получаем два ряда наблюдений М ^i. ц I У1. • • • , Уп ' 127
Будем отмечать наблюдения в системе координат п точка- ми, координаты которых (х1( У1)...(х„, уп). Тогда прямая у = ах + Ь, где а = V -pF- > Ь = Mr]— <?Mg, будет обладать тем свойством, что сумма квадратов расстоя- ний точек, характеризующих наблюдения, от этой прямой при таком выборе а и b будет в среднем наименьшей (т. е. будет обладать наименьшим средним значением). . Если коэффициент корреляции г^, а также Ml, Мт], DI, Dt] неизвестны, то вместо них можно использовать их эмпирические аналоги. Для математических ожиданий и дисперсий это средние арифметические и средние квадрати- ческие отклонения: х = 4 S xi, У^-^-^Ук = 4" S (xi — *)2. 4 = 4- S (у, — у?- Эмпирический коэффициент корреляции определяется, соотношением =-л-= (4- • ' sxsy \ / На основании закона больших чисел среднее арифмети- ческое из независимых случайных величин xrylt ..., хпуп (они одинаково распределены так же, как |т]) стремится к математическому ожиданию одной величины, т. е. к Кроме того, х стремится к Mg, а у к Мг]. Точно так s?-+ -+DI, s2y Dv\. Поэтому гхи стремится при п->оо к Это и оправдывает такой выбор эмпирического коэф- фициента корреляции. Наилучшее представление линейной функцией связи между величинами xlt ..., хп и ylt ..., уа будет, если У; = аХ( + b + ео где а = rxy-^- , Ь = у — ах. (5) $х 128
Здесь е,—ошибка представления. При этом оказывается, по при подобном выборе а и b 2е? является наименьшей, фичем 4Sef = s*(l-^). (6; Чтобы убедиться в этом, достаточно рассмотреть вели- [ИНЫ i И Т], ДЛЯ КОТОРЫХ Р {£ = Xit 1] — у.} = (для фостоты считаем, что все пары (хг, yL) различны). Тогда мпирические характеристики совпадают с точными харак- еристиками для £ и тр х = Ml, у = Мт], Sx = DI, s‘ = rxy = пл. Поэтому формулы (5) и (6) вытекают из формул (3) и (4), ели в последних заменить £ ит] на | и т].' Задачу о приближенном наилучшем линейном представле- ши одной величины с помощью другой можно распростра- шть на несколько случайных величин. Пусть имеются слу- [айные величины т] и ..., Мы хотим представить т] : помощью линейного выражения + • • ' + alAk + Ь, !ыбирая аь .... ak, b так, чтобы среднее квадрата ошибки федставления е = т] — + • • • + a^k + b) 5ыло минимальным. Заметим, что здесь величины необязательно зависимы. Так как Me2 = De + (Me)2 8 De от b не зависят, то всегда, не меняя дисперсию, можно выбрать b так, чтобы Me = 0, полагая b = Мт] — atM^— ••• —a^MSy. При подобном выборе b задача сводится к выбору гаких а1( ..., ak, чтобы От] = М (т] — (ajii + • • • + akck))2 (7) Цыла минимальной, где ту = ту — Miy, — М^. 129
Таким образом, задача может быть легко сведена к слу- чаю, когда математические ожидания величин т] и Е,- равны 0. Тогда b нужно также взять равным нулю, а для нахож- дения чисел at нужно минимизировать выражение (7). Это проще всего сделать, когда величины Е15 ..., (а значит, и £i, некоррелированы между собой, т. е. = О при i у= /. Такие величины называются попарно некоррели- рованными. Нам потребуется следующее свойство. IV. Если величины ..., попарно некоррелированы, то D(h + ••• +Ъ) = £>^ + ••• +£&. При подсчете дисперсии можно считать, что величины имеют математическое ожидание, равное нулю, так как D + ... + lk) = D (~£r + ... + Ik). При этом предпо; ложении D & + • • • + W = М & + ..• + Е*)2 = = W + ... + 4- М^Е2 + • • + Но _______ MEt-Ey = И DtiDZj = 0 при i у= /. Поэтому М (Е, + ... + Ел)2 = MEf + ... + Л4Ек, это и доказывает свойство IV. Покажем теперь, как выбрать а{, минимизирующие пр» вую часть (7), в предположении, что величины попарм некоррелированы. Возводя в квадрат и беря математиче ское ожидание почленно, получим De = Mif — 2Мт] (а^ + • • • + ak^k) + + Л4 (а^ + • • • + «кЫ2. Но Мт]Ег = Dr\D£i, а так как величины а,Е(- и некоррелированы при i у= /, то М (Qili + • • • + ak?k) — D 4- • • • + a^-k' — =--- О («iBi) + • • • + D (aklk) = + • • • aiOEk. 130
Таким образом, De = Dr) — 2r^ KDr) К DE( аг — • • • • • • — 2rrijfe Or) VDih a./, 4- aiDt^ 4~ • • • 4~ a*DSA. Используя преобразование - 2г^ /D|f а{ 4- D^a- = = I кЖ a(- — rn5.1 ' Di)]2 — r^.Di], можем записать De = Dq (1 — r^, — ... — r^) 4- (J/ De, а, — rn.gl l Ж)2 4- 4- • • • 4-(!/ZOc/e 44— r^k |/Dt])2. Очевидно, что это выражение будет наименьшим, если 1ля всех i (/DU-^rw^o, г. е. Среднее значение квадрата ошибки задается в этом слу- чае выражением De=(l-4,- ... -4)0Ч. (8) Учитывая значение Ь, имеем такое представление для тр + (9) i=i * Формулы (8) и (9) аналогичны формулам (4) и (3). Оказывается, что задачу о наилучшем линейном пред- тавлении всегда можно свести к тому случаю, когда вели- 1ины |1( ..., Efe некоррелированы. Для этого используется дедующий прием, называемый ортогонализацией случай- ных величин. Построим новые величины £х, Ct, которые так свя- ины с величинами £х, ..., Ci — £i> Сг = 4- a5i> Сз — 1з+ Pi?i 4~ Р2В2, •••» (10) С* = 4* 9i£i 4- • • • 4- 9*_i^*_|. 131
Задача состоит в таком выборе коэффициентов ар Р2, ---, 01, 0fe_i, чтобы величины •••, Zk уже были некоррелированными. Предположим, что эти коэффициен- ты можно так выбрать. Тогда на основании формулы (9) Ti= м^ + Мт1 + е (11) i=! является наилучшим линейным представлением т] через С1> Выражая через ..., по формулам (10), получим линейное представление т] через ..., Оно также будет наилучшим. Действительно, из системы равенств (10) можно после- довательно выразить через Z,' £1 = £1, 1 = -«Cd 1з = S3 PiCt Рг (Сг аС1) и т. д. Поэтому каждое линейное представление величины t| через Е1( ..., tk можно переписать как линейное представле- ние через величины £lf при этом ошибка представле- ния окажется неизменной. Значит, ошибки представления (в том числе и ошибка с минимальным средним значением квадрата) через величины Ег, ..., и величины £х, ..., одинаковы, и, взяв представление (11) и заменяя в нем ве-; личины Zi через |lt ..., получим наилучшее представле-' ние т] через ...... Будем строить величины £1( .... t,k последовательно. Как уже отмечалось выше, задачу о линейном представле нии нужно уметь решать лишь для величин с математиче ским ожиданием 0. Будем считать, что это предположена для Ё£ выполнено, тогда и выражаемые через £(- по фор- мулам (10), будут иметь математическое ожидание 0. Величину £2 представим в виде Сг = + atCi- Чтобы величины и £2 были некоррелированными, нужно, чтобы Л1С1Сг — 0, т. е. 0 = М (|2 4- 04(4) 4- r5sEi V D^iD^l 4- 132
Заметим, что поскольку Ci = Bi. то ГЫ1 = ГЫ1’ ^1 = ^1 — известные величины. Исходя из формулы (12), можем найти Og2 и для 1>2: ОС2 = М (g2 - rU1 У У = Og2 - 2М^ х х ги, /3 + г11г = Dl2 (1 - r|lb), VDW2 = №& - У rtAi. Пусть уже построены величины Ci. •••>?<• Покажем, как строить величину gi+i. Так как gx, ..., выражаются че- рез £],..., Со т0 положим &4-1 = &+1 + ^i£i + • • + Х(С(-. (13) Должны выполняться соотношения = 0 для всех / = 1, ..., i. Поэтому О = Mg-41 С/ + Mg/ (^ifei + • • • + ^(Ci) = = Mgi+1g/ + Х/Dg,- Значит, нужно выбрать X/ =--------. Так, последовательно определяются Cz- Формула (13) позволяет определить MI/&+1 и ^&+>- Может оказаться, (что некоторое Ci+i равно 0 (£>64-1 “ 0)- Тогда g,+i выра- жается линейно через glt ..., g; (через них выражаются Ь, Ci), и поэтому в линейном представлении можно ’ИСКЛЮЧИТЬ Ci-f.1. Рассмотрим простой пример. Пусть величина g прини- мает значения —2, —1,0, 1, 2 с вероятностями gx = g, = I2, 1з = £3, Л = 1- если g > О, л = 0, если | = О, t] =—1, если С < 0. Найдем наилучшее представление величины т] через |2, |3, т. е. представление вида т] = al3 + bl2 + с| + d. Легко видеть, что Mr\ = Mg = Mg3 = 0, Mg2 = Dg = 4+1 + 14-4 = g -Z. 133
Ортогонализуем величины g, g2— z, 53. Имеем £i=4, £2 = E2-2 + a£, <l2 = AO2-2 4-^) = = M;3 — 2M- + a.W = 2a. Значит, нужно выбрать a = 0. Далее, Сз = S3 + Р1С + P2C2, MUr = Ml (I3 4- p,g 4- ₽2 (Г - 2)) = = M? 4- p^2 = 4- 2PX. Имеем Л1Е4 = -1-(1 + 16 4- 1 4- 16) =-^-, pi = -3,4; 0 = M (I2 - 2) (I3 + ₽ Л 4- P2 № - 2)) = = ME5 — 2Л1Е3 4- P2M (g2 — 2)2. Так как Ml3 = (—1—32 4- 1 + 32) = 0, то р2 = 0. Итак, = U = ^-2, Сз = ?3- 4г На основании формулы (11) г) = , Mr|?2 .. AT qg3 5- । _ 11 + D£3 + е- Далее, МлСх = W = 4- (! + 2 4- 1 4- 2) = , Мт]£2 = Мт]|2 — 2Мг] = ЛД]е2 = 4 (~ 4 — 1 4- 1 4- 4) = О, W3 = W3-4rW = = 4 (8 + 1 4-1 4-8) - 4г • 4 = - °-48- ^. = 2, D^2 = 4(4 4-1 4-4 4-1 4-4) =-4’ Dl3 = Ml3- -4 4- (~Г • = 134
Окончательно получаем такое представление: Ч = 0,6Е--щ-й’-3.4'.) + е- - 0,6£—+ Al_s + в _ 4-J--1-Р+ е. Ошибка прогноза равна Пп Л _ <^зП)2 \ _ А Ц DUD^3 ; U-
III. СЛУЧАЙНЫЙ ПРОЦЕСС § 22. Время ожидания На практике мы часто имеем дело со случайными события- ми, происходящими во времени. К ним относятся, напри- мер, регистрация счетчиком космической частицы, солнеч- ные вспышки, переход атома из возбужденного состояния в устойчивое, деление ядра радиоактивного элемента. Каждое из данных событий можно характеризовать вре- менем от момента начала наблюдения до момента, когда событие произойдет. Это время является случайной вели- чиной. Назовем его временем ожидания случайного события. Изучим при определенных условиях распределение времени ожидания. Предположим, что условия эксперимента, в котором наблюдается появление некоторого события А, не меня- ются со временем по крайней мере до тех пор, пока собы- тие А не произойдет. Так, например, пока состояние возбужденного атома не меняется, не изменены и условия эксперимента, в котором наблюдается переход атома из возбужденного состояния, точно так не меняются условия, в которых находится ядро радиоактивного элемента, пока не произойдет ядерное деление. В таком случае вероятность того, что событие А произойдет на отрезке [/, t + s] при условии, что оно не произошло на отрезке Ю, /], такова, как и вероятность того, что событие произой- дет на отрезке [0, s], поскольку условия эксперимента в момент /ив момент 0 в обоих случаях одинаковы. Обозначим через Ait, t + s] событие, заключающееся в том, что А не произойдет на [/, t + s]. Тогда Р {А [0, t + s]} = Р [А [О, Z|} Р (А t + s]/A [О, /]} = = Р{А [0, /]} Р (А [0, s]}. 136
ыразим время до ожидания события А через т. Оче- адно, Р {А [0, /]} = P{r>t}. Итак, для вероятности Р {т > /} справедливо соотно- шение P{T>/ + S) = P{t>/)P{t>S). (1) Будем рассматривать лишь те события, которые не мо- ут произойти мгновенно, т. е. такие, для которых Р{т>0} = 1. Так как при tn -> О (т> 0} = U (тл > U, о Р (т > tn} -> 1 при га—► оо. Значит, для достаточно ма- :ых 6 Р {т > 6} > 0, поэтому для всех га Р {т > габ} = (Р {т > 6})" > 0 чы использовали равенство (1)). Таким образом, для всех > 0 определена функция g(i) = 1пР{т >t] In — натуральный логарифм, т. е. логарифм при основа- ли е). Логарифмируя равенство (1), получим g^ + s) = g(t) 4-g(s). Из этого равенства вытекает, что для всех гаи/ g(ra/) = rag(/), g(t) = -±-g(nt), g^^-^-g(t). 1оэтому I m ,'\ / t \ m /A /) = /ng(—)= — g(t). мачит, для всякого рационального t £(0=te(l)- (2) Используя то, что при 6 -> 0 g (6) = In Р {т > 6} ♦ 1п Р (т > 0} =0, можно убедиться, что формула (2) зраведлива для всех t. Положим g (1) = —X, где X > 0 гак как g (/) есть логарифм числа, меньшего 1, то (/) < 0). Тогда Р {т > /} = е~м. (3) 137
Это означает, что время ожидания имеет показательное; распределение. X называется параметром показательно® распределения. । Рассмотрим пример с радиоактивным распадом. 1 — е-1'; есть вероятность того, что ядро за время t распадается.^ Если N — число ядер, Nt— число ядер, распавшихся за вре- , Nt л мя t, то ------частота события «за время t произошел радиоактивный распад» в N независимых испытания! (при естественной радиоактивности превращения ядер про исходят независимо). На основании закона больших чисел (N обычно число порядка 1020) -^=1—е~\ Nt = W(1 — В физике скорость распада характеризуют периодо! полураспада. Это такое время Т, по истечении которого распадается половина наличного вещества. Значит, ---КТ 1 Л гр « Q гр 1п 2 0,69.> е = —, ХТ = Ш2, Т = —= — Установим вероятностный смысл параметра X показа тельного распределения. Для этого нам для показательно! функции потребуется следующее соотношение: Используя его, можем записать P{T<t] = l—e~K'~Kt (4 при малых t. Таким образом, вероятность того, что собы тие произойдет на промежутке 17, t 7- hl, при условии, чд оно не произошло до момента t при малых h, равна пример но Kh, т. е. вероятность появления события А за малы промежуток времени примерно пропорциональна длин! промежутка. X — коэффициент пропорциональности. Эд оправдывает название X как интенсивности появленш события А. Вычислим среднее значение времени ожидания события А. Вероятность того, что т попадет в интервал [Й kh hl, есть —Kkh —Kh—Kh —Kkh r. —Kh, e — e = e [1 — e J. 138
Значит, 00 i 1 Мт = lim S khe~M [ I — e“xft] = lim---= -L h^ok^i л+о1-е~?А (мы использовали вычисление среднего для величины, име- ющей геометрическое распределение, в § 15, пример 3, а также соотношение (4)). Тем самым установлено, что среднее время ожидания события равно обратной величине интенсивности появления события. Пусть А1г А2, .... Ап — независимые события, имеющие интенсивности Х2, •••> А- Рассмотрим событие А = = А + ... + Ап. Оно происходит, если осуществляется хотя бы одно из событий А» ..., А„. Обозначим через т*. время ожидания события Ак. Если на промежутке [0, Л не произошло событие А, то это означает, что не произошло ни одно из событий Alt ..., А„, т. е. осуществилось событие А [0, Л- А [О, Л ... А [0,/]. По предположению эти события независимы. Поэтому Р(Л[0,Л) = Р(А[0,Л) ... Р(А(0,Л) = е~м • е“м ... е“А = е“(М Н ’ ’+V. Значит, обозначив через т время ожидания события А, будем иметь Р{т>Л = е-<м+'"+?'< Из этой формулы вытекает, что интенсивность суммы независимых событий равняется сумме интенсивностей этих событий. Рассмотрим вероятность лого, что из событий Alf ..., А,- раньше всех произойдет Ак. Эту вероятность можно опре- делить как вероятность совместного осуществления собы- тий А > т*} • {т2 > А • • • {тп > Тк} (среди них, естественно, отсутствует невозможное событие Пусть = mh при mh А < (tn + 1) h. Тогда О Tk — г*1’ < h, значит, при h 0 т* ’ -> тк. Поэтому lim Р ({тх > тлЛ)} . . . К > T(fth)}) = Р ({тх > тА) . .. {т„ > тк\). h-t О 139
На основании формулы полной вероятности можем за- писать р {ъ > 4h)} ... {т„ > т4Л)}) = = S ^((Ti > Tfeh)} • • • К > 4h)}/Tft’ = mh) Р {Tfe*’ = mh}. т Используя независимость случайных величин тъ ..., ..., т„, получаем P({r1>mh} ... {т„ > mh]/{mh^.T:k< mh + h}) Р {mh^. xk < mh + h] — е ... е п (е k — е k ) (в произведении перед скобкой отсутствует член e~Kkmh). Таким образом, РЦг^гР} ... {тл >4h)}) = (мы воспользовались тем, что последнее выражение есть сум-, ма членов геометрической прогрессии). Так как при h -> О 1 _ e~Kkh ~ 1 — е~<?'1+' ’ ’+Х'г)Й ~ (bi + • • • + Мh, то, переходя к пределу при h -> 0, находим Р ({тх >Tk] ... {т„ > т*}) = к1+-.\ +Лд • Это можно записать еще так: Если А1г .... Ап — независимые события с интенсив- ностями Xj, ..., Х,г, то вероятность того, что произошло со- бытие Ak при условии, что произошло хотя бы одно из этих событий, равна отношению интенсивности события Л* к интенсивности суммы событий. § 23. Процесс Пуассона В § 7 мы уже встречались с распределением Пуассона как законом редких событий. События, наступление которых нужно ожидать некоторое время, рассматривавшиеся в § 22, можно трактовать как редкие, поскольку они проис- ходят с как угодно малыми вероятностями за достаточно 140
малые промежутки времени. Например, событие с интен- сивностью 1000 1/с за промежуток времени 1/1000000 с происходит с вероятностью 0,001. А для многих явлений указанный промежуток времени весьма большой; свет за это время пролетит 30 000 см, это порядка 1012 атомных диаметров. Во многих случаях то, что событие А произошло, не влияет (или влияет незначительно) на условия протекания эксперимента. Так что можно после появления события А снова ожидать наступления этого события, причем интен- сивность его не меняется. Число появлений события А за время [0, /] есть случай- ная величина. Обозначим ее через v (/). Мы имеем в данном случае не одну, а совокупность случайных величин: каж- дому / 0 отвечает случайная величина. Другими слова- ми, у нас определена функция t, значениями которой явля- ются случайные величины. Аргумент t есть ’время от начала наблюдения. Функции времени, принимающие случайные значения, называются случайными процессами. Таким образом, v (/) есть случайный процесс. Приведем схему, в которой событие А может происхо- дить многократно с мало меняющейся интенсивностью. Пусть Аь ..., Ап — независимые события, происходящие во времени с равными интенсивностями X. Каждое из событий может произойти только раз (например, А* — распад fc-го ядра из совокупности п радиоактивных ядер). Обозна- чим через А сумму событий Ак. Интенсивность события А равна пк. После того как наступило А, осталось п — 1 событие, которое может произойти после этого (если распа- лось одно ядро, осталось п — 1 ядер, которые способны распасться). Поэтому интенсивность события А (оно проис- ходит, если происходит одно из оставшихся событий) равна (п — 1) X. После того как событие А наступило т раз, его интенсивность равна (п — т) к. Отношение этой интеп- сивности к начальной интенсивности равно 1----- Если п достаточно большое, то, пока число появлений события А мало по сравнению с п, можем считать, что интен- сивность события А практически неизменна. Так будет, например, при рассмотрении радиоактивных веществ на промежутках времени, малых по сравнению с периодом полу- распада. Практически не меняется интенсивность космиче- ского излучения (за доступные промежутки наблюдения). 141
Обратимся к распределению процесса v (t). Обозначим через тх момент наступления события А в первый раз. Поскольку по предположению после первого наступле- ния А условия эксперимента не меняются, то время т2, которое потребуется от момента первого наступления А до того, как оно произойдет во второй раз, имеет такое же распределение, как и тх, и не зависит от тх. Поясним последнее обстоятельство на дискретной схеме. Пусть наблюдения производятся через отрезки времени h, событие впервые произошло на промежутке [mh, mh + Л]. Тогда вероятность того, что событие А произошло на отрез- ке [mh + h, mh + h + i], совпадает с вероятностью того, что А произойдет на отрезке [О, 1[. Она не зависит от т, которое определяется значением тх. Точно так же, определяя гк как промежуток времени между k— 1-м и /г-м моментом наступления события А, убеждаемся, что величины тх, ..., гк, ... независимы, оди- наково распределены. Распределение каждой из величин показательное; если интенсивность события А равна К, то Р{Ч< О, 1 — е /<0, t >0. Если за время t событие А произошло ровно k раз, то происходит событие Т1 + • ' • + "Г* < t < Tj -J- • • • + ТА + (тх + ... + гк— это момент, когда событие А произо- шло в /г-й раз, что случилось до момента t, в k + 1-й раз оно произошло в момент тх + ... + т*+ь он должен быть после момента I). Таким образом, Р {v (0 = fe} = Р (Tj + • • • + 1к < t < Tj 4- • • • + Tft+ij, (*>1). (1) Так как при v (0 = 0 до момента t не произошло ни одного события, то р {V (0 = 0} = Р (тх > t} = е~К1. Будем вычислять вероятности (1) последовательно. При k = 1 имеем Р (v (0 = 1} = Р {т, < t < тх + т21 = lira Р (тГ < t < -и/1’ + П->0 + h + т2}, 142
[де t'i'*' = mh при mh Tj < mh + h. По формуле полной вероятности оо Р {т(1Л) < I < /(1Л) + h + т2) = £, Р (т?’ < t < тГ + т=0 + h + r2/i:\h) = mh.} Р (т*/1’ = mh} = — S Р }mh < t < mh + h + т2) P {T(ift) — mh}. m=0 Очевидно, суммирование справа происходит лишь по тем т, для которых mh < t. При выполнении этого условия отдельное слагаемое преобразуется так: Р {т2 > I — mh —h} Р [mh < mh + h} = _ e~Mt—mh—h) (e~Mmh+h) Mnh^ _ ^—M __ ц Таким образом, все слагаемые одинаковы, а их число — наибольшее целое число, не превосходящее t/h, оно экви- валентно t/h. Поэтому р (v (/) = 1} = lim 4- (еМ — 1) е“х' = й->0 п = %/e~Xzlim ‘ , (2) h->0 P{v(0 = 1} = Ме~к'. Для вычисления последующих вероятностей установим соотношение, выражающее Р {v (/) = &+ 1} через Р (v (t) — k\. Если т2> h, то при некотором т выполнено событие {mh Tj < mh + h, тх + т2 > mh + h}. Поэтому P({v(t) = k + 1} • {T2>/l)) = l]P((v(0'=fe+ 1} X m X {t2 > h} • {mh Ti < mh + h}) P ({v (/) = k + 1} x m X {mh tx < mh + h} • {Tj + t2 > mh + h}) sC ^P{v(t) = k+ 1), сумма берется по тем т, для которых mh + h < t. Заме- тим, что Р ({v (0 — k + 1} • {mh тх < mh + h} х X {тх + т2 > mh + h}) = Р ({v (mh) = 0} • {v (mh + h) — — v (mh) = 1} • {v (t) — v (mh + h) = k}). 143
Поскольку интенсивность события А не зависит по предположению от того, происходило ли оно раньше и сколько раз, то событие {v (/) — v (mh 4- h) = k], совпадающее с тем, что на [mh 4- h, /] событие А произо- шло k раз, не зависит от событий {v (mh) = 0} (на [0, mh] событие А не произошло пи разу) и (v (mh + ft) — v (mh) = 1) (на [mh, mh + ft] событие А произошло 1 раз). Последние два события также независимы. Поэтому PGv (t) — k + 1) • {mh < Tj < mh 4- ft) • [Tj 4- t2 > > mh + ft}) = e~Xmh • kfte~u • P {v (t) — v (mh + ft) = k}. Но вероятность того, что на данном промежутке про- изойдет ft раз событие А, зависит лишь от длины промежутка, так что Р {v (t) — v(mh + ft) = ft) = P {v (t — mh — ft) = ft). Значит, P ({v (t) = ft + 1} • {t2 > ft}) < £ %fte-Mm+I,h x X P {v (t — mh — ft) = ft} sC P (v (t) = ft 4- 1}. Переходя к пределу при ft -> 0, получаем lim Р ({v (t) = ft 4- 1} • {т2 > ft}) < h->0 sC lim S Xfte-XmftP !v(/ — mh) = ft} < P {v (t) = ft 4- 1). <i->0 mh<t Поскольку левая часть неравенства совпадает с Р [v (I) = ft 4- 1}, то Р 'v (t) = k 4- 1} = lim У] Xfte~XmZ>P (v (t — mh) — k\. (3) h-,-0 mh<i Полагая ft = 1, будем иметь p {v (t) = 2} = lim V x,fte~XmftX (t — mh) = mh<t = lim X2e~?'zft X (t — mh). mh<t Пусть ft = , t = nh. Тогда s=ft V mh<Zt m<Zn z 144
ледовательно, lim h £ (t — mh) = lim • n (n~ ~ h->Q mh<_t n-*<x> n £ 4 e. (4) Р {V (/) = 2} = е~х' Установим по индукции, что р {v (0 = k] = e~w. 1 1 к I Для k = 0, 1,2 эта формула уже доказана. Предполо- им, что она верна при некотором k, и покажем, что она !рна и для k + 1. Используя формулу (3) и предположе- но о виде вероятности Р {v (/) = k}, точно так, как при иоде формулы для Р {v (t) = 2), можем _ записать / т \ь Kml[t------------------------------------ >{v(/) = *+И =Ит S 4-е n k I е е л/ lim «-►оо lim Д, S (n — т)к П ' m<Zn 1 V * -МТ 1 ™ • П 1 т<п (M)h+i ~ k I Если мы покажем, что lim—Z гп = - «—►со П ' т<.п тем самым установим равенство р fv (t) = k 4- 11 — e~Kl — (kOft+1 е—м rivW R-t-l) k |(^+i) e (£+1)|e шачит, и формулу (4). Для доказательства (5) используем неравенство т. и+ , Д’ -4~ I \ I / F (5) (6) — m текающее из соотношения + 1)*+’ — /и*+’ = (т + l)ft + (т + т + • • • правой части k + 1 слагаемых, из них k больше k k m и 533 145
k меньше (m + 1)*). Из неравенства (6) вытекает, что 1*+ 2* +-------Ь (п — 1)* < -yq-j- (2ft+’— lft+1 + 3*+1 +-------h nft+' _ (n _ !)*+>) < 2ft + 3ft +--------h n\ 2*+!ф или 0< "Тф! L ~ (1* + 2* + ••• К ~1 Разделив это неравенство на nk+l, получим 0<TTr-iTT^--^*1424 • • + + („-!)*) <4—-^-, откуда °<ттг—+ ••• +(«-i)ft)<4- Переходя к пределу при п -> со, убеждаемся, что ±(тгг--^щ-(1‘ + 2’+ + (П - 0‘) - 0. Отсюда и вытекает соотношение (5). Формула (4) дока- зана. Итак, если интенсивность появления события А по- стоянна и равна X, то число появлений за время t событий А имеет распределение Пуассона с параметром X/. При этом и Mv (t) = Dv (/) = X/. Про события, которые появ- ляются во времени с постоянной интенсивностью, говорят, что они образуют пуассоновский поток событий. Телефон- ные вызовы,' поступающие на станцию, регистрация кос- мических частиц, солнечные вспышки, распады радиоак- тивных ядер — все они образуют пуассоновские потоки событий. § 24. Процессы с конечным множеством состояний Простейшим примером системы с двумя состояниями мо- жет служить нуклон. Он имеет два состояния: нейтрон и протон. Состояние нейтрон неустойчиво, через некоторое случайное время он излучает электрон и превращается в про- тон. При отсутствии внешних воздействий протон стаби- 146
лен, но при облучении его электронами он может погло- тить один из них и превратиться обратно в нейтрон. Если следить за эволюцией облучаемого таким образом нуклона, мы будем наблюдать превращения нейтрона в протон и обратно. Другой пример системы с двумя состояниями можно привести из менее абстрактной сферы. Рассмотрим работу автоматического станка. Через определенное время он выходит из строя, после чего его надо наладить. На налад- ку требуется какое-то, вообще говоря, случайное время, вависящее от характера разладки (поломки). Станок, та- ким образом, может находиться в двух состояниях: работы к наладки. Переходы из состояния в состояние происходят аучаиным образом. Пусть один рабочий-наладчик обслуживает несколько автоматических станков. Если один из станков выходит из (троя, он налаживает его, пока не пустит в ход. За это время могут выйти из строя другие станки.' Тогда после окончания работы над первым станком он переходит к дру- гим. Если все станки однотипные (а так чаще всего и бывает на производстве), то состояние системы определяется чис- лом работающих станков (важно, не какие станки вышли из строя, а сколько их). Здесь мы уже имеем систему с не- сколькими состояниями, которая в случайные моменты переходит из одного состояния в другое. Приведем еще пример из физики системы со многими состояниями. Рассмотрим атом водорода. Он имеет один влектрон, который может находиться на различных энер- гетических уровнях. В устойчивом состоянии атома элект- рон занимает уровень с наименьшей энергией. Под влия- нием внешних воздействий (например, излучения) электрон может перейти на более высокий энергетический уровень, тогда атом становится возбужденным. Из этого состояния он самопроизвольно переходит в состояния с более низкими энергетическими уровнями электрона, излучая при этом квант света. Переходы как на более высокие энергетиче- ские уровни, так и на более низкие происходят случайным образом. Для описания эволюции такого рода систем и служат процессы с конечным множеством состояний. Пусть систе- ма может находиться в одном из состояний Е1г ..., Еп. Характер поведения системы зависит только от того, в каком состоянии она находится. (Если на систему воздей- 10* 147
ствуют какие-то внешние влияния, то они считаются неиз- менными.) Покажем, как можно использовать результаты § 22 для излучения данной системы. Предположим, что система находится в состоянии £>,. Тогда в течение времени возможны такие события: Ek -> -> Elt ..., Ek-+En (Ek->- Ei обозначает событие, заклю- чающееся в том, что система перейдет из состояния Ek в Е(). Среди всех перечисленных переходов могут оказаться и невозможные. Но если система когда-либо покинет со- стояние Ek, то хотя бы один переход осуществим. Такое состояние, из которого система никогда не выйдет, назы- вается поглощающим. Для системы, состоящей из нуклона, подобным будет состояние протон, для атома — устойчи- вое состояние (в обоих случаях при отсутствии внешних воздействий). Пусть A k — событие, заключающееся в том, что систе- ма вышла из состояния Ек, а Ан (k У= i) — что она пере; шла в состояние Е(. Тогда Ak = Aki + ... + Akn (собы- тие Akk не имеет смысла и в сумме отсутствует). Обозначим через aki интенсивность события Ан (в силу предположе- ния, что пока система находится в состоянии Ек, условия, в которых она находится, остаются неизменными). Из ре- зультатов § 22 вытекает, что интенсивность события Лк равна сумме ан + ... -г аы- Обозначим эту интенсивность i aki. i ^ki В § 22 было установлено, что величина = л*, есть условная вероятность того, что произошло событие Ль при условии, что произошло Ак, т. е. это вероятность перейти системе из состояния Ek в состояние Et (непосред- ственно). При Aft = О состояние Ек поглощающее. Числа Afe и лы дают возможность наглядно описать характер изменения состояния системы во времени (иначе говоря, ее эволюцию). Если система находится в состоянии Ек, то она будет пребывать в этом состоянии случайное время, имеющее показательное распределение с парамет- ром Кк, по истечении которого перейдет с вероятностью Hki в состояние Et (< любое число, не равное k). В этом состо- янии система пробудет показательное время с параметром А, и с вероятностями л? перейдет в одно из состояний Ei (j Ф i) и т. д. 148
На практике нас интересует вероятность того, что си- стема в момент t будет находиться в некотором состоянии Е{, если известно, что в начальный момент времени она была в состоянии Ek (так как интенсивности переходов не зависят ат времени, то указанная вероятность совпадает с вероят- ностью того, что система, находясь в некоторый момент в состоянии Ek, через время t попадает в Е{). Заметим, что за время t может осуществиться много переходов из состояния в состояние, поэтому эта вероят- ность существенно отличается от л«. Обозначим через Ek (t) событие «система в момент t находится в состоянии Е&. Вероятности P(E{(t)/Ek(0)} = pkl(t) (1) называются вероятностями перехода системы. Укажем некоторые их свойства. I. ОС ры (0 С 1, поскольку это вероятности. II. S рм (/) =» 1, так как события Е( (/) несовмести- мы, Е} (f) + ...+ Еп (t) — достоверное событие (в момент I система находится в одном из состояний Elt ..., Еп). III. При /> 0, s > 0 выполнено равенство PH(t + s) = YPKi(t)Pii(s). (2) I Эно называется уравнением Колмогорова — Чепмена и тре- 5ует более подробного рассмотрения. Имеем равенство Ры {I -+-S) р (Ek £P(Ek(0) . Ej(f) Ei(t+s)) “ P(Ek(0)) • (3) Здесь использовано то, что Er (t) + ... + Еп (f)—досто- верное событие. Но Р (Е{ (t + s)/Ek (0) • Е, (/))= р/t (s) (вероятность того, что система, находясь в момент t в со- стоянии Ejt попадет через время s в состояние Ее, тот факт, что она в начальный момент была в состоянии Ek, не существен, поскольку эволюция системы на проме- жутке [/, t + s] определяется ее состоянием в момент t). 149
Значит, Р (Ек (0) Ej (!) • Ej (t -I- s)) = P (Ek (0) • Ej (/)) PH (s) = P (Ek (0)) P (Ek (0)) = Phj(t) Pi/ts). Подставляя это равенство в правую часть (3), полу- чим (2). Уравнения (2) используются для того, чтобы связать вероятности перехода процесса с непосредственно заданны- ми интенсивностями и akj. Эта связь осуществляется через уравнения Колмогорова (это простейшие дифферен- циальные уравнения, выражающие производные от веро- ятностей перехода через сами вероятности перехода). Чтобы их получить, исследуем вероятности перехода за малый промежуток времени. Мы видели в § 22, что событие с интенсивностью X проис- ходит на промежутке длины h с вероятностью примерно АЛ. Два таких независимых события могут произойти од- новременно с вероятностью порядка h2 (произведение веро- ятностей). Поэтому если считать вероятность перехода с точностью до величин порядка h2, то можно предполагать, что произошло не более одного перехода. Значит, Pkk (й) = + О (h2) (то, что система за время h не вышла из состояния Е* имеет вероятность Х^йе'^, а вероятность за это время выйти из состояния Ek и вернуться назад имеет порядок й2; такую величину обозначают О (й2), поскольку при этом совершается более одного перехода). Точно так Pkt (й) = ам (й) + О (й2). Значит, выполнены предельные соотношения lim Pkk (h) ~ 1 . e~Kkh — 1 = lim-------t---- h — ^k : lim ft-^O Pki(h) h = Qki- Используя уравнение (2), можем записать Ры (t + h) = £ pkj (й) pjt (/), (4) (5) h 150
Рми+П-Рню 1 /л , --------л—' = ~л~ \Pkk (n) — 1) Pkt (?) + + Z -h-Pki(h)pji(t). i*k n Правая часть этого соотношения имеет в силу (4) пре- дел при h -> 0. Поэтому имеет предел и левая часть, т. е. существует производная у функции р^ (/). Переходя к пре- делу, получаем равенство Рш (0 = — КРы (0 + S ak!pii (/). (6) Эти равенства выполняются для k и i, меняющихся от I до п. Совокупность равенств (6) называется первой системой уравнений Колмогорова. При решении этих уравнений нужно учитывать равенства рм(0) = 0 при i Ф k, р«(0) — 1. Вторая система уравнений Колмогорова получается аналогично, если вместо соотношения (5) использовать равенство Рш (t + h) = X pkj (/) рр (h). i Она имеет вид Pki (0 “ — ^iPki (t) + S ajipkj (t). (7) i Каждая из систем Колмогорова (с учетом значений pkt (0)) однозначно определяет вероятности перехода. В качестве примера вычислим вероятности перехода для системы, состоящей из одного станка, обслуживаемого одним рабочим. Пусть % — интенсивность события «рабо- тающий станок вышел из строя», а ц — интенсивность события «неисправный станок налажен». Если через Е± обозначить состояние системы, когда станок работает, а Ег — состояние, когда он налаживается, то ри (/) есть вероятность того, что в момент t станок работал, если он работал в начальный момент времени, р21 (/) — вероятность того, что он в момент t налаживается, если он работал в на- чальное время, р12 (0 — вероятность того, что в момент t станок работает, если он в начальный момент налаживает- ся, р22 (/) — вероятность того, что он налаживается, если он налаживался и в начальный момент времени. Для вероятностей перехода выполнены следующие два соотношения: + Р1Д0 = К АиЮ +Аи(0 = 1- 151
Из сказанного выше вытекает, что — интенсивность того, что система покинет состояние Et (она совпадает с интенсивностью перехода Et -* Е2), равна X, т. е. — а12 = К. Точно так К = a2t = И- Запишем вторую систему уравнений Колмогорова Рп (0 = —%Рц (О + МР12 (0. Pi 2 (/) = — рр 12 (0 + ^Рн (0 > (8) Р21 (0 = — Хр21 (0 + рр22(0, Ри(0 = — Ир22 (0 + Хр21 (0. В первом уравнении заменшм р12 (0 = 1 — рп (/). Получим р'и (0 = — (% + н) Рп (0 + н = — (^ + н) [рн(0 — тНртг] • или [/’ll (0 — X’+ii ] = — (^ + и) [рп (0 — х + р. ] • Если функция v (0 удовлетворяет уравнению и' (0 = — kv (0, то [е*ги (0|' э= ек‘и' (0 + kektv (i) — 0. Значит, [ewu (0] = с и v (0 = со~ы, где с — постоян- ная. Поэтому Полагая t = 0 и учитывая, что ри (0) = 1, находим с = 1---— = -5-^— . Значит, л+р л+р Рп(0-Т+7+х+уе р12(0 = 1 -Р1Н0 = (1 -е-(М-“>'). ** 1 г* 152
Аналогично из уравнения (8) получаем р-^ =-гк + ТТ7 е“( ™ рг1(о = т^г(1-е-™): § 25. Эргодическая теорема Рассмотрим опять тот пример из предыдущего параграфа, 1ля которого мы вычислили вероятности перехода. Что про- исходит с ними по истечении достаточно большого проме- жутка времени? Так как (X + р.) > 0, то e-(X+w/ О при / оо. Если, например, %+ р, имеет порядок 0,001 Vc, го при t порядка 10 000 с е-(1+м.)/ ~ е-ю < 0 0001> Поэтому при больших t получим Рц ~ Х-£р ’ Р21 ~ Х + р ’ Р1г ~ Х + р ’ Р™ ~ Х + р • Это означает, что вероятность пребывания системы в юстояниях Ег и Е2 для больших i примерно постоянна и зе зависит от того, в каком состоянии система находилась 1 начальный момент времени. Данное свойство называется щодичностью. Из эргодической теоремы вытекает, что таким свойством обладают все физически разумные системы ; конечным множеством состояний. Поясним, что следует понимать под физически разумной системой. Во-первых, система должна в каждом своем со- стоянии проводить положительное время, так как если она игновенно его покидает, то такое состояние можно вообще не рассматривать, а считать, что система, минуя его, сразу юпала в то состояние, в которое она перешла из мгновен- ного. Во-вторых, состояния системы невозможно разбить за два класса так, чтобы переходы из класса в класс были невозможны. В последнем случае естественно считать, что у нас имеются по крайней мере две независимые системы. Для изучения асимптотического поведения вероятнос- тей перехода полезно ввести понятие класса сообщающихся 153
состояний. Два состояния £г и Е, называется сообщаю- щимися, если для всех t > 0 р1;- (0 > 0 и рп (0 > 0, т. е. при любых I за время t можно с положительной вероят- ностью перейти из одного состояния в другое. Заметим, что каждое состояние сообщается само с собой, так как время выхода из состояния Е,- имеет показательное распределение с параметром Л,-, значит, ри (t) > Далее, если состояние Д сообщается с Ектл Е] сооб- щается с Ек, то Д и Ej сообщаются: Pii (о > ptk (4-) pm(4~) < рр (о > д* (4~1ры (4") (мы использовали равенство Колмогорова — Чепмена Pil(i) = S Pik\^ • взяв лишь одно слагаемое справа). Рассмотрим совокупность состояний, сообщающихся с состоянием Д. Любые два состояния из этой совокупнос- ти сообщаются. Эта совокупность содержит состояние Д и никакое состояние из этой совокупности не сообщается с состоянием вне этой совокупности. Такую совокупность будем называть классом состояний. Все состояния системы разбиваются на классы. Класс называется существенным, если система; попав в такой класс, никогда уже из него не выйдет. Остальные классы называются несущественными. Из несущественного класса система выходит или в другой несущественный класс, или в существенный класс. Заме- тим, что система, выйдя из класса, не может больше в него вернуться. Если бы она могла вернуться, то состояние, в которое система перешла после выхода из класса, сооб- щалось бы с состояниями класса, а значит, и само должно было бы принадлежать этому классу. Простейший пример разбиения системы на классы имеет вид (возможны переходы из класса Д в Д, а из Кг в Д, Д и Д — несущественны, К3 — существенный класс). Более 154
сложный случай приведен ниже В этой схеме классы Kt и /<7 существенны, остальные несущественны. Через конечное время система попадет в один из существенных классов. Поэтому, если Ei принад- лежит несущественному классу, то вероятность пребыва- ния системы в этом состоянии стремится к нулю при t -> оо, это справедливо, каково бы ни было начальное состояние Ek (может оказаться, что из Ek вообще нельзя попасть в Elt например в схеме невозможны попадания в классы Ki и К3 из других классов). Значит, для всех k lim ры (t) = 0. /->>0 Поскольку система по истечении достаточно большого промежутка времени попадает в один из существенных классов, а такие классы никак не сообщаются между собой, то они гсогут рассматриваться как самостоятельные систе- мы, у которых все состояния сообщаются. Для таких сис- тем и справедлива эргодическая теорема. Теорема. Если все состояния системы сообщаются, то существуют пределы 1ппрм(0 = Рь (О /->оо вероятности pk являются единственным решением системы уравнений У Pk = 1 > hPk = S Piaik, k=\, ... , т. (2) k i Доказательство существования пределов (1) опирается на некоторые специальные математические факты, которые здесь приводить неуместно. Поэтому остановимся на выгоде системы уравнений (2). Записывая уравнение Колмогоро- ва — Чепмена pik (t + s) = S Pti (0 Plk («) 155
и переходя в нем к пределу при ? оо, получим для всех s > О Pk = X Р/Pik (s). (3) Это означает, что вероятности рк обладают следующим свойством. Пусть в начальный момент времени система находится в состоянии Ek с вероятностью pk (т. е. началь- ное положение системы также случайно). Тогда, обозначая через рк($) вероятность того, что система находится в состоя- нии Ек в момент s, получим по формуле полной вероятности Pk («) = X Р {Ek (S)/Ej (0)) Р {Ej (0)} = S PiPfk (s) = pk, i I t. e. если в начальный момент вероятность находиться в со- стоянии Ек равнялась pk, то она останется неизменной ив любой последующий момент времени. Поэтому вероятности pk называются стационарными для данной системы. Рассмотрим теперь вторую систему уравнений Колмо- горова (уравнение (7) § 24), умножим А-е уравнение на pt и сложим все уравнения. Получим X PkPki (0 = — Ъ X PkPki (0 + X X PkPk/ (0 «Д- H) k k I k Ho X ркРы (t) = р^ (S pkpki (оу = о (производная от постоянной). Значит, (4) преобразуется в равенство 0 = — KPi + X Р^ь из которого и вытекает (3). Покажем, что при наших предположениях стационар- ное распределение единственно. Пусть pk—некоторое другое стационарное распределение. Тогда Pk = X PiPfk (s)- Перейдем в этом соотношении к пределу при s -> оо pik (s) -> pk. Значит, Pk = Pk^Pi^Pk, так как = 1. 156
Если вероятности пребывания системы в каждом состоя- нии неизменны, то говорят, что система находится в ста- ционарном режиме. Из эргодической теоремы вытекает, что каждая система со временем переходит в стационарный режим. Не следует думать, что состояния системы в ста- ционарном режиме остаются неизменными. Система меня- ет свои состояния, неизменны только вероятности пребы- вания. Чтобы пояснить ситуацию, воспользуемся частотной интерпретацией вероятности. Пусть имеется N одинаковых и независимо эволюционирующих систем, причем в началь- ный момент число систем, находящихся в состоянии Е,, равнялось Nlt N = + ... + Nm. Если числа боль- шие, то pik (t) есть доля тех систем, которые перейдут в состояние Ек из Е(, поэтому их число равно примерно NiPtk (i). Общее число систем, находящихся в состоянии Ек, будет ^iPlk (0 + + NmPmk (t)- v Nt Если ph то последнее выражение равно при- ближенно N (PlPlk (0 + • • ' + PrnPmk (0) = Крь Мк. Хотя каждая система меняет свое состояние, число сис- тем, находящихся в данном состоянии, остается примерно постоянным. Рассмотрим, например, систему из станка, обслуживае- мого одним рабочим. Если интенсивность выхода из строя станка — X, а интенсивность наладки станка равна р,, то стационарные вероятности имеют вид р к Р1 “ Х + р ’ р* ~ ХН-р (fj — станок работает, Е2 — станок налаживается). Если в цехе N станков, то по истечении некоторого времени при- мерно N из этих станков работает, У —налажи- вается. Заметим, что в последнем случае для стационарных веро- ятностей можно дать более наглядную интерпретацию. Ве- 1 личина у есть среднее значение для показательного распре- деления с параметром X, т. е. среднее время работы станка 157
1 до разладки, точно так — — среднее время ремонта станка. Так что 1/А „ 1/ц Л== 1/Ц+1/Л, ’ l/p+1/А ’ вероятность пребывания системы в состоянии Е1 пропорцио- нальна среднему времени работы станка, а в Ег — средне- му времени ремонта станка. Рассмотрим некоторые примеры на вычисление стацио- нарных вероятностей. 1. Обслуживание станков. Имеется т станков, которые обслуживаются одним рабочим. Среднее время работы одного станка до разладки 1/А (т. е. интенсивность разладки А,), среднее время ремонта равно 1/р. Система находится в одном из состояний Ео, Ех, ... , Ет, в состоянии Ek рабо- тают k станков, вышедшие из строя станки налаживаются по очереди. Ниже стрелками показаны возможные перехо- ды из состояния в состояние: —» F Интенсивность перехода Ek -> Ек+\ всегда равна р (это интенсивность события «окончен ремонт станка»). Интен- сивность перехода Ек -> Ек-\ равна kX (это интенсивность суммы событий, каждое из которых имеет интенсивность А: «хотя бы один из k станков вышел из строя»). Любые другие переходы невозможны: Ао = а01 = р, а10 = А, а]2 = = р, = % + р, ... , akk-1 = kh, Ukk+i = р, Aft = &А 4- р, О.тт—1 = = tTlK. Система уравнений (2) принимает вид РРо = рД, А + И) Pi = РоР + Р-2 (2А), (Кк 4- р) рк = р*_1р + рк.-гХ (k + 1) A, (k < т) ткрт = pm_ip. Из нее последовательно получаем Pi = Ро> 2Ар2 = А + р)-у-Ро — рр0 =Ро, Р2 = , Ыр3 = (2А + р) -----------Г" Ро = Ро> 158
и,9 Ц 1 Р»~~Й1 Г2 .-3 Р»’ Pk = -^P°’ k<m' _ Ц _ р, Рт~~^ Рт~} ~ р°- Для определения р0 воспользуемся тем, что сумма ве- роятностей равна 1. Значит, / .. f / ,. \2 1 / ,, \т> k Pk = 2 .И. j_L / JL ] _|_ . . . j—1_ ( jl) | X 21 1 К ) ml \ К ) 1 Из математического анализа известна формула (см. так- же формулу (2) на стр. 49) Поэтому для достаточно больших т при ограниченных -!А ап получаем следующую приближенную формулу: pk = е а- где а = -у-, т. е. число работающих станков имеет распре- деление Пуассона. 2. Ионизация газа. Дано W газовых молекул, ионизи- руемых излучением. Интенсивность ионизации одной моле- кулы равна К. Кроме того, возможны рекомбинации поло- жительного и отрицательного ионов в нейтральную молеку- лу. Интенсивность рекомбинации одного положительного иона равна pi. Состояние системы Ет определяется чис- лом т положительных ионов (число отрицательных ионон равно также т). Интенсивность перехода Ет ~*" Em-f-l совпадает с интенсивностью суммы У — т событий: одна из N — т имеющихся в наличии нейтральных молекул ионизирована, поэтому она равна (М — т) X. Интенсив- ность перехода Ет -> Ет-\ есть интенсивность суммы т событий: «один из т положительных ионов рекомбиниро- 159
вал», и следовательно, равна mp. Итак, amm-i = тц (при т = 0 атт-\ = 0), атт bi = (W — т) А, (при т = N amm+i = 0), Am = mp + (N — m) A. Система уравнений для стационарных вероятностей принимает вид Wo = НРк А Н- mp] рт = A (N — т + 1) рт_х + + (rn+l)ppm+i, 0<m<Af, Af pp.v = Apn-i. Из этих уравнений можно последовательно выразить все вероятности через р0. Так, из первого уравпе 1ия нахо- дим Pi = N (-М р0, из второго — [(У— 1) A -f- р] pj = Л/^Аро 2рр2, Р2 = 4-{пЛ/-1)^ + н1^(4)ро- ^Ро| = N(N — 1) ( к \г ^2 ( А / =------2---Ы Р°- Покажем, что / 1 \т р,„ = С^ А р0. (5) ' г Достаточно проверить выполнение системы уравнений. Имеем Г/ЛГ X Л . I W'- / А \т Ро~ ^! Х,п+1 М ml(N — т — 1)1 Ро+ (/л—1)! (IV —/и)! ^-1 Ро ” 160
= ц(т + l)Cv+I (-£-) Ро + ' р, I + X(2V-m+ \ Н / Формула (5) установлена. Далее, Значит, Ро= Ц-^7- , Стационарные вероятности таковы, как у биномиаль- X кого распределения с р = у-г—. ’ЬТЦ § 26. Ветвящиеся процессы Рассмотрим колонию бактерий. Пока их количество таково, 1то на всех хватает питания и они не заражают среду оби- рания продуктами жизнедеятельности, можно считать, что сдельные особи развиваются независимо. Каждая особь кивет определенное время, оно зависит от многих непред- жазуемых факторов, поэтому его естественно считать слу- иайным. По истечении этого времени особь либо делением порождает две дочерние особи, либо погибает («исчезает»). Описывая эволюцию колонии бактерий вероятностными методами, мы можем рассматривать ее как систему, состоя- ние которой определяется числом особей. Изменение состоя- ния системы происходит тогда и только тогда, когда одна из особей или исчезает, или порождает две новые. Аналогичный характер имеет эволюция системы из со вершенно другой области. Известно, что ядра урана-235, поглощая медленные нейтроны, делятся на части; при этом могут выделиться несколько новых медленных нейтронов. Вновь выделенные нейтроны могут опять вступать в реак- /4 11 533 161
цию. Кроме того, каждый медленный нейтрон может погло’ титься примесями или покинуть область, где происходит реакция. Очевидно, что до тех пор, пока число тепловых нейтронов мало по сравнению с числом ядер урана, пове- дение отдельных нейтронов независимо. Каждый нейтрон имеет определенное «время жизни» в свободном состоянии, после которого он или «исчезает», или порождает несколько новых нейтронов. Состояние системы так же, как в случае с колонией бактерий, характеризуется числом нейтронов, переходы из состояния в состояние происходят случайным образом, и только тогда, кода один из нейтронов «исчезает» или порождает в результате ядер ной реакции несколько новых. Рассмотрим, наконец, распространение эпидемии не- которой инфекционной болезни. Если описывать состояние системы числом больных, то состояние системы меняется тогда, когда один из больных выздоровеет («исчезнет») или заразит несколько здоровых людей. Опять мы имеем дело с системой, состояние которой определяется числом неко- торых объектов; эти объекты случайным образом или исче- зают, или порождают несколько новых объектов такого же типа. Для математического описания систем такого вида ис- пользуются ветвящиеся процессы. Сейчас мы подробно оста- новимся на ветвящемся процессе с одним типом частиц. Частицами называются те объекты, которые определяют состояние процесса (особи, нейтроны, больные в рассмот- ренных выше примерах). Каждая частица живет определен- ное (случайное) время, после чего превращается в несколь- ко частиц такого же вида или исчезает. Основное предпо-. ложение заключается в том, что различные частицы ведут себя независимо. В частности, времена жизни частиц неза- висимы. Введем основные вероятностные характеристики вет- вящегося процесса. Пусть X — интенсивность события А «произошло прев- ращение частицы» (т. е. частица или исчезла, или превра- тилась в несколько). Тогда, как установлено в § 22, время до наступления этого события имеет показательное распре- деление с параметром X, т. е. Р {т > /} = е~Ч t > 0. Обозначим через nk вероятность того, что в момент пре- 162
зращения частица превратилась в k частиц, k = 0, 2, 3, ... До — вероятность того, что частица исчезнет). Пусть Ak — это событие «данная частица превратилась з k частиц», k = 0, 2т, 3, .... Если 7.k— интенсивность собы- тия А, то поскольку Л = До + ^2 + ’’’ + Ak + •••» то X = Хо + Х2 + • • • + А,* 4* • • • и = Р (Ак/А) = /ъ это было установлено в § 22). Таким образом, = fatk. Пусть pk, (0 обозначает вероятность того, что в момент ! будет j частиц, если в начальный момент было k частиц 'это вероятности перехода для нашей системы). Через и (/) выразим случайную величину — число частиц в мо- иент t. Следовательно, Pk, (t) = Р {v (t) = j/v (0) = k\. Во многих случаях можно ограничиться изучением по- ведения среднего числа частиц. Рассмотрим эту величину. Будем предполагать, что среднее число частиц, в которое превращается одна частица, конечно, т. е. величина tn = 2ло -Т- Зл^ -Т- • • • -Т- knk оо • Покажем, что если в начальный момент было k частиц, то .'Mv (!) = fe'-'"1-11'. (1) Обозначим через Vx (/), ..., vk(t) число частиц, порож- денных соответственно каждой из k начальных частиц. Тогда V (t) = vx (0 + • • • + vk (/) и /Vlv (t) = Mvx (0 + • • • + Mvk (t) = kMv (t), так как величины vi (t) имеют одинаковые распределения. Поэтому формулу (1) достаточно установить для случая fe = 1. Положим а (/) = /VIVj (/). 11 +V4 533 163
Величину vj (t + s) можно представить как сумму Vj (s) величин V1(S) _ V1(/ + S) = S (2) Z=1 которые являются потомствами тех Vj (s) частиц, появив- шихся к моменту s из начальной частицы: vi (I) — число частиц, получившихся из одной частицы, находящейся в системе в момент s за время t (т. е. до момента s + t). Величины vi (/) не зависят от (s). Поэтому М [Vi (t + p)/v, (s) = /] = jMvt(t) = ja (t). Если мы умножим это соотношение на Р {vx (s) = = /} и просуммируем по /, то в левой части получим по формуле полной вероятности 44vj (t + s). Действительно, М (Vj (t + S)/Vj (s) = /] = S kpjk (0, k S Pjk (t) P {vt (s) = /} = P {V, (t s) = k}. i Значит, a (t + s) = a (t) S jP {vj (s) = /} = a (t) Mvt (s) = a (t) a (s). / Так как за малое время h событие Ak происходит с ве- роятностью то Р (vi (h) = k} ~ faibh,, k = 0, 2, ... (3) 1 —P{V1(Zi) = 1} ~lh. Следовательно, a(h) — 1 = S kP (vj (h) =k\ — 1 — *=i Имеем oo У, knk — 1 *=2 = A(/n— 1) h. a(t 4- Zi) — a (t) = a (t) a(h) — a (/) = a (/) [а (Л) — 1] ~ X,(/n— l)a (/), lim .fl ~ a = К (tn — 1) a (t), »-»o n 164
Функция a (t), таким образом, удовлетворяет соотно- шению а' (/) = А (т— 1) а (/) и, кроме того, а (0) = 1. Поэтому а (/) «= еХ('л~1)/. Тем самым формула (1) установлена. Из этой формулы вытекает, что поведение среднего зна- чения числа частиц зависит от величины А (т — 1). Ка- чественно можно выделить 3 случая. 1. т > 1, т. е. среднее значение числа частиц, в кото- рые превращается одна частица в момент превращения, больше 1. Тогда А (т — 1) > 0 и при t -+ ooMv (/) также возрастает до бесконечности. Такой ветвящийся процесс называется надкритическим. 2. т = 1. Тогда А (т — 1) = 0 и, следовательно, Mv (0 = k, если в начальный момент было k частиц. Дру- гими словами, среднее число частиц остается неизменным. В этом случае ветвящийся процесс называется критиче- ским. 3. т < 1, А (т — 1) < 0. Значит, Mv (t) 0 при t-+ оо. Так как v (t) — целочисленная случайная величи- на, то Р {v(0 > 1} 0, Р (v (f) = 0} ->• 1. Это означает, что со временем в процессе исчезают все частицы (гово- рят, что процесс вырождается). Процесс при т < 1 назы- вается докритическим. Рассмотрим теперь вопрос о вырождении процесса. По- скольку частицы в процессе могут появляться лишь в ре- зультате превращения других частиц, то если в некоторый момент все частицы исчезнут, тогда и во все последующие моменты времени частицы в системе будут отсутствовать. Пусть В — событие, которое заключается в том, что на- ступит такой момент о, что v (о) = 0. Наступление события В и обозначает вырождение процесса. Найдем вероятность вырождения. Она, очевидно, зависит от числа частиц в. начальный момент времени. Предположим, что Р (B/v (0) = k) обозначает вероятность вырождения при условии, что в начальный момент было k частиц. Так как в этом случае v (t) = vi (0 + ... + vk (/), где vt (t) — величина потом- ства t-й начальной частицы, v, (/)— независимые величины, И + ‘/4* 16&
то Р {V (/) = 0} = Р {v, (t) = 0, ... , v,t (t) - 0} = - {Р |v1 (0 = 0))*. (4) Какова бы ни была последовательность tn -+ оо, собы- тия {v (4) = 0} монотонно возрастают с tn ({v (4) = 0} влечет событие {v (4+i) = 0} при tn < 4+0, а сумма этих событий есть событие В. Поэтому Р (В) = lim Р {v (/„) = 0} = lim Р {v (t) — 0} и аналогичное соотношение справедливо для условных вероятностей. Переходя в (4) к пределу при t-^ ас, получим Р (B/v (0 = k) = (Р (B/v (0) = 1))*. (5) Найдем Р (B/v (0) = 1). Как было установлено выше, P(B/v(0) = 1) = lim р10 (0. Воспользуемся равенством Колмогорова — Чепмена: Рю (t + h) = У pik (h) ры (t). k Переходя к пределу при t-+oo, находим Р (B/v (0) = 1) = £ р1к (h) (P (B/v (0) = 1))*. Используя равенства (3), может записать Р (B/v (0) = 1) (1 — ри (Л)) = I р1к (h) (Р (B/v (0) = 1))\ кР (B/v (0) = 1) = S (Р (B/V (0) = 1))\ (6) Введем функцию <р (а) = У — а. Тогда Р (B/v (0) = 1) является корнем уравнения гр (а) = 0. Это уравнение имеет по крайней мере один ко- рень, так как Ф(1) = S 1 =0. 166
Далее, если л0 = 0, т. е. вероятность исчезновения час- тиц равна нулю, то и Р (В) = 0. Рассмотрим случай, когда л0 > 0. Функция <р (а) при а £ [0, 1] выпукла вниз, поскольку ф" (а) = nkk (k — 1) а*-2 > 0. k=2 Поэтому возможен один из двух видов графика функции Ф (а): В случае а а= 1 является единственным корнем урав- нения <р (а) = 0. Значит, Р (В) — 1. Так как <р (а) при этом убывает, то <р' (а) 0, т. е. У kn,kak~l — 1^0. *=2 Полагая а= 1,, получаем т— 1^0. Следовательно, случай а имеет место для докритическо- го и критического процессов. При tn > 1 будет случай б. Так как P(B/v(0) = 1) = limp10(0, /->оо a Pio (0) = 0, то Р10 при t -> оо непрерывно возрастает от 0 до первого после нуля корня уравнения <р (а) = 0, по- этому Р (B/v (0) = 1-) = а, где а меньший из корней уравнения <р (а) = 0 па отрезке [0, 1]. При этом 0 < а < 1. Таким образом, для надкрити- ческого процесса (даже при л0 = 0) Р (B/v (0) = k) = ак, где а < 1 (при л0 = 0 будет а = 0). Если k достаточно большое, то вероятность вырождения сколь угодно мала. 167
Значит, надкритический процесс, имеющий в начальный момент достаточно большое число частиц, практически не вырождается. Что же происходит с ветвящимся процессом в надкри- тическом случае, если он не вырождается? Оказывается, что для любого P{v(t) > п}1 — Р (В), (7) т. е. в этом случае v (t) становится неограниченным. Покажем это. Опять, используя уравнение Колмогоро- ва — Чепмена, запишем для t > 0 и s > О Ры (t 4- s) = ры (Ч + £ ры (t) рю (s) (8) <>о (мы воспользовались тем, что Роо (s) = 1, так как из со- стояния 0 система никогда не выйдет). Перейдем к пределу при s -> оо и воспользуемся тем, что limpzo(s) = а!. $-*оо Тогда из (8) получим = рм (Ч + S Pkia‘. i>0 При а > 0 имеем Ры (0 + • • • + Pkn (0 < 4г (Pkt (0 а + • • • + PknUn} < а < S Pk‘ (0 “ = 4“ — Рм (01- ос |>о а Поскольку рк0 (/)-> ак при / <х>, то lim (pk\ (t) + + pkm(t)) = 0. Из этого соотношения и вытекает (7). Если же а = 0, то л0 *= 0 и, значит, частицы не исчезают. Тогда v (t) возрас- тает с t, причем после каждого превращенияv (^увеличит- ся по крайней мере на 1. Поскольку в этом случае обя- зательно будет бесконечное число превращений (за беско- нечное время), то v (/) -> +оо. Следовательно, всегда, когда вырождение не происходит, возникает «взрыв» — число частиц неограниченно возра- стает. !68
Что означает вырождение или «взрыв» в тех примерах, которые рассматривались в начале параграфа? Для коло- нии бактерий вырождение есть гибель всех особей, «взрыв» же — разрастание колонии до размеров, при кото- рых развитие отдельных особей еще возможно (достаточно питательных веществ и среда не сильно отравлена продук- тами жизнедеятельности живых и разложения мертвых особей). Такие колонии бактерий получаются при посевах для обнаружения их наличия в некоторой среде. Если коло- ния гибнет, то п при наличии бактерий в среде мы их не обнаружим, если же происходит «взрыв», колония разрас- тается и присутствие бактерий в среде может быть уста- новлено. При ядерной реакции с медленными нейтронами «взрыв» приводит к реальному взрыву в результате выделения боль- шого количества энергии, при этом сама система разруша- ется и процесс прекращается. Вырождение означает, что система находится в стабильном состоянии. Даже прите- кание небольшого количества нейтронов со стороны (которое всегда имеет место) не приводит к ядерному взрыву. Если рассматривать как ветвящийся процесс распро- странение инфекционной болезни, то вырождение озна- чает прекращение эпидемии, а взрыв — почти поголовное заболевание всех предрасположенных к данной болезни. Проанализируем детальнее процесс, в котором возмож- ны лишь два вида превращения: исчезновение или деление на две частицы. Пусть X — интенсивность превращений; л0 и л2 — вероятности того, что в момент превращения час- тица исчезнет или превратится в две. В этом случае т 2л2, т — 1 = 2л2 — 1 = л2 — л0. Значит, при л8 < л0 процесс докрптический, л2 — = л0 — критический, л2 > л0 — надкритический. Опреде- лим вероятность вырождения в надкритическом случае. Функция <р (а) имеет вид (р (а) = л0 — а + л2а2 = л0 — (л0 л2) а + л2а2 = = л0 (1 — а) — л2а (1 — а) = (1 — а) (л0 — л2а). Так как в надкритическом случае л2 > л0, то а = < 1 169
есть наименьший положительный корень уравнения <р (а) = = 0. Значит, вероятность вырождения равна Среднее значение числа частиц имеет вид Mv (/) = ke^‘, где k — число частиц в начальный момент времени, р = Цл2-л0) где т — время жизни частицы до превращения; Мт — среднее значение т. По величине ц можно определить «вре- мя удвоения числа частиц», т. е. такое время Т, что Mv (Т) = 2k. Имеем еиг = 2,7 = = 0,693 —. Н — Лд , § 27. Колебания со случайной амплитудой Колебательные процессы в природе возникают при взаимно обратных переходах двух видов энергии (движения) друг в друга. В механических колебаниях — это потенциальная и кинетическая энергия, в электромагнитных — энергия электрических н магнитных полей. Простейшее колебание — это гармоническое колебание, в котором находится гармо- нический осциллятор. Механический гармонический осциллятор получаем при рассмотрении движения материальной точки около поло- жения равновесия под действием сил, которые возвращают ее в положение равновесия. Гармоническое колебание бу- дет получаться, если возвращающая сила пропорциональна отклонению точки от положения равновесия. Такой харак- тер имеют, например, упругие силы в пределах небольших отклонений. Предположим, что точка движется вдоль осн х, причем х = 0 является точкой равновесия. Если F (х) — величина силы, действующей на точку при отклонении х, то F (х) = = —сх, где с — некоторый коэффициент пропорциональ- ности, при х = 0 сила равна нулю, при х #= 0 сила направ- лена к положению равновесия и пропорциональна откло- нению. Пусть х (/) — положение точки в момент t, тогда х'(0 — ее скорость (с учетом знака), x"(t) — ее ускорение. 170
По второму закону Ньютона тх" (/) = — сх (О (т — масса точки). Обозначим = и2. Тогда предыдущее уравнение мож- но переписать в виде х" (/) + <о2х (/) = 0. (1) Это и есть уравнение для гармонических колебаний. Так как для функций sin at и cos at справедливы соотно- шения (sin at)" = — и2 sin at, (cos at)" = — co2 cos at, то функция x (t) = A cos at -J- В sin at , (2) удовлетворяет уравнению (1). (Можно показать, что вся- кая функция х (0, удовлетворяющая соотношению (1), имеет вид (2).) А и В — постоянные, имеющие простой физический смысл. Полагая t = 0, находим А = х (0), т. е. А — на- чальное положение точки.” Продифференцируем (2) по t: х' (t) = — Ли sin at Ba cos at. Полагая здесь t — 0, видим В = — х' (0) ю ' ’ (х'(0) — начальная скорость точки). Преобразуем (2) следующим образом. Пусть /? = ]/Л2 + Д2, <р такой угол, что В = R cos <р, А — — R sin <р. Тогда х (/) = R [cos <р • cos at — sin <р • sin и/], x (t) = R cos (at + <p). (8) Это и есть общий вид функции, описывающий гармо- ническое колебание; R — амплитуда колебания; со — частота (точнее, циклическая частота); <р — начальная фаза. 171
Рассмотрим энергию колеблющейся точки. Для того что- бы сдвинуть точку из положения 0 в положение х, нужно затратить работу на преодоление возвращающей силы, равную ~ х2. Это потенциальная энергия точки в положе- нии х. Ее кинетическая энергия в момент t равна -у [х' (Z)]2 = -у- W2 sin2 (со/ 4- <р). Значит, полная энергия будет R2 sin2 (со/ ср) =/?2-^-, так как /исо2 = с. Отсюда видим, что энергия пропорциональна квадрату амплитуды и при за- данном с не зависит’ от т, а значит, и со. Заметим, что частота коле- баний не меняется при изме- нении начальных них зависят лишь начальная фаза. Гармоническое удобно изображать движения. Пусть точка движется R с постоянной угловой скоростью условии, от амплитуда и колебание схемати- чески в виде кругового ио окружности радиуса <о против часовой стрелки; ср — начальный угол, отсчиты- ваемый от положительного направления оси х до точки; ср (t) — такой угол до положения точки в момент t (при этом ср (/) может содержать несколько полных оборотов). Тогда ср (t) = ср + u>t и проекция вращающейся точки на ось х будет х (t) = R cos (со/ + ср), т. е. также имеет вид (3). Равномерное движение по окружности проще изучать (в силу его равномерности). Заметим, что для важных слу- чаев колебаний имеет физический смысл и проекция круго- вого движения на ось у у (I) = Я sin (со/ + ср). 172
Так, в электромагнитных колебаниях, если х (0 — на- пряженность электрического поля, то у (i) будет напряжен- ностью магнитного поля. Точки плоскости можно изображать с помощью комплек- сных чисел. Используем представление комплексных чисел в тригонометрической форме в таком виде: z = г<^ = г (cos <р + i sin tp), (i = К—1) (применяем известную формулу Эйлера cos <р + i sin tp = = ег<₽). Здесь г — модуль комплексного числа г; гр — его аргумент. Тогда, если z (/) — положение вращающейся точ- ки в момент t, то z (/) = Яе«‘й'+ч». (4) Это комплексное представление гармонического колеба- ния. Оно удобно, и мы будем его в дальнейшем использо- вать. Предположим, что начальное положение точки, совер- шающей гармонические колебания, было случайным: слу- чайны положение и скорость в начальный момент времени. Тогда будут случайными амплитуда и начальная фаза, на частоту колебаний это влияния не окажет, она по-преж- нему будет равна со. Положение вращающейся точки на плоскости также будет случайным. Обозначим его через £ (О- В соответствии с формулой (4) £ (t) можно предста- вить в виде I (t) = Z^, (5) где Zo = — случайная величина с комплексными значениями (комплексная амплитуда колебания). Рассмотрим теперь суперпозицию (наложение) несколь- ких гармонических колебаний. Наиболее просто такую су- перпозицию представить для электромагнитных колеба- ний. Каждый гармонический осциллятор таких колеба- ний излучает электромагнитное колебание определенной частоты вида (4), при этом напряженности (и электриче- ская и магнитная), создаваемые полями отдельных осцил- ляторов, складываются. Поэтому для нахождения напря- женности суммарного поля нужно сложить описывающие отдельные поля комплексные числа вида (4) и найти веще- ственную часть полученного комплексного числа; мнимая часть этого комплексного числа будет напряженностью магнитного поля. 173
Следовательно, суммарное поле описывается функцией z (/) = + ... + (рассматривается суперпозиция п гармонических колеба- ний вида Rke‘^kt+<fk). Если каждый осциллятор колеблет- ся случайно, то Z (/) также случайно меняется, является случайным процессом. Представим этот процесс, пользуясь формулой (5), в следующем виде: U0 - ••• +2„ez%', (6) где Zk — комплексные случайные амплитуды отдельных колебаний; ык — их частоты. Будем считать, что процесс (6) определен для всех ве- щественных t, кроме того, естественно предполагать, что отдельные колебания независимы. Это означает, что неза- висимы случайные величины Zlt Zn. Величина Zk = Хк + iY к, где Хк и Yk — веществен- ные случайные величины. Будем предполагать, что вели- чины Хк и Yk таковы, что МХк = MYk = 0. Это предположение выполнено, если комплексная амп- литуда колебания Rke‘®k удовлетворяет условию: cpfe и Rk независимы и <pft равномерно распределено на [0, 2л]. Действительно, тогда = 7?*coscpft, 2л МХк = MR,,M cos ср* = MRk \ cos 0 = 0; 0 аналогично устанавливается равенство MY k = 0. Напомним, что модуль комплексного числа, представи- мого в виде Re1®, равен R, модуль числа Z обозначается -\Z\, если Z = X + iY, то | Z |2 = X2 + Y2 = R2 cos2 ср -|- R2 sin2 <р = R2. Величина М | ZJ2 = MRk = Ьк пропорциональна средней энергии колебания й-го осцил- лятора. Для простоты будем считать, что Ьк—средняя энергия колебания. 174
Рассмотрим некоторые характеристики процесса £ (t) при сделанных предположениях. Будем определять мате- матическое ожидание комплексной случайной величины 1 — X + iY с помощью формулы MZ = MX 4- iMY. Найдем Mt, (t). Поскольку MZk = 0 для величин Zk, входящих в формулу (6), то Mt, (t) = 0. Если t, (t)— неко- торый случайный процесс, то функция ЛД (/) называется средним значением процесса. Для случайного процесса £ (0 вида (6) при сделанных предположениях среднее зна- чение равно нулю. Другой важной характеристикой случайного процесса ' (t), принимающего комплексные значения, является кор- реляционная функция. Она определяется равенством В(М) = ледт-ледмШ (здесь £ — комплексное число, сопряженное к С, если + Й, то С = ? — й]). Вычислим корреляционную функцию для процесса \ (/) вида (6) при сделанных выше предположениях. Так как тогда Mt, (/) = 0 и Mt, (s) = 0, то B(t, s) = M(Zleia'1 + ••• +Zne'“"f) х X(Z1ei“‘* * 4 s+ ••• 4-Z„e'“nS) (число во второй скобке берется сопряженным). Известно, что сопряженное к сумме и произведению комп- лексных чисел есть сумма и произведение сопряженных комплексных чисел. Поэтому (Z^m ••• +Z„ei^s) = Z1e~i<1,'s + ••• +Z„e/<0"s (дело в том, что cos <р + i sin <р = cos <р — i sin <р = cos (— <р) + 4- i sin (— <p) = e“z<p. Значит, В (t, s) = S MZ^Z/e^ • e~'“/s. (7) k.i Из независимости величин Zk и Z, при k j вытекает, что MZkZj = MZk • MZj = 0. Поэтому в сумме справа 175
останутся лишь слагаемые, для которых k = j. Так что В (t, s) = U A4ZfeZfee <ofetZ-s) = fe •= S М IZJ2 e‘“*(Z~s) = S bk&^{i-s\ k k Таким образом, корреляционная функция процесса за- висит от разности аргументов t — s, будем обозначать ее В (t — s). Случайный процесс £ (/), для которого среднее значение постоянно, а корреляционная функция В (t, s) зависит от разности аргументов t — s, называется стационарным. Это название отражает то свойство случайного процесса, что его характеристики (среднее значение и корреляцион- ная функция) не меняются при сдвиге времени. Рассмотрим вместо процесса t, (/) процесс £ ((4- h), где h фиксировано. Тогда Л4С (/ 4- h) = (/) и (t + h) £(s + h) — (t + h) M£(s + h) = = В (t + h, s 4- h) = В (t + h — s — h) = В {t — s), т. e. и среднее значение и корреляционная функция процес- са С (I + h) такие же, как у С (0- Для стационарного процесса корреляционной функцией называется именно функция одного аргумента В (?) = В (t 4- ?, t), В (Z, s) = В (t — s). Итак, процесс вида (6) при условии, что случайные ве- личины Zk независимы и MZk = 0, является стационар- ным процессом, для которого среднее равно нулю, а для корреляционной функции справедливо представление В (т) = S Ь^, (8) k где ink — частоты составляющих С (0 гармонических коле- баний, a bk — энергия колебаний с частотой cofc. Наборы чисел со,, и bk определяют спектр процесса £ (/). Зная их, мы можем восстановить отдельные состав- ляющие процесса (точнее — указать их частоты и энергии). Если нам известен спектр процесса, можно определить по формуле (8) корреляционную функцию. Наоборот, по кор- реляционной функции можно восстановить спектр процесса. На практике приходится иметь дело с процессами, 176
представимыми в виде суммы очень большого числа осцил- ляторов, излучающих на близко расположенных часто- тах. Например, излучение нагретого тела (газа) есть сум- марное излучение отдельных атомов, которые выступают здесь в качестве осцилляторов, их число имеет порядок 1020. Спектр такого случайного процесса уже неудобно описывать с помощью наборов частот и энергий. Для его задания используют спектральную функцию распределе- ния. Обозначим через F (со) сумму энергий тех колебаний, для которых частота со* меньше, чем со: F (со) = £ bk, со — любое вещественное число. Тогда энергия колебаний на частотах из интервала [со, со Д Дсо) будет F (со + Дсо) — F (со). Функция F (со) называется спектральной функцией распределения. Корреляционная функция может быть выражена через спектральную функцию распределения следующим обра- зом: В (т) = lim V eZ/iftT [F ((п + 1) h) —F (nh)]. а-»о Предел справа есть по определению интеграл Уе‘“г dF (со) (интеграл от — оо до оо), так что В(т) = jetoTdF(co). (9) Для процессов вида (6) формула (9) сводится к формуле (8). Но оказывается, что для всякого стационарного про- цесса существует спектральная функция распределения (что утверждает теорема Бохнера— Хинчина, доказатель- ство которой выходит за рамки используемых здесь поня- тий). Это такая неубывающая ограниченная функция (суммарная энергия отдельных колебаний должна быть ограничена) F (со), что для корреляционной функции справедливо представление (9). Так как интеграл (9) можно приближенно представить в виде суммы (8), то отсюда дытекает, что каждый стационарный процесс, для которого М С (0 = 0, можно приближенно представить в виде (6). Если F (со + Дсо ) — F (со) ~ f (со) Дсо для некото- рой функции f (со), то f (со) называется спектральной 177
плотностью процесса. Через спектральную плотность корреляляци- онная функция выража- ется обычным интегра- лом В (т) = j е,<вт f (со) da. (Ю) Спектральная плот- ность является неотри- цательной (интегрируе- мой) функцией. Она может быть вычислена по корреляционной функции с помощью фор- мулы /(со) = - 4-в<т’л- оо Приведем некоторые примеры спектральных плотнос- тей и соответствующих корреляционных функций. 1. Равномерный спектр в некоторой полосе. В этом слу- чае f (со) = с при со £ [а, &], / (со) = 0 при со £ [а, Ь]. Корреляционная функция имеет вид ь В (т) = с Г е1<от dco = -4- LeZT& — е1М] = . a+i> , b—a , b—a C 1T~V-r lX~9~ -lX—9~ = e 2 [e 2 — e 2 it 1 2c . b_a = —— e 2 sin т —g— Пусть полоса симметрична относительно точки 0 и имеет вид [—а, а]. Тогда корреляционная функция будет В (т) — —— sin ах. 178
Заметим, что величина j cda — 2 ас есть полная энер- —а гия всех колебаний. Поэтому, обозначая ее через В, будем иметь 2. Пусть спектральная плотность имеет вид f (<й) п (а2 _|_ w2) • Тогда В (т) = 'т'- Чтобы убедиться в этом, достаточно воспользоваться формулой (11): vfe~a|tl~tot£/T=-2Ы J + \—оо ©о + С е-°т-'шт dr = (—Ц— 4 1 J 2ла I а — «о 1 о с л (а2 + <о2) На приведенном выше (с. 178) графике изображены: кор- реляционная функция, вещественная часть наблюдаемой кривой и спектральная плотность для последнего примера. Можно ли, наблюдая процесс £ (0 на достаточно боль- шом интервале, определить его характеристики (среднее значение и корреляционную функцию)? Оказывается, мож- но, если спектр его непрерывен, т. е. приращения спект- ральной функции распределения стремятся к нулю: F (© + А©) — F (©) -> 0 при А© -> 0. Пусть + (оА^О. k Рассмотрим среднее значение по времени от С (0 на отрезке [0, Т]. Получим . т dt = = а 1 е — 1 Т 17»
et0>kT _ 1 Так как величины -------— ограничены, то при Т->оо сумма справа стремится к нулю. Значит, 1 т а = lim С к Т-*©о * J Для определения корреляционной функции будем счи- тать, что а = 0 и рассмотрим среднее значение по времени вида 4- J и/ + Т) й?) dt = 2 ZkZ/ 4- J ez“*(Z+T)-z<V dt = о k.i b = V |ZJ2ez“ftT + У ZkZ^x- . Zj ' * Zj e ' i(ak — a>^T ' k Переходя к пределу при Т -> оо, найдем , т ____ lim 4- Сс а + т)С(/)Л = У |ZJ2ezV. т-*°° ‘ о * о " В том случае, когда спектр непрерывен, М | Zk |2 будут сколь угодно малыми, и поэтому к сумме независимых ве- личин справа будет применим закон больших чисел, так что эту сумму можно заменить ее средним значением. Но М У | Zk |2ez“*T = £ = В (т). k k Таким образом, для процессов с непрерывным спектром В(т)= lim > СС(^ + т)ШЛ.’ Какие задачи возникают при рассмотрении стационар- ных процессов и как они решаются, если известен спектр процесса, мы увидим в следующем параграфе. § 28. Фильтрация и прогноз Как правило, при обработке данных о случайных функциях используют лишь значения функции в некоторой дискрет- ной последовательности моментов времени t = kh, k = О, ±1, ±2, где h— величина промежутка, через который 180
производятся измерения. Обычно приборы устроены так, что они позволяют замерять лишь такую последователь- ность, но даже тогда, когда записывающее устройство вы- дает график функции, для дальнейшей численной обработки с графика снимают лишь значения функции на последова- тельности моментов времени указанного вида. Не ограни- чивая общности, можно h выбрать за единицу измерения времени. Тогда вместо непрерывного процесса t, (f) мы бу- дем рассматривать последовательность £ (k), k = 0, ±1, ±2, ... . Чтобы не менять терминологию, назовем ее также процессом. Если £ (0 —стационарный процесс, то для представ- ления В (fe), корреляционной функции £ (k), можно вос- пользоваться формулой (10) § 27 (в предположении сущест- вования спектральной плотности). Однако она допускает некоторое упрощение. Из указанной формулы вытекает В (k) = J е‘,лк f (w) dw. Но функция е/иА = cos few + i sin few является перио- дической с периодом 2л. Поэтому У е'“* f (w) dw = J elak f (w + 2nn) dw. 2лл 0 Положим / (w) = S / (w + 2пл). n Тогда 2л л В (fe) = je'^f (w) dw. (1) о Функция / (w), входящая в представление (1), называется спектральной плотностью для процесса (последовательнос- ти) £ (fe). Будем считать, что процесс С (fe) есть некоторый сигнал (например, радиосигнал). Приемное устройство, принимая сигнал, преобразует его определенным образом. Наибо- лее широкое применение на практике имеют линейные уст- ройства. Схематически действие устройства таково: £ (fe) -+ U -+ т] (fe), на устройство поступает сигнал С (fe), а Л (fe) — результат преобразования сигнала устройством. 12 из 181
Для линейных устройств справедливо свойство + (fe) + n2(fe). т.' е. сумма двух сигналов преобразуется в сумму преобра- зований отдельных сигналов. Если значение q (k) зависит лишь от значения £ (k) (устройство без памяти), то т] (k) = ct (k), где с— некоторая постоянная (считаем, что устройство не меняется со временем). Общий линейный преобразова- тель получим, если будем считать, что q (fe) зависит от всех предыдущих значений £ (k) (из физических соображений понятно, что от будущих- значений £ (k) q (k) зависеть не может). Если свойства преобразователя не меняются со временем, то он будет действовать по формуле q М) = S — п) • *2) (значение процесса £ (/) в момент, на п единиц предшест- вующий текущему моменту k, входит в q (/г) с коэффициен- том с„). Числа сп таковы, что сумма в (2) определена. Оказывается, в результате преобразования (2) мы опять получим стационарную последовательность. Пусть Л4£ (fe) = а, В (k) — корреляционная функция для £ М). Тогда Qj = Mq (k) = а cn> n^O 44q (k + tri) q (m) = M cnt, (k + m — n) £ cfe (tn — I) = ni.0 !i.O = S Е^Д(Няг-п)1(т-0 = n^.0 1^0 = S Ycncl{B(k — n + Z) + |a|2]; niO /iO как видим, выражение справа действительно зависит только от k. Отсюда и вытекает стационарность q (k). Предположим, что В (k) допускает представление (1). Покажем, что тогда и q (k) имеет спектральную плотность и найдем ее выражение. Из приведенных выше вычислений вытекает, что корре- ляционная функция Bj (k) для процесса q (k) имеет вид (fe) = £ U c„czB (k — п + I). 182
Поэтому Bt (k) = V у спс, ( еКюе—,',me,7<'V (со) dm = ’TiO/LMI « 2л = е""1' V с'пе~",м V ср“ш[ (т) dm. 0 /7^0 '>0 Обозначим и (со) = У cne~inb\ п^О тогда и (cd) = V п^О 2Л л Bi (k) = J е""” | и (со) |2 f (со) dm. о Функция | и (со) |2 называется частотной характеристи- кой преобразователя. Если Д (со) — спектральная плот- ность T| (fe), то А(со) = |ц(со)|2/(со), (3) т. е. линейный преобразователь работает очень просто: он умножает спектральную плотность принимаемого сигнала на частотную характеристику. Преобразователи, которые не меняют одни частоты и гасят другие, называются фильтрами. Рассмотрим одну из задач типа фильтрации, т. е. построения фильтра с задан- ными свойствами. Предположим, что наблюдаемый процесс £ (fe) имеет полезный сигнал, частота которого со0 £ [0, 2л] и помехи со спектральной плотностью f (со) (полезный сиг- нал будем считать неслучайным). Идеальный фильтр должен был бы иметь такую частот- ную характеристику, чтобы | и (соо) |2 = 1 и и (со) = 0 при со =/= со0. Однако такой фильтр построить нельзя. Мы сей- час найдем фильтр, у которого \и (со0)|2 = 1 и и (со) до- статочно мало, если | со— соо| > А, где А— некоторое задан- ное число. Пусть I«(со) I2 ---------------------------------- • (4) в2 -J- 4 (1 — е) sin2 ( Ю 2 0)0 j 12 183
Q}a График этой функции име- ет примерно такой вид: (при | <о — соо | > Y 8, ео | и (со) | < • Найдем вид соответствующего линейного преобразова- : теля. Для этого представим знаменатель в (4) так: е2 + 2 (1 — е) (1 — cos (со — со0)) = =• (1 — е)2 + 1 — 2(1 — е) cos (со — со0) = = (1 — е)2 cos2 (со — со0) + (1 —в)2 sin2 (со — со0) + + 1 — 2(1 — е) cos (со — со0) = = [(1 —-е) cos (со — соо) — I]2 + (1 — в)2 sin (со — <р0) = =|(1 — е) cos (со — соо) — 1 + i (1 — е) sin (со — со0) |2 = = 11 _(i _е)е«<В-<Во)|2. Положим и (со) =-------------—.. . > 1 _(i _8) Тогда выполнена формула (4). Выражение справа мож- но представить в виде суммы геометрической прогрессии и (со) = в £ (1 — е)" е/л<0«е~"!<0. Значит, искомый фильтр получится, если в преобразо- вании (2) взять сп = е (1 — е)" ем<0». Рассмотрим теперь задачу о прогнозе случайного про- цесса. Она заключается в наилучшем приближении значе- ний процесса в будущем по его значениям до настоящего момента времени. Простейшая задача прогноза: как, зная значения про- цесса t,k при k 0, определить Уточним, во-первых, что нужно понимать под построением некоторой величины по прошлым значениям. Мы уже имели дело с таким по- строением при знакомстве с линейными преобразователями. Будем и сейчас рассматривать в качестве приближенных значений величины, полученные из t,k с помощью линей- ных преобразователей: Zj c-nb— (5) 184
Здесь k— искомое приближенное значение k- Линейный преобразователь выберем так, чтобы среднее квадратиче- ское отклонение приближения от истинного значения (6) было минимальным. Если сп выбраны указанным образом, то величина 6н-1 = CnZk—п п^О будет наилучшим приближением величины по значе- ниям l^k. Установим одно важное свойство наилучшего прибли- жения gj: для всех I О M(k~k)k=0. .(7) Действительно, при всех комплексных а имеем М |k-L-а^|2>М |k -£х|« (в силу минимальности величины (6)), значит, M|k-kl2^M(k-k-«k) (k-k-ak) ” -M|k-kla-aM(k-k)k-aAf(k-k)k + + |a|2M|kl2, M | k |2| a I2 — aM (k - k) tz - aM & - k) k > 0. Если M (k — k) lz — a + ib, то, взяв вещественное а, найдем a2M | k I2 — 2aa > 0. Поэтому n a I IS I I I « I • M I t, I* 2aT5T^|a|M|Sz 1 ’ -2 • Вейлу произвольности a |a| = 0. Аналогично, взяв a = i’P, где p— вещественное, найдем, что b = 0. Тем са- мым (7) установлено. Подставляя в (7) вместо k выражение (5), будем иметь B(l — I)— X спВ (— п — /) = 0, /<0. /2>0 185
Значит, ezt°-z“z — £ cne-ine>~lal f (co) da = 0. о . Положим Тогда ы (co) = S ene~,no. 2л У [е^“ — и (со) | е~ZmZ f (со) da = 0, I 0. о (8) (9) Нужно найти функцию и (со) вида (8) так, чтобы выпол- нялось соотношение (9). Это будет, если [е'<° — и (со)] /(со) = £ dkeike>," k^i 2л поскольку у eZAm“ZmZdco = 0 при fe > 1, I 0. Поэтому о спектральная плотность будет представима в виде оо s ez“-£ Cne-ZnM • ni.0 Пусть, например, f (со) = |aez<0 — 112 при 0 < |а| < 1. Тогда 1 __ар1а> f (со) = (1 — aez“) (1 — ae~z<0) = an_i™ я п^О ez<a-aez2<a “ eZm + £ аМ-1е-'л«> ’ ni.0 Поэтому и (со) = — У ап+|е—1па>. п>0 Наилучший прогноз имеет вид = - 2 ап+^п. п^.0 186
§ 29. Броуновское движение Микроскопические частицы, взвешенные в жидкости или газе, под воздействием молекул среды, находящихся в хао- тическом тепловом движении, двигаются случайным,.очень нерегулярным образом. Это явление получило название броуновского движения. Мы рассмотрим одну вероятностную модель этого явления. Будем исходить из небольшого числа физически оправ- данных условий. I. Поскольку в единицу времени количество соударений частицы с молекулами среды огромно (число молекул имеет порядок 1О20, их скорости порядка 105 см/с при обычных температурах), молекулы, можно считать, двигаются неза- висимо, то перемещения частицы иа двух непересекающихся промежутках времени (и вообще при любой последователь- ности непересекающихся промежутков времени) независимы, так как они вызваны независимыми воздействиями среды (это либо воздействия различных молекул, либо Воздей- ствия одной молекулы, но скорость ее успела измениться в результате столкновений с другими молекулами). 2. Среда, в которой движется частица, однородна в про- странстве и времени: ее свойства не меняются со временем и в любой точке среды они одинаковы. Кроме того, пред- положим, что среда изотропна, т. е. ее свойства одинаковы по любым направлениям. Это будет в жидкости или газе, имеющим всюду одинаковую температуру (она характери- зует скорости молекул среды) и давление (от него зависит число молекул в единице объема) при отсутствии течений, которые бы указывали преимущественное направление дви- жения. 3. Двигающаяся частица описывает непрерывную траек- торию, т. е. не может мгновенно перескочить из одной точки пространства в другую. Движение точки в пространстве описывается с помо- щью координат. Пусть х (t), у (0, г (0 — координаты точки в момент t. Из изотропности среды вытекает, что характер изменения всех координат одинаков. Поэтому рассмотрим только одну координату — х (0. Для каждого t х (0 является случайной величиной, значит, х (0 — случайный процесс. Он обладает следующими свойствами: I. Если 0 < 0 < ... < 0, то случайные величины х (0), х (t.t) — х (tj, ..., х (0) — X (0-1) 187
независимы, так как в силу условия 1 перемещения части- цы на непересекающихся промежутках [0, <11, t.2], ... ..., [/*-1, независимы. II. Распределение величины х (t + h) — х (/) не зави- сит от t (процесс однороден во времени), это вытекает из условия 2; III. х (/) — непрерывная функция. Из свойства II вытекает, что распределение х (t 4- h) — — х (/) совпадает с распределением х (h.) — х (0). Рассмотрим математическое ожидание М (х (t) — х (0)). Поскольку М [x(nh) — х (0)) = £ М [х (kh) — x((k— 1)й)] = fe=i = nM(x(h)— х(0)), то M(x(t) — х(0)) = ta, а = М(х(1) — х(0)). Если бы а =/= 0, то существовало бы течение, уносящее частицы в положительном направлении вдоль оси х при а > 0 и в обратном — при а < 0. Поэтому а = 0. Из независимости величин x(h)— х(0), x(2h)— x(h), ...,x(nh)— х((п—l)h} вытекает, что дисперсия их суммы равна сумме дисперсий. Обозначим b(t) = D[x (t) — x(O)]. Тогда D [х (kh) — x((k — 1) h.)] = D[x(h) — x (0)] = b (h). Значит, b (nh) = £ D [x (kh) —x(kh — h)] = nb (h). Поэтому b (t) — линейная функция: b (t) = bt. Величина x (t) — x (0) представима в виде суммы сколь угодно большого числа малых (в силу условия 3) одинаково распределенных независимых приращений: Л x(t) — x (0) = X X (-у — х / И . fr=l L Поэтому на основании центральной предельной теоремы можно сделать заключенно, что х (t) — х (0) имеет нормаль- но
ное распределение. Как вычислено выше, среднее значение этого нормального распределения будет 0, а дисперсия — bt. Значит, плотность распределения величины х (/) — х (0) будет ft(x) = 2W . (1) /2.-1W Найдем плотность вероятности перехода для процесса х (t), т. е. плотность условного распределения величины х (/), если задано х (0) — х0. Тогда х (t) = х0 + [х (t) — — х (0)] и из формулы (1) вытекает 2bt (2) (если х (0 = х, то х (0 — х (0) = х — х0, поэтому в фор- мулу (1) нужно подставить вместо х величину х — х0). Коэффициент Ь, входящий в формулы (1) и (2), называет- ся коэффициентом диффузии, он характеризует средний квадрат смещения частицы (вдоль оси х) за единицу вре- мени и зависит от числа соударений, и скорости молекул, т. е. от температуры и плотности среды. Как указывалось, координаты у (t) и z (t) ведут себя точно так, как и координата х (/) Поэтому для плотности распределения величины у (I) — у (0) (а также г (/) — — г (0)) справедлива формула (1). Вычислим вероятность того, что частица из точки с координатами х0, у0, г0 за время t попадет в параллелепипед, имеющий проекциями на координатные оси отрезки [х, х + Ах], [у, у + А у], [г, г + Аг]. Будем исходить из того, что величины х (t) — — х (0), у (0 — у (0) и г (/) — г (0) независимы. (Независи- мость вытекает из изотропности, далее будут приведены некоторые соображения, поясняющие этот факт.) Тогда в силу формулы (2) Р {х (0 6 [X, х + Ах] I х (0) = х0]--е 2W Ах, . _ (<Z—</о)2 р {у (0 £{у,у + At/] I у (0) = у0] ~ -7===- е 2W by, у 2nbt (г-г0)* Р {z (0 6 [г, г + Аг] | z (0) = г0)- е 2bt tXz, 189
» значит, P x (t) E \x, x + Ax], у (t) £\y, у + Аг/], z(0€[z, z 4-Az] x (0) = x0 У (0) = У о z (0) = z0 ___3_____r2 = ~ (2nbt) 2 e 2W АхАг/Аг, где r2 = x — x0)2 + (y — y0)2 4* (z — z0)2 — квадрат расстоя- ния между точками (xn, у0, z0) и (х, у, z). Функция __3____г2 ft (х0, у о, г0; х, у, г) = (2nbt) 2 е 2Ь< (3) называется трехмерной плотностью вероятности перехода для процесса броуновского движения. Вероятность попадания частицы в малый объем, содер- жащий точку (х, у, г), в момент времени t при условии, что в начальный момент времени она находилась в точке (х0, у0, г0), равна произведению трехмерной плотности веро- ятности перехода на величину объема. Тот факт, что функ- ция (3) зависит лишь от расстояния между точками (х0, у0, г0) и (х, у, г), и есть математическое выражение изотроп- ности процесса. Таким образом, именно при предположе- нии о независимости координат мы приходим к изотропно- му процессу. Броуновское движение — одно из самых распростра- ненных явлений в природе. В броуновском движении не- прерывно находятся молекулы жидкости газа, свободные электроны в проводниках, ионы в плазме, благодаря ему происходит диффузия одного вещества в другом, осуществ- ляются питание клеток в организме и вывод из клеток продуктов жизнедеятельности, происходят химические реак- ции, вообще возможна жизнь. Именно броуновское движе- ние — источник случайности в явлениях макромира. При рассмотрении задач, относящихся к броуновскому движению, удобно использовать дискретную аппроксима- цию движения. Опишем ее для случая одномерного процес- са х (0. Будем считать, что х (0 может принимать лишь значения вида йА, где А — фиксированное достаточно ма- лое число, a k принимает любые целые значения. Части- ца меняет свое положение через отрезки времени длины h; h также малое число. Если частица находится в точке feA, 190
то'за время h она переходит либо в точку (k — 1) Л, либо в точку (k + 1) А, оба перехода осуществляются с веро- ятностями г/2. Тогда х (й) — х (0) — величина, принима- ющая значения ±А с вероятностями г/г. При этом M(x(/i)-x(0)) = -i-А----А = 0, D(x(h) — x(0)) =4 А2 + = Д2- Поскольку для броуновского движения D (х (Л) — — х (0)) = bh, то между ft и А должна быть такая связь: A* = bh, А = ^bh. Найдем вероятность того, что за время t частица сдви- нется на х. Пусть t — nh, х = mA. Тогда из п шагов долж- , п + т п — т но быть —— положительных и —%— отрицательных. Поскольку шаги независимы, то вероятность этого события л 4-т , , , с~2~ V=_______________—___________— л \ 2 у / п + т \ | п— т , I 2Л 2 )’• Как показано в § 9, последнее выражение эквивалентно 1 ~2п V 2лп п t Ы х Подставляя п = — = , т = -д- , получим, что эта вероятность эквивалентна выражению л д е 2Ы V 2лЫ которое при малых А есть вероятность того, что х (/) — — х (0) попадает в интервал [х--1-, х + а это согла- суется с видом плотности распределения (1). Используем дискретную аппроксимацию для определе- ния среднего времени, которое потребуется частице, чтобы выйти из отрезка (а, 0). Пусть а = ЛА, 0 = ВА, А, В — целые числа. Обозначим через х точку вида kA из отрезка [а, 0], а через т(х)—среднее время до попадания на границу отрезка (а, 0) при условии, что в начальный 191
момент времени частица находилась в точке х. Тогда т (а) = т (0) = 0, так как при условии, что х (0) = а или х (0) = 0, частица уже в начальный момент времени находится на границе отрезка (а, 0) и время до выхода равно нулю. Если а < х < 0, то для достижения границы частица должна сделать по крайней мере 1 шаг, затратив , 1 время п, после этого она с вероятностями -% попадает в одну из точек х ± А. Из точки х — А она затратит в сред- нем т (х — А) времени для достижения границы (вероят- ность этого -у I, а из точки х + А — среднее время т (х + А) (тоже с вероятностью Значит, иг (х) удовле- творяет соотношению /п(х) =h+ ~^-т(х — Л) +-^-т(х + А). '(4) Поэтому т (х) — т (х — Л) = 2h 4- [т(х + А) — т(х)], т (а + kA) — т (а + kA — А) = = 2h + [т (а 4- kA + А) — т (а 4- feA)]. Последовательность uk = /п(а + kA) — т (а 4- (fe — 1) A), k = 1, 2, ... образует арифметическую прогрессию, разность которой —2h, первый член т (а + А). Поэтому т (а + kA) = + ••• + uk = ui + u/l k = m (a 4- Д) m (a 4- Д) — 2 (k — 1) h A _ _ - r _ = km (a 4- A) — k (k — 1) h. Если k = В — A, to 0 = m (BA) = m (a 4- (B — Л) A) = - (В — Л)[т(а4- A) 4-/1] — (B — A)2h. Значит, m (a 4- A) = (В — A — 1) h. 192
Таким образом, z ч I , х — а.\ х— а /г, , /х— а®, т(х) = тЫ-------д—Aj = —(В — Д)Л—(—д—j h (мы вместо k подставили —д—I . Учитывая равенство п = Д2 = -у- , окончательно находим _/„ч_ (х — а) (Р — а) — (х~ а)2 (х — а)(0 — х)
РЕКОМЕНДОВАННАЯ ЛИТЕРАТУРА Баручс-Рид А. Т. Элементы теории марковских процессов и их прило- жения.— М.: Наука, 1969.— 512 с. ' Гнеденко Б. В., Хинчин А. Я-Элементарное введение в теорию вероят- ностей.— 6-е изд.— М. : Наука, 1964.— 144 с. Карлин С. Основы теории случайных процессов.— М. : Мир, 1971.— 536 с. Кац М. Вероятность и смежные вопросы в физике.— М. : Мир, 1965. — 408 с. Кац М. Несколько вероятностных задач физики и математики.— М.: Наука, 1967,— 176 с. Нейман Ю. Вводный курс теории вероятностей и математической ста- тистики.— М. : Наука, 1968,— 448 с. Смит Дж. Математические идеи в биологии.— М. : Мир, 1970.— 180 с. Смит Дж. Модели в экологии.— М. : Мир, 1976.— 180 с. Феллер В. Введение в теорию вероятностей и ее приложения.—М.: Мир, 1964,— 498 с.
ОГЛАВЛЕНИЕ Введение ................................................... 3 I. Случайные события § 1. Что такое случайное событие?........................... 6 § 2. Эксперименты с конечным числом исходов. Классическое определение вероятности ................................... 13 § 3. Комбинаторные методы определения вероятности......... 21 § 4. Независимость случайных событий....................... 28 § 5. Геометрические методы. Задача о встрече.............. 35 § 6. Схема независимых испытаний.......................... 43 § 7. Закон редких событий................................. 47 § 8. Закон больших чисел.................................. 51 § 9. Нормальная аппроксимация.............................. 55 § 10. Оценка неизвестной вероятности события............. 61 § 11. Условные вероятности................................ 64 § 12. Формула Байесса ..................................... 75 II. Случайные величины § 13. Примеры случайных величин ........................... 80 § 14. Функция распределения ............................... 84 § 15. Среднее значение .................................... 92 § 16. Дисперсия случайной величины ........................100 § 17. Независимые случайные величины ................105 § 18. Закон больших чисел...................................НО § 19. Центральная предельная теорема ................115 § 20. Эмпирическая функция распределения...................120 § 21. Корреляция случайных величин ........................125 III. Случайный процесс § 22. Время ожидания ..................................... 136 §’23. Процесс Пуассона.....................................140 § 24. Процессы с конечным множеством состояний ............146 § 25. Эргодическая теорема ................................153 § 26. Ветвящиеся процессы..................................161 § 27. Колебания со случайной амплитудой.....................ПО § 28. Фильтрация и прогноз.................................180 § 29. Броуновское движение ................................187 Рекомендованная литература ............................... 194
Научно-популярная литература Анатолий Владимирович Скороход вероятность вокруг нас Утверждено к печати Редакционной коллегией на- учно-популярной литературы АН УССР Редакторы А. Г. Пеккер, А. М. Азаров Оформление художника Ю. В. Бойченко Художественный редактор Б. И. Прищепа Технический редактор С. Г. Максимова Корректоры Л. Я’ Постолова, Э. Я- Белокопытова, Л. В. Малюта Информ, бланк № 3G35 Сдано в набор 27.02.80, Подп. в печ. 30. 10. 80. БФ 00188. Формат- 84Х108/32. Бумага типогр. № 3. Лит. гарн. Выс. печ. Усл. печ. л. 10,29. Уч.-изд. л. 9,34. Тираж 29 000 экз. Заказ 533. Цена 30 коп. Издательство «Наукова думка>. 252601, Киев, ГСП, Репина, 3. Отпечатано с матриц республиканского произ- водственного объединения «Полиграфкиига» Гос- комиздата УССР, Киев, Довженко, 3 в област- ной книжной типографик львовского облполи- графиздата. Львов. Стефаника, 11. Зак. 3828.
30коп. „ НАУКОВА ДУМКА “
□в А. В. СКОРОХОД Вероятность